AI sa strašidelne blíži k údajom zo Star Trek: TNG, keď vie, či mu môžete dôverovať alebo nie
>Nemusí to byť také sebavedomé ako údaje od Star Trek: TNG (zatiaľ), najmä preto, že tento droid by sa mohol o mačku starať lepšie ako niektorí ľudia, ale AI teraz dosiahla bod, keď si uvedomuje, že nie je dôveryhodná.
Čo sa teraz nazýva hlboká dôkazová regresia zvýšilo sebavedomie AI. Na základe vyhodnotenia spoľahlivosti údajov, na ktoré sa pozerá, bude vedieť, kedy má väčšiu šancu urobiť chybu v predikcii. Budúce predpovede budú pravdepodobne fungovať, ak budú ovplyvnené dôkladnejšími a presnejšími údajmi. Opak znamená, že sa veci pravdepodobne pokazia - a AI to dokáže vycítiť. Keď odhadne svoju istotu o niečom, táto istota pôjde hore a dole v závislosti od údajov, z ktorých je zdroj podávaný. AI potom môže určiť riziko alebo neistotu s 99% presnosťou.
diabol obrátil tarot
Zdá sa, že aj na Picarda to urobí dojem - ale počkajte. Sebavedomí roboti majú len jednu nevýhodu, a to, že 99% nie je úplná istota, bez ohľadu na to, ako blízko sú. Byť mimo iba o 1% by mohlo znamenať katastrofu v potenciálne život ohrozujúcich scenároch, od riadenia autonómneho auta po chirurgický zákrok. Desivé.
Zatiaľ čo [hlboká dôkazová regresia] ponúka oproti existujúcim prístupom niekoľko výhod, jej primárne obmedzenia spočívajú v ladení koeficientu regularizácie a v účinnom odstraňovaní nezavádzajúcich dôkazov pri kalibrácii neistoty, povedal MIT Ph.D. študent Alexander Amini , ktorý viedol štúdiu, ktorú predstaví na budúcoročnej konferencii NeurIPS.
mind field sezóna 1 epizóda 2
To, čo sa Aminimu a jeho tímu podarilo, je stále veľmi pozoruhodné. Predtým bolo použitie AI na odhad neistoty nielen nákladné, ale príliš pomalé na rozhodovanie, ktoré je potrebné urobiť v zlomku sekundy. Neurónové siete môžu byť také obrovské, že im môže trvať večnosť, kým vypočítajú odpoveď, a čakanie na úroveň spoľahlivosti by bolo príliš dlhé na to, aby ste sa vôbec namáhali vynaložiť úsilie. Bolo by zbytočné používať niečo také v sebe -šoférske auto, ktoré potrebuje vedieť, ktoré odbočenie má ihneď urobiť. Tento proces bol posunutý dopredu hlbokou dôkazovou regresiou. Túto neurónovú sieť stačí spustiť raz, aby sa zistila úroveň neistoty.
Hádaním neistoty v modeli, ktorý sa AI už naučila, nám môže približne povedať, aké široké je rozpätie pre chyby. AI na podporu svojho odhadu používa dôkazy. Tento dôkaz zahŕňa akúkoľvek neistotu, ktorá sa skrýva buď v údajoch práve analyzovaných neurónovou sieťou, alebo v jej sebavedomí, pokiaľ ide o dôveru vo vlastné rozhodnutie. Amini a jeho tím testovali metódu hlbokej dôkazovej regresie trénovaním AI na odhad hĺbky každého pixelu na obrázku. Vnímanie hĺbky môže znamenať život alebo smrť pri chirurgickom zákroku, ktorý potrebuje odstrániť nádor, ktorý môže byť umiestnený hlboko vo vnútri tela a inak je ťažké ho vidieť.
AI bola väčšinou presná, ale pokazilo sa to akonáhle boli kŕmené obrázkami, ktoré boli ťažšie zapamätateľné. Prinajmenšom bola jedna vec, v ktorej bola konzistentná: Keď sa stretol s obrázkami, ktoré mu spôsobovali problémy, bez problémov informoval tím o svojej neistote. Jeho stanovená miera chyby môže výskumníkov prinajmenšom naučiť, ako tento model vylepšiť. Jeho schopnosť rozpoznať obrázky, ktoré boli uložené vo Photoshope, otvára aj možnosť rozpoznania hlbokých falzifikátov. Ľudia si musia len uvedomiť, že tento mozog robota je stále omylný a nemôžeme mu dôverovať o nič viac, ako môže dôverovať sebe.
Sme presvedčení, že je potrebné ďalšie vyšetrovanie s cieľom objaviť alternatívne spôsoby odstránenia zavádzajúcich dôkazov, Povedala Amini .
je to tenká hranica medzi filmom o láske a nenávisti
To znamená, že AI, ktorá dokáže premýšľať pomocou hlbokej dôkazovej regresie, je celkom spoľahlivá, pokiaľ by výsledok nesprávnej odpovede nebol smrteľný.