Home Hír A DeepMind már kitalálja a módját, hogy biztonságban tartson minket az AGI...

A DeepMind már kitalálja a módját, hogy biztonságban tartson minket az AGI -től

17
0

A mesterséges általános intelligencia jelenleg hatalmas téma – bár senki sem értett egyet, mi az AGI valójában. Egyes tudósok azt gondolják, hogy még több száz év múlva van, és szükség lenne olyan technikára, amelyet még nem tudunk elképzelni, míg a Google DeepMind azt mondja, hogy 2030 -ra itt lehet – és ez már megtervezi a biztonsági intézkedéseket.

Nem ritka, hogy a tudományos közösség nem ért egyet az ilyen témákban, és jó, ha minden bázisunkat olyan emberekkel borítják, akik mind a közeljövőre, mind a távoli jövőre tervezik. Ennek ellenére öt év nagyon sokkoló szám.

Jelenleg a nyilvánosság számára ismert „Frontier AI” projektek mind LLM -ek – képzeletbeli kis szó -találgatók és képgenerátorok. Például a Chatgpt még mindig szörnyű a matematikában, és minden modell, amit valaha kipróbáltam, szörnyűen hallgatja az utasításokat és a válaszokat pontosan szerkeszti. Az antropikus Claude még mindig nem verte meg Pokémont, és olyan lenyűgöző, mint ezeknek a modelleknek a nyelvi képességei, még mindig képzettek a világ legrosszabb íróira, és rengeteg rossz szokást vettek fel.

Nehéz elképzelni, hogy ugrálni kell a mostantól, ami a DeepMind szavaival olyan képességeket mutat, amelyek megegyeznek vagy meghaladják a „képzett felnőttek 99. százalékát”. Más szavakkal, a Deepmind úgy gondolja, hogy az AGI ugyanolyan okos vagy okosabb lesz, mint a világ embereinek top 1% -a.

Szóval, milyen kockázatokkal gondolja a DeepMind, hogy egy Einstein-szintű AGI jelentkezhet?

Mélytábor

A cikk szerint négy fő kategóriánk van: visszaélés, eltérés, hibák és szerkezeti kockázatok. Olyan közel voltak a négy ms -hoz, ez szégyen.

A DeepMind úgy véli, hogy a „visszaélés” olyan dolgoknak, mint például a politikai versenyek befolyásolása mélyfajta videókkal vagy az emberek megszemélyesítésével a csalások során. Megemlíti a következtetésben, hogy a biztonsági megközelítés „a rosszindulatú szereplők veszélyes képességekhez való hozzáférésének megakadályozására irányul”. Ez jól hangzik, de a DeepMind a Google része, és rengeteg embernek tartja az amerikai technikai óriást, hogy maga potenciális rossz színész. Persze, a Google remélhetőleg nem próbál el lopni pénzt az idős emberektől az unokáik megszemélyesítésével – de ez nem azt jelenti, hogy az AGI -t nem fogja használni, hogy profitot szerezzen, miközben figyelmen kívül hagyja a fogyasztók érdekeit.

Úgy tűnik, hogy a „téves igazítás” a terminátor helyzete, ahol egy dolgot kérünk az AI -nek, és ez csak valami teljesen másképp tesz. Ez egy kicsit kényelmetlen gondolkodni. A DeepMind azt mondja, hogy a legjobb módszer ennek ellensúlyozására az, ha megbizonyosodunk arról, hogy megértsük, hogyan működnek az AI rendszereink a lehető legnagyobb mértékben, így meg tudjuk mondani, mikor történik valami rosszul, hol megy rosszul, és hogyan javítsuk meg.

Ez ellentétes a képességek teljes „spontán megjelenése” és az a koncepció, hogy az AGI annyira összetett lesz, hogy nem tudjuk, hogyan működik. Ehelyett, ha biztonságban akarunk maradni, akkor meg kell győződnünk arról, hogy tudjuk, mi folyik itt. Nem tudom, milyen nehéz lesz ez, de határozottan van értelme kipróbálni.

Az utolsó két kategória véletlen károsodásra utal – vagy az AI hibái, vagy a dolgok csak rendetlenek, amikor túl sok ember vesz részt. Ehhez meg kell győződnünk arról, hogy vannak olyan rendszerek, amelyek jóváhagyják az AGI cselekedeteit, és megakadályozzák, hogy a különböző emberek ellentétes irányba húzzák.

Noha a DeepMind papírja teljesen feltáró, úgy tűnik, hogy már rengeteg módon tudjuk elképzelni, hogy az AGI rosszul megy. Ez nem olyan rossz, mint amilyennek hangzik – a problémák azok a problémák, amelyekre a legjobban fel tudunk készülni. Azok a problémák, amelyekre nem számítunk, ijesztőbbek, ezért reméljük, hogy nem hiányzik semmi nagy.