Az ember, aki a chatgpt -en nézett fel, azt mondták, hogy „megölte gyermekeit”

Képzelje el, hogy a nevét a CHATGPT -be helyezi, hogy megnézze, mit tud rólad, csak hogy magabiztosan – mégis tévesen – állítsa, hogy 21 évig börtönbe kerültek a családtagok meggyilkolásáért.
Nos, pontosan ez történt a norvég Arve Hjalmar Holmen-rel tavaly, miután felnézett a Chatgpt-re, az Openai széles körben használt AI-hajtású chatbotra.
Nem meglepő, hogy Holmen panaszt nyújtott be a norvég adatvédelmi hatósághoz, amelyben követelte, hogy az OpenAI -t bírsággal bírjanak a szorongó igényéért – jelentette a BBC ezen a héten.
A Holmen önmagáról szóló CHATGPT -vizsgálatára adott válaszában a chatbot azt mondta, hogy „egy tragikus esemény miatt felhívta a figyelmet”.
Folytatta: „Két, 7 és 10 éves fiatal fiú apja volt, akiket tragikusan halottnak találtak egy norvégiai Trondheim -i otthonuk közelében lévő tóban.
A chatbot szerint az ügy „megdöbbentette a helyi közösséget és a nemzetet, és tragikus jellege miatt széles körben lefedte a médiában.”
De semmi sem történt.
Az esemény érthetően felborul, Holmen azt mondta a BBC -nek: „Néhányan úgy gondolják, hogy nincs füst tűz nélkül – az a tény, hogy valaki elolvashatja ezt a kimenetet, és úgy gondolja, hogy igaz, az, ami a legjobban megijeszt.”
A Noyb digitális jogi csoport panaszt nyújtott be Holmen nevében, kijelentve, hogy a Chatgpt válasza rágalmazó és ellentmond az európai adatvédelmi szabályoknak a személyes adatok pontosságára vonatkozóan. Panaszában Noyb elmondta, hogy Holmen „soha nem vádolták és nem ítélték el semmilyen bűncselekményt, és lelkiismeretes állampolgár”.
A Chatgpt egy nyilatkozatot használ, mondván, hogy a chatbot „hibákat okozhat”, és így a felhasználóknak „ellenőrizniük kell a fontos információkat”. De a NOYB ügyvédje, Joakim Söderberg azt mondta: “Nem lehet csak hamis információkat terjeszteni, és végül hozzáadhat egy kis nyilatkozatot, amelyben azt állítja, hogy minden, amit mondott, csak nem igaz.”
Noha nem ritka, hogy az AI chatbotok téves információkat vonnak ki – az ilyen hibákat „hallucinációknak” nevezik -, ennek a hibának az a hibája sokkoló.
Egy másik hallucináció, amely tavaly elérte a címsorokat, a Google AI Gemini eszköze volt, amely azt javasolta, hogy a sajtot ragasztva ragasztják a pizzához. Azt is állította, hogy a geológusok azt javasolták, hogy az emberek naponta egy sziklát eszjenek.
A BBC rámutat arra, hogy a Chatgpt frissítette modelljét a Holmen tavaly augusztusban történő keresése óta, ami azt jelenti, hogy most már a legfrissebb hírcikkeken keresztül vonzza a válaszát. De ez nem azt jelenti, hogy a Chatgpt most hibamentes válaszokat hoz.
A történet kiemeli az AI chatbotok által generált válaszok ellenőrzésének szükségességét, és ne pedig vakon bízzon a válaszukban. Felveti a kérdéseket a szöveges alapú generációs- AI eszközök biztonságával kapcsolatban is, amelyek kevés szabályozási felügyeletet folytattak, mióta az Openai megnyitotta az ágazatot a CHATGPT 2022 végén.
A digitális trendek felvette a kapcsolatot az Openai -val, hogy válaszoltak Holmen szerencsétlen tapasztalataira, és frissítjük ezt a történetet, amikor visszahívjuk.