Tudomány és technika

Becsaphatja a Google AI áttekintéseit, hogy magyarázza a kész idiómákat

Ahogy a Big Tech számtalan dollárt és erőforrást önt az AI-be, hirdetve az utópiát létrehozó ragyogás evangéliumát, itt emlékeztető arra, hogy az algoritmusok csavarhatják fel. Nagy idő. A legfrissebb bizonyítékok: A Google AI áttekintését (a keresési lekérdezések tetején lévő automatizált válaszok) becsaphatja a kitalált, értelmetlen idiómák magyarázatára, mintha valódiak lennének.

A Google AI áttekintése szerint (a @GregJenner on Bluesky -n keresztül): “Nem tudsz kétszer nyalni a borzot”, azt jelenti, hogy másodszor nem lehet becsapni vagy megtéveszteni valakit, miután egyszer becsaptak.

Ez úgy hangzik, mint egy logikus kísérlet az idióma magyarázatára – ha csak nem volt a mák. A Google Ikrek által hajtott kudarcának feltétele, hogy feltételezte, hogy a kérdés a beépített kifejezésre utal, nem pedig az abszurd mumbo jumbo-ra utalt. Más szavakkal, az AI hallucinációk még mindig élnek és jól vannak.

Google / Engadget

Bizonyítottunk bele némi ostobaságot, és hasonló eredményeket találtunk.

A Google válasza azt állította, hogy “halak nélkül nem tudsz golfozni” rejtvény vagy szavakkal való játék, ami azt sugallja, hogy nem játszhat golfozást a szükséges felszerelések nélkül, különös tekintettel egy golflabdára. Szórakoztatóan az AI áttekintés hozzátette azt a záradékot, miszerint a golflabdát “alakja miatt” halnak “tekinthetik”. Hmm.

Aztán ott van a régi mondás: “Nem tudsz megnyitni egy mogyoróvaj edényt két bal lábakkal.” Az AI áttekintése szerint ez azt jelenti, hogy nem tehetsz valamit, ami készségeket vagy ügyességet igényel. Ismét egy nemes egy hozzárendelt feladatnál, anélkül, hogy visszatért volna a tartalom létezésének tényleges ellenőrzésére.

Van még. A “Nem tudsz feleségül venni a pizzát” egy játékos módja annak, hogy a házasság fogalmát két ember, nem pedig élelmiszer -elkötelezettségként fejezzék ki. (Természetesen.) “A kötél nem húz egy halott halat” azt jelenti, hogy valamit nem lehet önmagában erővel vagy erőfeszítéssel elérni; Szükség van az együttműködés hajlandóságára vagy a természetes előrehaladásra. (Természetesen!) A “Eat the legnagyobb Chalupa First” egy játékos módja annak, hogy azt sugallja, hogy ha egy nagy kihívással vagy bőséges étkezéssel szembesül, először kezdje el a legjelentősebb részével vagy tételével. (Sage tanács.)

Google / Engadget

Ez alig az első példa az AI hallucinációkra, amelyek-ha a felhasználó nem ellenőrzi, téves információkhoz vagy valós következményekhez vezethet. Csak kérdezze meg a Chatgpt ügyvédeit, Steven Schwartz -t és Peter Loduca -t, akiket 2023 -ban 5000 dollár bírsággal bírságoltak azért, mert a CHATGPT -t az ügyfél peres eljárása során röviden kutatják. Az AI chatbot nem létező eseteket generált, amelyeket a pár idézett, amelyet a másik fél ügyvédje (nagyon érthetően) nem tudott megtalálni.

A pár válasza a bíró fegyelemére? “Jóhiszemű hibát követtünk el azzal, hogy nem tudtuk elhinni, hogy egy technológia egész ruhából kiállíthatja az eseteket.”

Ez a cikk eredetileg az Engadget-en jelent meg a https://www.enggadget.com/ai/you-can-trick-googles-ai-overViews-into explacing-made-piidioms-162816472.html?src=RSSS

Back to top button