A Meta, az Instagram anyavállalata csütörtökön bocsánatot kért az erőszakos, grafikus tartalomért, amelyet néhány felhasználó látott az Instagram -tekercs -hírcsatornákban. A Meta a problémát egy olyan hibának tulajdonította, amelyet a vállalat szerint a vállalatról szól.
„Javítottunk egy olyan hibát, amely miatt egyes felhasználók tartalmat láttak az Instagram Reels -hírcsatornában, amelyet nem kellett volna ajánlani” – mondta a Meta szóvivője a CNET -nek nyújtott nyilatkozatban. „Elnézést kérünk a hibáért.”
A Meta azt mondta, hogy az esemény olyan hiba volt, amely nem kapcsolódik a vállalat által végrehajtott tartalom-politikai változásokhoz. Az év elején az Instagram jelentős változtatásokat hajtott végre a felhasználói és a tartalom létrehozásának politikájában, ám ezek a változások nem kifejezetten a tartalomszűrést vagy a hírcsatornákon megjelenő nem megfelelő tartalmat nem foglalkoztak.
A beszélő hűtőszekrényektől az iPhone -ig, szakértőink azért vannak itt, hogy segítsenek a világnak egy kicsit kevésbé bonyolulttá tenni.
A Meta a közelmúltban megtette a saját tartalommodációs változását, és a közösségvezérelt moderálás javára lebontotta tény-ellenőrző osztályát. Az Amnesty International a hónap elején figyelmeztette, hogy a Meta változásai növelhetik az erőszak fokozásának kockázatát.
További információ: Az Instagram önálló alkalmazásként foroghatja le a tekercseket – mondja a jelentés
A Meta azt mondja, hogy a legtöbb grafikus vagy zavaró kép, amelyet a zászlók eltávolítanak, és egy figyelmeztető címkével helyettesítik, a felhasználóknak át kell kattintaniuk a képek megtekintéséhez. Néhány tartalom, a Meta szerint, a 18 évesnél fiatalabb személyek számára is kiszűrésre kerül. A vállalat szerint a nemzetközi szakértők segítségével kidolgozza az erőszakos és grafikus képek körüli politikáját, és hogy ezen politikák finomítása folyamatban lévő folyamat.
A felhasználók a közösségi médiában és az üzenőfalakon, köztük a Reddit -en, néhány nem kívánt képről, amelyet az Instagram -on láttak, feltehetően a hibák miatt. Ide tartoztak a lövöldözés, a lefejezés, a járművek ütése és más erőszakos cselekedetek.
Brooke Erin Duffy, a Cornell Egyetem szociális média kutatója és egyetemi docens azt mondta, hogy nem győződött meg arról, hogy Meta állításai szerint az erőszakos tartós kérdés nem volt összefüggésben a politikai változásokkal.
„A tartalomcsökkentő rendszerek – akár az AI, akár az emberi munkaerő – soha nem biztonságosak” – mondta Duffy a CNET -nek. „És bár sokan azt feltételezték, hogy a Meta moderálási átalakítása (a múlt hónapban bejelentett) fokozott kockázatokat és sebezhetőségeket fog létrehozni, a tegnapi„ Glitch ”első kézből bizonyítékot szolgáltatott a kevésbé megtervezett platform költségeiről.”
Duffy hozzátette, hogy noha a szociális média platformok moderálása nehéz „, a platformok moderálási irányelvei biztonsági mechanizmusokként szolgáltak a felhasználók számára, különösen a marginalizált közösségekből.