Meta recunoaște o eroare pe Instagram Reels. Cum au ajuns utilizatorii să vadă conținut violent

Meta recunoaște o eroare pe Instagram Reels. Cum au ajuns utilizatorii să vadă conținut violent
sursa foto: pexels.com

Meta Platforms a anunțat că a remediat o problemă tehnică ce a dus la afișarea unor recomandări neadecvate în feedul de Reels al unor utilizatori Instagram. Incidentul a stârnit reacții puternice online, după ce au fost raportate imagini violente și explicite, afișate în ciuda setărilor stricte de moderare.

Ce eroare a recunoscut compania și cum a fost explicată

Potrivit companiei Meta Platforms, problema a fost identificată și corectată rapid, după sesizările apărute în mediul online. „Am rezolvat o eroare care a determinat ca unii utilizatori să vadă conţinut în Reels care nu ar fi trebuit recomandat. Ne cerem scuze pentru greşeală”, a transmis un purtător de cuvânt al companiei într-un mesaj citat de CNBC.

Utilizatorii au semnalat apariția repetată a unor imagini violente sau așa-numitului „conţinut explicit”, inclusiv în situațiile în care opțiunea „Sensitive Content Control” era setată la nivel maxim.

Conform politicilor interne ale Instagram, platforma elimină materialele considerate extrem de deranjante, precum imagini cu mutilări, răni grave sau cadavre. Există totuși situații limitate în care conținutul grafic este permis, atunci când documentează abuzuri sau conflicte, fiind însoțit de avertismente clare.

Jurnaliștii CNBC au identificat, miercuri seara, în SUA, mai multe postări Reels cu agresiuni violente și imagini șocante, marcate doar cu eticheta „Sensitive Content”.

Cum funcționează moderarea și ce schimbări pregătește Meta

Meta afirmă că utilizează sisteme bazate pe inteligență artificială și o echipă de peste 15.000 de moderatori, majoritatea materialelor fiind eliminate înainte de a fi raportate. Eroarea apare însă într-un moment sensibil, când compania își ajustează regulile pentru a oferi mai multă libertate de exprimare.

În ianuarie, Meta a anunțat că sistemele automate nu vor mai urmări „toate încălcările posibile”, ci vor prioritiza cazurile grave, precum terorismul sau exploatarea minorilor.

Fondatorul Mark Zuckerberg a anunțat și schimbări privind conținutul politic și fact-checking-ul, care va fi înlocuit cu un model „Community Notes”, similar celui de pe X. Aceste decizii sunt interpretate ca un semnal către Donald Trump, critic constant al politicilor Meta, relatează News.ro.

Contextul este amplificat de concedierile masive din 2022–2023, când 21.000 de angajați au părăsit compania, inclusiv din echipele de siguranță.