OpenAI, compania mamă care a dezvoltat ChatGPT, a anunțat un nou set de măsuri de protecție pentru utilizatorii minori ai platformei, inclusiv o funcție prin care părinții vor fi notificați atunci când sistemul detectează că adolescentul se află într-o situație de „distres acut”, informează BBC.
Decizia a fost luată după ce, săptămâna trecută, un cuplu din California a acționat în judecată OpenAI, afirmând că chatbot-ul a avut un impact negativ asupra comportamentului fiului lor de 16 ani, care s-a sinucis.
Ca urmare a acestui caz, compania a declarat că îmbunătățirea mecanismelor de siguranță pentru adolescenți este o prioritate și a prezentat noile funcții care vor fi implementate în următoarele 30 de zile.
Conform OpenAI, părinții vor avea posibilitatea:
Compania a menționat că aceste funcții vor fi create cu ajutorul experților în sănătate mintală, educație și interacțiune om-calculator, pentru a asigura un echilibru între supravegherea părinților și încrederea tinerilor utilizatori.
OpenAI a înființat un Consiliu de Experți în Bunăstare și Inteligență Artificială, compus din psihiatri, pediatri și cercetători în sănătatea adolescenților, precum și o rețea globală de peste 250 de medici care evaluează modul în care modelele AI reacționează în situații de criză.
De asemenea, compania va începe să redirecționeze conversațiile sensibile către modelele sale avansate de raționament, capabile să analizeze mai bine situațiile delicate și să ofere răspunsuri mai adecvate.
Conform politicii OpenAI, ChatGPT poate fi utilizat doar de persoane cu vârsta de cel puțin 13 ani, iar pentru cei sub 18 ani este necesar acordul părinților.