Google stârnește controverse, după ce ar fi diminuat importanța mesajelor care țin de siguranța utilizatorilor. Acestea avertizează că răspunsurile medicale oferite de inteligența artificială nu sunt întotdeauna corecte, informează The Guardian.
Cât de vizibile sunt atenționările Google privind informațiile medicale oferite de AI
Google susține că, atunci când utilizatorii caută informații despre subiecte sensibile, precum sănătatea, rezumatele generate de inteligența artificială includ recomandări clare. Compania afirmă că oamenii sunt îndemnați să consulte un specialist și să nu se bazeze exclusiv pe aceste informații.
Totuși, în practică, mesajele sunt plasate la finalul conținutului și sunt scrise cu un font mic și estompat. Din acest motiv, ele pot fi ușor trecute cu vederea de către utilizatori. Mai mult, o investigație realizată de The Guardian a arătat că funcția AI Overviews, bazată pe Gemini, nu afișează niciun disclaimer atunci când oferă pentru prima dată sfaturi medicale. Acest lucru contrazice declarațiile oficiale ale companiei, care susține că utilizatorii sunt avertizați în astfel de situații.
Sunt utilizatorii suficient de protejați când primesc sfaturi medicale de la AI
În prezent, avertismentul legat de AI Overview nu este afișat automat tuturor utilizatorilor. El devine vizibil doar dacă persoana solicită informații suplimentare. Chiar și în acest caz, utilizatorul trebuie să apese pe un buton dedicat pentru a-l vedea. În plus, mesajul este afișat discret, cu un font mai mic, ceea ce îl face ușor de trecut cu vederea.
Google nu a contestat aceste aspecte, a transmis un reprezentant al companiei. Potrivit acestuia, rezumatele generate de inteligența artificială îi îndeamnă pe utilizatori să ceară sfatul unui medic și, atunci când este cazul, le recomandă să apeleze la ajutor specializat.
Cu toate acestea, experții în inteligență artificială trag un semnal de alarmă. Ei avertizează că lipsa unor atenționări clare poate crea riscuri serioase. Un cercetător de la MIT avertizează că, în ciuda progreselor, chiar și cele mai avansate sisteme AI pot oferi informații greșite. Acesta spune că uneori răspunsurile sunt formulate pentru a mulțumi utilizatorul, nu pentru a reflecta cu exactitate realitatea medicală.
De ce spun experții că răspunsurile medicale generate de AI pot deveni periculoase
Specialiștii atrag atenția că riscurile nu vin doar din erorile sistemului, ci și din modul în care utilizatorii interacționează cu acesta. Oamenii pot oferi informații incomplete sau pot descrie greșit simptomele, ceea ce duce la concluzii inexacte.
Un profesor de inteligență artificială de la Universitatea Queen Mary din Londra susține că problema este una structurală. Acesta consideră că responsabilitatea aparține Google. El a mai precizat că prezentările AI sunt gândite să ofere răspunsuri rapide, nu neapărat corecte. În aceste condiții, pot apărea informații medicale eronate, cu riscuri pentru utilizatori.
O investigație publicată de The Guardian în ianuarie a arătat deja că unii utilizatori au primit informații false sau înșelătoare despre sănătate. După aceste dezvăluiri, Google a eliminat rezumatele AI pentru anumite căutări medicale, însă funcția continuă să fie activă în multe alte cazuri.