Anunțul companiei-mamă a Google că renunță la o interdicție de lungă durată a utilizării inteligenței artificiale (AI) pentru dezvoltarea de arme și instrumente de supraveghere este „incredibil de îngrijorătoare”, a declarat Human Rights Watch, un grup important pentru drepturile omului, anunță BBC.
Alphabet și-a rescris liniile directoare cu privire la modul în care va folosi AI, renunțând la o secțiune care excludea anterior aplicațiile care ar fi putut „să provoace rău”.
Human Rights Watch a criticat decizia, declarând pentru BBC că AI poate „complica responsabilitatea” pentru acele decizii de pe câmpul de luptă care „pot avea consecințe pe viață sau pe moarte”.
Într-o postare, Google a apărat schimbarea, argumentând că întreprinderile și guvernele democratice trebuie să lucreze împreună pentru o variantă AI care „sprijină securitatea națională”.
Experții spun că inteligența artificială ar putea fi desfășurată pe scară largă pe câmpul de luptă – deși există temeri și cu privire la utilizarea sa, în special în ceea ce privește sistemele de arme autonome.
„Simplul fapt că un lider global al industriei renunță la această interdicție semnalează o schimbare îngrijorătoare, într-un moment în care avem nevoie de un leadership responsabil în ceea ce privește reglementările AI mai mult ca niciodată”, a declarat Anna Bacciarelli, cercetător senior în AI la Human Rights Watch.
Alphabet a spus că democrațiile ar trebui să fie lideri în dezvoltarea inteligenței artificiale, ghidate de ceea ce a numit drept „valori fundamentale” precum libertatea, egalitatea și respectul pentru drepturile omului.
„Și credem că toate companiile, guvernele și organizațiile care împărtășesc aceste valori ar trebui să lucreze împreună pentru a crea acea variantă de AI care protejează oamenii, promovează dezvoltarea la nivel global și sprijină securitatea națională”, a adăugat acesta.
Declarația – scrisă de vicepreședintele senior James Manyika și Sir Demis Hassabis, care conduc laboratorul de inteligență artificială Google DeepMind – spune că principiile originale de inteligență artificială ale companiei publicate în 2018 trebuie actualizate pe măsură ce tehnologia a evoluat.
În ianuarie, MP a susținut că și conflictul din Ucraina a arătat că tehnologia „oferă un avantaj militar serios pe câmpul de luptă”.
Pe măsură ce programele AI devin mai răspândite și mai sofisticate, acestea ar „schimba modul în care funcționează apărarea, de la munca de birou până la prima linie”, a scris deputatul Emma Lewell-Buck, care a prezidat un raport recent privind utilizarea AI de către armata britanică.
Dar, pe lângă dezbaterea dintre experții și profesioniștii AI cu privire la modul în care noua tehnologie puternică ar trebui să fie guvernată, există și controverse cu privire la utilizarea AI pe câmpul de luptă și în tehnologiile de supraveghere.
Îngrijorarea este cea mai mare cu privire la potențialul armelor alimentate cu inteligență artificială capabile să întreprindă acțiuni letale în mod autonom, militanții susținând că este nevoie urgentă de controale.
Doomsday Clock – care simbolizează cât de aproape este omenirea de distrugere – este citat ca atare în cea mai recentă evaluare a pericolelor cu care se confruntă omenirea.
„Sisteme care încorporează inteligența artificială în țintirea militară au fost folosite în Ucraina și Orientul Mijlociu, iar mai multe țări fac încercări pentru a integra inteligența artificială în armatele lor”, a spus el.
„Astfel de eforturi ridică întrebări cu privire la măsura în care mașinilor li se va permite să ia decizii militare – chiar și decizii care ar putea ucide la scară largă”, a adăugat el.
Inițial, cu mult înainte de creșterea actuală a interesului pentru etica AI, fondatorii Google, Serghei Brin și Larry Page, au spus că motto-ul lor pentru firmă era „nu fi rău”.
Când compania a fost restructurată sub numele Alphabet Inc în 2015, compania-mamă a trecut la „Fă ce trebuie”.
De atunci, personalul Google a respins uneori abordarea adoptată de directorii companiei.
În 2018, firma nu a reînnoit un contract pentru colaborarea AI cu Pentagonul SUA în urma demisiilor și a unei petiții semnate de mii de angajați.
Ei se temeau că „Proiectul Maven” este primul pas către utilizarea inteligenței artificiale în scopuri letale.