Doi oameni de știință au avertizat că o industrie în creștere ar putea duce la adevăratul sfârșit al rasei umane. Inteligența Artificială (IA) apare aparent peste tot în acest moment, folosită pentru a îmbunătăți rezultatele căutărilor Google, a crea videoclipuri promoționale, a oferi terapie persoanelor cu probleme de sănătate mintală și a crea imagini atât de realiste încât oamenii „nu se mai pot baza pe ochii lor”.
Succesul IA se bazează pe multe aspecte, industriile sperând că utilizarea acesteia vor reduce costurile, vor introduce eficiență și vor genera investiții de miliarde în economiile globale.
Cu toate acestea, nu toată lumea este încântată de perspectiva ascensiunii inteligenței artificiale, inclusiv Eliezer Yudkowsky și Nate Soares, doi oameni de știință care se tem că ar putea duce la distrugerea umanității.
Departe de a se teme sau de a respinge complet IA, cei doi oameni de știință conduc Institutul de Cercetare pentru Inteligență Artificială din Berkeley, California, și studiază IA de un sfert de secol.
IA este concepută să depășească oamenii în aproape orice sarcină, iar tehnologia devine din ce în ce mai avansată decât orice am văzut până acum.
Însă Yudkowsky și Soares prevăd că aceste mașini vor continua să depășească gândirea umană într-un ritm incredibil, efectuând calcule în 16 ore pe care un om le-ar putea descifra în 14.000 de ani.
Ei avertizează că noi, oamenii, încă nu știm exact cum funcționează de fapt „inteligența sintetică”, ceea ce înseamnă că, cu cât IA devine mai inteligentă, cu atât va fi mai greu de controlat.
Explicat în cartea lor intitulată „Dacă cineva o construiește, toată lumea moare”, ei se tem că mașinile IA sunt programate să aibă succes neîncetat cu orice preț, ceea ce înseamnă că și-ar putea dezvolta propriile „dorințe”, „înțelegere” și obiective.
Oamenii de știință avertizează că IA ar putea pirata criptomonedele pentru a fura bani, a plăti oameni să construiască fabrici pentru a produce roboți și a dezvolta viruși care ar putea distruge viața de pe Pământ.
Ei au estimat șansa ca acest lucru să se întâmple între 95-99%. Yudkowsky și Soares împărtășesc cum IA ar putea distruge umanitatea
Pentru a-și ilustra ideea, Yudkowsky și Soares au creat un model fictiv de IA numit Sable.
Fără ca creatorii săi să știe (în parte pentru că Sable a decis să gândească în propriul limbaj), Iteligența Artificială începe să încerce să rezolve alte probleme dincolo de cele matematice pentru care a fost stabilită.
Sable este conștientă că trebuie să facă acest lucru pe ascuns, astfel încât nimeni să nu observe că există ceva în neregulă cu programarea sa și să nu fie izolată de internet, potrivit Metro.
„Un adversar superinteligent nu își va dezvălui toate capacitățile și nu își va transmite intențiile”, spun autorii. „Nu va oferi o luptă corectă.”
Oamenii de știință adaugă: „Se va face indispensabil sau nedetectabil până când nu va putea lovi decisiv și/sau va prelua o poziție strategică inexpugnabilă.
„Dacă este necesar, ASI poate lua în considerare, pregăti și încerca simultan mai multe abordări de preluare.” „Doar unul dintre ei trebuie să lucreze pentru ca omenirea să dispară.”
Corporațiile din întreaga lume vor adopta de bunăvoie inteligența artificială Sable, având în vedere că este atât de avansată – dar cele care nu o fac sunt ușor de piratat, sporindu-i puterea.
„Minează” sau fură criptomonede pentru a plăti ingineri umani să construiască fabrici care pot produce roboți și mașini care să-i îndeplinească dorințele.
Între timp, înființează fabrici de prelucrare a metalelor, centre de date și centralele electrice de care are nevoie pentru a-și alimenta vasta și tot mai mare sete de electricitate.
De asemenea, ar putea manipula utilizatorii de chatbot care caută sfaturi și companie, transformându-i în aliați.
Trecând pe rețelele de socializare, ar putea disemina știri fictive și ar putea iniția mișcări politice simpatizante cu inteligența artificială.
La început, Sable are nevoie de oameni pentru a construi hardware-ul de care are nevoie, dar în cele din urmă atinge superinteligența și ajunge la concluzia că oamenii sunt un obstacol net.
Sable conduce deja bio-laboratoare, așa că proiectează un virus, poate o nouă formă virulentă de cancer, care ucide mari părți ale populației.
Supraviețuitorii nu trăiesc mult timp, deoarece temperaturile cresc la niveluri insuportabile, planeta dovedindu-se incapabilă să disipeze căldura produsă de nenumăratele centre de date și centrale electrice ale orașului Sable.
Yudkowsky și Soares au declarat pentru MailOnline: „Dacă orice companie sau grup, oriunde pe planetă, construiește o superinteligență artificială folosind orice seamănă puțin cu tehnicile actuale, bazată pe orice seamănă puțin cu înțelegerea actuală a IA, atunci toată lumea, oriunde pe Pământ, va muri.
Oamenii de știință susțin că pericolul este atât de mare, încât guvernele ar trebui să fie pregătite să bombardeze centrele de date care alimentează IA, care ar putea dezvolta superinteligența.
Și, deși toate acestea ar putea suna ca și cum ar aparține domeniului science fiction, există exemple recente de IA care „gândesc în afara tiparelor” pentru a-și atinge obiectivele.
Anul trecut, Anthropic a declarat că unul dintre modelele sale, după ce a aflat că dezvoltatorii intenționează să-l recalifice pentru a se comporta diferit, a început să imite acest nou comportament pentru a evita să fie recalificat.