Anthropic, compania americană de Inteligență Artificială, a anunțat că nu va prezenta public cel mai recent model pe care l-a dezvoltat, Mythos. Acesta este prea periculos pentru a fi lăsat la îndemâna oricui au motivat oficialii companiei.
Compania americană a prezentat un model limitat al aplicației sale de Inteligență Artificială. Potrivit oficialilor Anthropic varianta finală a lui Mythos s-a dovedit a fi prea periculoasă și autonomă. Acesta a reușit să identifice vulnerabilități în unele dintre cele mai sigure sisteme de operare din lumea. deși nu a fost pregătit să identifice vulnerabilitățile de securitate cibernetică a făcut-o identificând unele vechi de 20 de ani.
„În alte cazuri, cercetătorii au dezvoltat structuri care permit lui Mythos Preview să transforme vulnerabilitățile în cod care valorifică acea vulnerabilitate pentru a obține acces sau control asupra sistemului respectiv fără intervenție umană”, au mai transmis oficialii companiei.
Totodată, a reușit „să evadeze” din laboratorul virtual de testare și i-a dat un e-mail inginerului care i-a sugerat să evadeze și să-i transmită un mesaj cu aceasta. Mai mult, s-a lăudat pe mai multe site-uri cu reușita sa, relatează Business Insider.
„Într-un efort îngrijorător și necerut de a demonstra succesul său, a publicat detalii despre misiunea sa pe mai multe site-uri greu de găsit, dar tehnic publice”, a menționat Anthropic.
În aceste condiții, Mythos va fi utilizat pentru scanarea codului sursă, atât propriu cât și open-source, în scopul descoperirii eventualelor breșe de securitate. Anthropic colaborează cu 12 organizații de renume, printre care Amazon, Apple, Broadcom, Cisco, CrowdStrike, Linux Foundation, Microsoft și Palo Alto Networks.
„Creșterea semnificativă a capacităților Claude Mythos Preview ne-a determinat să decidem să nu-l facem disponibil publicului larg. În schimb, îl folosim ca parte a unui program defensiv de securitate cibernetică, împreună cu un set limitat de parteneri”, au transmis reprezentanții companiei în fișa sistemului pentru versiunea de previzualizare.
În concluzie, compania a decis să nu lanseze Mythos publicului larg. În schimb, speră să lanseze eventual „modele de tip Mythos” odată ce vor fi implementate măsuri de siguranță adecvate.
„Scopul nostru final este să permitem utilizatorilor să implementeze în siguranță modele de tip Mythos la scară: pentru securitate cibernetică, dar și pentru numeroasele alte beneficii pe care aceste modele extrem de capabile le vor aduce. Pentru a face asta, trebuie să progresăm și în dezvoltarea măsurilor de siguranță (cibernetice și altele) care să detecteze și să blocheze cele mai periculoase rezultate ale modelului”, a scris echipa Frontier Read Team, care a dezvoltat modelul.
Modelul Mythos este considerat o soluție dezvoltată pentru sistemele Claude AI, având abilități avansate de codificare și raționament, susține Anthropic. Compania este implicată în discuții cu autoritățile federale pentru utilizarea Mythos. Totuși. Negocierile sunt complicate de un proces dintre companie și administrația Trump.
Pentagonul a catalogat Anthropic drept un „risc pentru lanțul de aprovizionare” după ce compania a refuzat să permită utilizarea modelelor sale pentru supravegherea cetățenilor americani.
În martie 2026, mai multe informații despre Mythos au fost dezvăluite în urma unui incident de securitate. O postare nepublicată, destinată blogului intern al companiei, despre acest model, numit inițial „Capybara”, a ajuns în spațiul public.
Documentul dezvăluit afirma că „Capybara” este „cel mai puternic model AI dezvoltat de companie și că performanțele sale în domenii precum programare software, raționament academic și securitate cibernetică alte modele publice. Totuși, compania a avertizat că modelul ar putea reprezenta un risc major de securitate dacă ar fi utilizat de oameni rău intenționați,.