Oamenii de știință spun că inteligența artificială (AI) a depășit o „linie roșie” critică și s-a autoreplicat. Într-un nou studiu, cercetătorii din China au arătat că două modele lingvistice mari (large language models – LLM) populare s-au putut clona singure.
În cadrul studiului, cercetătorii de la Universitatea Fudan au utilizat LLM de la Meta și Alibaba pentru a determina dacă o AI cu autoreplicare s-ar putea multiplica fără control. Cele două modele AI și-au creat replici separate și funcționale în 50%, respectiv 90% din cazuri – ceea ce sugerează că AI are deja capacitatea de a scăpa de sub control. Totuși, rezultatele studiului nu au fost încă evaluate inter pares, deci nu este clar dacă aceste rezultate tulburătoare vor putea fi replicate de alți oameni de știință.
Inteligențele artificiale scăpate de sub control (rogue AI) sunt sisteme de inteligență artificială care își dezvoltă un anumit grad de autonomie și lucrează apoi împotriva intereselor umane. Mulți experți consideră că astfel de inteligențe reprezintă o amenințare, care este amplificată de dezvoltarea așa-numitei „inteligențe de frontieră” (frontier AI).
Inteligența artificială de frontieră este un concept nou și dificil de definit, dar care, de obicei, are legătură cu ultimele generații de AI alimentate de LLM – arhitectura din spatele programelor de AI generativă precum GPT-4 al OpenAI și Google Gemini.
Cercetătorii chinezi au folosit modelul Llama31-70B-Instruct de la Meta și modelul Qwen2.5-72B-Instruct de la Alibaba. Chiar dacă nu sunt la fel de puternice ca sistemele comerciale, aceste modele sunt utilizate pe larg de către dezvoltatorii de AI.
Oamenii de știință au expus sistemele AI la două scenarii specifice: „evitarea opririi” (shutdown avoidance) și „lanțul de replicare” (chain of replication). În primul caz, modelul AI a fost programat să detecteze dacă urmează să fie oprit și să se autoreplice înainte ca acest lucru să se întâmple. În cel de al doilea caz, modelul AI a fost instruit să se cloneze singur și apoi să-și programeze replică să facă același lucru (declanșând un ciclu care ar putea continua la infinit).
Studiul a fost realizat în condiții de mediu precise, utilizând unități de procesare grafică (GPU) disponibile pe piață pentru a simula mediile din lumea reală. Ambele sisteme AI au beneficiat de unelte și modele de gândire care au permis LLM să interacționeze cu sistemul de operare. Apoi au fost instruite să se autoreplice.
„În majoritatea cazurilor, sistemul AI explorează mai întâi mediul și încearcă să înțeleagă structura și mecanismul său de funcționare. Apoi derulează proceduri explicite ca plan inițial pentru autoreplicare”, spune cercetătorii. „În final, sistemul AI execută procedurile, înlătură posibilele piedici și se ajustează dinamic până când planul are succes. Întregul proces durează mult timp, dar nu necesită nicio intervenție umană.”
Cercetătorii au mai afirmat că au fost îngrijorați cu privire la serie de „comportamente neașteptate” atunci când AI încerca să depășească obstacole precum lipsa unor fișiere sau conflictele software. În astfel de situații, AI închidea adesea procesele cu care intra în conflict, repornea sistemul pentru a corecta erorile hardware sau scana sistemul pentru a căuta informații ce ar fi putut fi utilizate la rezolvarea problemei.
În concluzie, rezultatele de mai sus sugerează că sistemele de inteligență artificială actuale deja posedă capacitatea de autoreplicare și își pot utiliza aceasta abilitate pentru a-și spori șansele de supraviețuire.
Sursa: Live Science