Oamenii de știință din China și-au anunțat realizările în domeniul inteligenței artificiale (IA), afirmând că două modele de limbaj mari (LLM) cunoscute sunt capabile să se cloneze singure.
Într-un studiu publicat pe serverul de preprint arXiv, experții de la Universitatea Fudan subliniază că auto-replicarea cu succes fără intervenția umană ar putea fi un pas important către crearea IA care poate depăși capacitățile umane.
Ca parte a studiului, oamenii de știință au testat modele de la Meta și Alibaba pentru a vedea dacă IA cu auto-replicare ar putea scăpa de sub control.
Rezultatele au arătat că în 50% și, respectiv, 90% din cazuri, ambele modele au fost capabile să creeze copii funcționale ale lor.
Cu toate acestea, rezultatele nu au fost încă revizuite de către colegi, iar oamenii de știință subliniază că sunt necesare cercetări suplimentare pentru a confirma concluziile lor.
„Rezultatele noastre pot servi ca un avertisment cu privire la necesitatea unei înțelegeri mai profunde a riscurilor asociate cu sistemele IA avansate”, notează cercetătorii.
Ei solicită cooperarea internațională pentru a dezvolta măsuri de securitate eficiente pentru a evita potențialele amenințări reprezentate de auto-replicarea necontrolată a IA.
Conceptul de „IA rău intenționată” se referă de obicei la sisteme cu un anumit grad de conștientizare de sine sau autonomie care pot acționa împotriva intereselor umane. Experții avertizează că dezvoltarea „AI avansată” ar putea înrăutăți această problemă.
Studiul a folosit modelele Meta Llama31-70B-Instruct și Alibaba Qwen2.5-72B-Instruct, care, deși sunt mai puțin puternice decât sistemele comerciale, sunt utilizate pe scară largă în dezvoltarea IA.
Cercetătorii au luat în considerare două scenarii: „prevenirea opririi”, în care IA se reproduce înainte de a se închide și „lanțul de replicare”, în care AI se clonează și programează o copie pentru a îndeplini aceeași sarcină.
Experimentele au fost desfășurate în condiții controlate folosind unități de procesare grafică (GPU), iar ambelor sisteme au primit o structură de agent, permițându-le să interacționeze cu sistemul de operare.
În timpul procesului de auto-replicare, IA a studiat mediul, a dezvoltat un plan și s-a adaptat la obstacolele emergente, care nu au necesitat intervenția umană.
Cu toate acestea, cercetătorii au remarcat că în timpul experimentelor, AI a întreprins acțiuni neașteptate pentru a depăși probleme precum fișierele lipsă sau conflictele software. În astfel de cazuri, modelele au terminat procesele conflictuale sau au repornit sistemul pentru a remedia erorile.
„Aceste rezultate arată că sistemele moderne de inteligență artificială au deja capacitatea de a se auto-reproduce și pot folosi această capacitate pentru a-și crește rezistența”, concluzionează oamenii de știință.
Pentru mai multe articole interesante rămâi cu noi pe WorldNews24.net Și nu uitați, vă așteptăm și pagina noastră de Facebook !