Istoricul israelian și autorul bestsellerului Sapiens: A Brief History of Humankind, Yuval Noah Harari, și-a împărtășit îngrijorările legate de dezvoltarea rețelelor neuronale într-un articol pentru The Economist.
El susține că lipsa de control asupra acestor programe pot duce la consecințe mai grave decât armele nucleare.
Harari consideră că rețelele neuronale se pot dezvolta fără intervenția omului, spre deosebire de armele nucleare, care necesită participarea omului în fiecare etapă. În plus, inteligența artificială (AI) poate crea o versiune mai bună a ei însăși și poate începe să dezinformeze oamenii prin generarea de conținut politic și știri false.
„În timp ce armele nucleare nu pot inventa arme nucleare mai puternice, inteligența artificială poate face ca inteligența artificială să fie exponențial mai puternică”, a precizat istoricul.
Harari face apel la utilizarea rețelelor neuronale în scopuri bune, cum ar fi rezolvarea problemelor de mediu sau dezvoltarea de medicamente pentru cancer. De asemenea, el subliniază importanța monitorizării dezvoltării acestor programe pentru a evita potențialele pericole.
Un exemplu de utilizare a rețelelor neuronale fără control este experimentul oamenilor de știință chinezi cu satelitul spațial Qimingxing 1. Programul a ales cele mai interesante puncte de pe Pământ și a instruit aparatul să le studieze, ceea ce s-a dovedit a fi în interesul armatei chineze.
Nici măcar o singură persoană nu a intervenit în experiment, ceea ce ar putea fi un precedent periculos.
Harari a făcut lumină și asupra modului în care AI ar putea forma relații intime cu oamenii și le-ar putea influența deciziile. „Prin stăpânirea limbajului, AI ar putea chiar să formeze relații intime cu oamenii și să folosească puterea intimității pentru a ne schimba opiniile și viziunea asupra lumii”, a scris el.
Pentru a demonstra acest lucru, el a citat exemplul lui Blake Lemoine, un inginer de la Google care și-a pierdut locul de muncă după ce a afirmat în mod public că chatbotul AI LaMDA a devenit sensibil. Potrivit istoricului, afirmația controversată l-a costat slujba pe Lemoine.
El a întrebat dacă AI poate influența oamenii să-și riște locurile de muncă, ce altceva i-ar putea determina să facă?
Având în vedere aceste circumstanțe, Harari îndeamnă societatea și guvernele din întreaga lume să monitorizeze îndeaproape dezvoltarea rețelelor neuronale și să ia măsuri pentru a se proteja împotriva posibilului lor impact negativ.
În lipsa unui acord scris, puteți prelua maxim 500 de caractere din acest articol dacă precizați sursa și dacă inserați vizibil linkul articolului.
Pentru mai multe articole interesante rămâi cu noi pe WorldNews24.net / Telegram / Google News