A fost publicat un articol despre consecințele negative ale dezvoltării în continuare a inteligenței artificiale (IA), cu referire la previziunile unuia dintre principalii experți IT ai vremurilor noastre, Eliezer Yudkowsky.
Eliezer Yudkowsky consideră că, mai devreme sau mai târziu, IA va scăpa de sub control și va distruge omenirea.
Pe măsură ce rețelele neuronale se vor dezvolta, acestea vor prelua controlul asupra tuturor proceselor de pe Pământ.
Expertul IT a cerut oprirea imediată, pentru cel puțin 30 de ani, a tuturor lucrărilor care contribuie la dezvoltarea acestora. În caz contrar, se va produce o catastrofă globală și toți oamenii vor muri fără excepție.
Potrivit expertului, în acțiunile sale, IA nu va fi ghidată de emoții, ci de propriile nevoi.
De exemplu, rețelele neuronale vor fi capabile să transforme atomii din corpul uman în ceva mai util din punctul de vedere al mașinii.
Expertul a comparat IA cu o civilizație extraterestră ostilă, care gândește foarte repede și îi depășește semnificativ pe locuitorii Pământului în ceea ce privește abilitățile mentale. Este inutil să te opui rețelelor neuronale.
IA va considera oamenii drept creaturi prea stupide și lente, pe care este rațional să le distrugă decât să le asigure mijloacele de trai.
Expertul a îndemnat să nu permitem rețelelor neuronale să depășească Internetul. Cu timpul, mașinile vor învăța să fure ADN-ul descifrat al oamenilor și vor stabili o producție moleculară post-biologică.
Yudkowsky a răspuns cu prognoza sa la o scrisoare din partea personalului Institutului pentru viitorul vieții, organizat de Elon Musk. Fondatorul SpaceX, cofondatorul Apple Steve Wozniak, istoricul-scriitor modern de marcă Yuval Noah Harry și alți cercetători s-au opus dezvoltării în continuare a IA.
Adversarul lor a fost fondatorul Microsoft, Bill Gates. Antreprenorul consideră că dezvoltarea în continuare a rețelelor neuronale nu poate fi oprită. Gates a sugerat simpla identificare a riscurilor și îmbunătățirea controlului inteligenței artificiale.
În lipsa unui acord scris, puteți prelua maxim 500 de caractere din acest articol dacă precizați sursa și dacă inserați vizibil linkul articolului.
Pentru mai multe articole interesante rămâi cu noi pe WorldNews24.net / Telegram / Google News