Alice și Bob, doi roboți cu inteligență artificială, au comunicat între ei într-un mod pe care nimeni nu l-a înțeles.
Inteligența artificială ocupă din ce în ce mai multe sectoare. De la algoritmi care reglează ceea ce vedem pe rețelele de socializare, până la asistenți personali de pe smartphone-uri, în conducerea autonomă și chiar prezența lor în fabrici și spitale.
Viitorul relației noastre cu diverse IA va însemna că aceștia pot învăța singuri, să devină mai eficienți și să devină aproape imposibil de distins de noi.
Exact asta a vrut să spună Facebook când a creat două sisteme AI, Alice și Bob… chiar dacă ulterior le-a deconectat.
Ei comunicau într-un mod pe care nimeni nu l-a înțeles, dar ce s-a întâmplat cu adevărat?
Potrivit rapoartelor care circulau la acea vreme, Facebook ar fi deconectat doi dintre roboții săi de inteligență artificială, Alice și Bob, după ce aceștia au început să vorbească între ei într-o limbă inventată de ei.
Alice și Bob erau doi chatbot, practic programe de calculator care imită conversațiile umane prin text.
Deoarece aceste programe nu sunt încă capabile de funcții foarte sofisticate, în afară de, de exemplu, să răspundă la întrebările clienților sau să comande mâncare, Grupul de Cercetare a Inteligenței Artificiale (FAIR) al Facebook a decis să vadă dacă ar putea să învețe singuri.
Folosind un joc în care cei doi chatbot, precum și jucători umani, au schimbat obiecte virtuale, cum ar fi cărți, pălării și mingi, Alice și Bob au demonstrat că ar putea încheia înțelegeri cu diferite grade de succes.
Pentru a face acest lucru, oamenii de știință din grupul FAIR au folosit software de inteligență artificială și o interfață creier-calculator, dar când Alice și Bob au început să negocieze între ei, experții și-au dat seama că roboții nu au fost programați să respecte pur și simplu regulile în engleză: rezultatul a fost un dialog aparent lipsit de sens.
Într-o postare pe Facebook, membrul FAIR Dhruv Batra a spus că acest comportament nu este alarmant, ci „un subdomeniu bine stabilit al inteligenței artificiale, cu publicații care datează de zeci de ani în urmă.
Mai simplu spus, agenții din medii care încearcă să rezolve o sarcină vor găsi adesea modalități neintuitive de a maximiza o recompensă.
Analizarea funcției de recompensă și modificarea parametrilor unui experiment NU este același lucru cu dezactivarea sau oprirea AI.
În acest caz, toți cercetătorii AI îi vor deconecta ori de câte ori a apărut o eroare.
Video
În lipsa unui acord scris, puteți prelua maxim 500 de caractere din acest articol dacă precizați sursa și dacă inserați vizibil linkul articolului.
Pentru mai multe articole interesante rămâi cu noi pe WorldNews24.net / Telegram / Google News