Într-o scrisoare deschisă se afirmă că actuala dinamică a cursei în domeniul inteligenței artificiale este periculoasă și se solicită crearea unor autorități de reglementare independente pentru a se asigura că viitoarele sisteme pot fi implementate în siguranță.
Mai mulți cercetători cunoscuți în domeniul inteligenței artificiale printre care și Elon Musk – au semnat o scrisoare deschisă prin care solicită laboratoarelor de inteligență artificială din întreaga lume să întrerupă dezvoltarea sistemelor de inteligență artificială la scară largă, invocând temeri legate de „riscurile profunde pentru societate și umanitate” pe care, potrivit acestora, le prezintă acest software.
Scrisoarea, publicată de organizația nonprofit Future of Life Institute, notează că laboratoarele de inteligență artificială sunt în prezent blocate într-o „cursă scăpată de sub control” pentru a dezvolta și implementa sisteme de învățare automată „pe care nimeni – nici măcar creatorii lor – nu le poate înțelege, prezice sau controla în mod fiabil”.
„Facem apel la toate laboratoarele de inteligență artificială să întrerupă imediat, pentru cel puțin 6 luni, antrenarea sistemelor de inteligență artificială mai puternice decât GPT-4.”
„Prin urmare, facem apel la toate laboratoarele de inteligență artificială să întrerupă imediat, pentru cel puțin 6 luni, antrenarea sistemelor de inteligență artificială mai puternice decât GPT-4″, se arată în scrisoare. „Această pauză ar trebui să fie publică și verificabilă și să includă toți actorii cheie. Dacă o astfel de pauză nu poate fi promulgată rapid, guvernele ar trebui să intervină și să instituie un moratoriu.”
Printre semnatari se numără autorul Yuval Noah Harari, cofondatorul Apple Steve Wozniak, cofondatorul Skype Jaan Tallinn, politicianul Andrew Yang și o serie de cercetători și directori executivi bine cunoscuți din domeniul inteligenței artificiale, printre care Stuart Russell, Yoshua Bengio, Gary Marcus și Emad Mostaque.
Lista completă a semnatarilor poate fi văzută AICI, deși numele noi trebuie tratate cu prudență, deoarece există rapoarte potrivit cărora unele nume au fost adăugate pe listă în glumă (de exemplu, Sam Altman, directorul general al OpenAI, o persoană care este parțial responsabilă de actuala dinamică a cursei în IA).
Este puțin probabil ca scrisoarea să aibă vreun efect asupra climatului actual în cercetarea în domeniul IA, care a văzut cum companii de tehnologie precum Google și Microsoft se grăbesc să implementeze noi produse, lăsând adesea deoparte preocupările anterior exprimate cu privire la siguranță și etică.
Dar este un semn al opoziției tot mai mari față de această abordare de tipul „livrează-l acum și repară-l mai târziu”; o opoziție care ar putea ajunge în domeniul politic pentru a fi luată în considerare de către legislatorii actuali.
După cum se menționează în scrisoare, chiar și OpenAI însuși și-a exprimat potențiala nevoie de o „revizuire independentă” a viitoarelor sisteme de inteligență artificială pentru a se asigura că acestea respectă standardele de siguranță.
„Laboratoarele de AI și experții independenți ar trebui să folosească această pauză pentru a dezvolta și implementa împreună un set de protocoale de siguranță comune pentru proiectarea și dezvoltarea AI avansate, care să fie riguros auditate și supravegheate de experți externi independenți”, scriu aceștia.
„Aceste protocoale ar trebui să garanteze că sistemele care aderă la ele sunt sigure dincolo de orice îndoială rezonabilă.”
Puteți citi scrisoarea în întregime AICI.
În lipsa unui acord scris, puteți prelua maxim 500 de caractere din acest articol dacă precizați sursa și dacă inserați vizibil linkul articolului.
Pentru mai multe articole interesante rămâi cu noi pe WorldNews24.net / Telegram / Google News