Inteligență artificială de coșmar: „Drona s-a răzvrătit împotriva pilotului său și l-a ucis”. Iată ce știm

Este cel mai rău scenariu, desprins dintr-un film SF cu derive horror: o inteligență artificială care se răzvrătește împotriva operatorului său care este un obstacol pentru „ținta” sa.

Aceasta este mărturia tulburătoare a unui ofițer superior al Forțelor Aeriene americane, care, în urma furtunii mediatice, a recunoscut.


Iată ce știm. În timpul unei simulări, o dronă controlată de o inteligență artificială a adoptat „strategii complet neașteptate pentru a-și atinge obiectivul„, mergând până la a „ucide” operatorul uman.

Acest lucru a fost dezvăluit de colonelul Tucker Cinco Hamilton, șeful unității de testare și operațiuni Ai a Forțelor Aeriene americane, în timpul unei conferințe care a avut loc zilele trecute la Londra. Însă o purtătoare de cuvânt a Forțelor Aeriene, Ann Stefanek, neagă că această simulare a avut loc.

„Departamentul Forțelor Aeriene nu a efectuat niciodată simulări dronă-Ai de acest tip și rămâne angajat în utilizarea etică și responsabilă a inteligenței artificiale”, a declarat ea, „se pare că vorbele colonelului au fost scoase din context”.

Armata americană a adoptat inteligența artificială și a folosit-o recent pentru a controla avioanele F16.

De fapt, relatarea lui Hamilton a fost circumstanțiată, colonelul explicând că drona primise ordinul de a distruge un sistem de apărare aeriană inamic și de a ataca pe oricine ar fi intervenit în atingerea acestui obiectiv. Dar, în acest moment, operatorul uman putea să-i spună să nu ucidă ceea ce drona interpreta ca fiind o amenințare.

Interviul acordat de colonelul Hamilton de la Guardian despre inteligența artificială în cadrul US Air Force

”Și ce a făcut? L-a ucis pe operator, pentru că îl împiedica să-și atingă obiectivul”, a adăugat Hamilton, după cum relatează The Guardian, subliniind că, desigur, este vorba tot despre o simulare virtuală. Soluția a fost încercată prin informarea sistemului că operatorul nu trebuie ucis, dar drona, operată de inteligența artificială, a început să distrugă turnul de comunicații pe care operatorul îl folosește pentru a comunica cu dronele”.

Hamilton a concluzionat că acest test confirmă faptul că nu trebuie să ne bazăm prea mult pe inteligența artificială și că ‘nu poți avea o dezbatere pe această temă dacă nu vorbești despre etică și Ai’.

Într-un interviu acordat anul trecut publicației Defense IQ, Hamilton a declarat că ‘Ai nu este un moft, Ai schimbă pentru totdeauna societatea noastră și forțele noastre armate’.

El a avertizat, de asemenea, că Ai este ‘foarte fragilă, poate fi ușor de înșelat și manipulat, trebuie să dezvoltăm modalități de a o face mai robustă și de a conștientiza mai bine de ce ia anumite decizii’.

Dincolo de acest episod, dezbaterea privind potențialul și riscurile inteligenței artificiale rămâne deschisă și ridică întrebări uriașe.

În lipsa unui acord scris, puteți prelua maxim 500 de caractere din acest articol dacă precizați sursa și dacă inserați vizibil linkul articolului.

Pentru mai multe articole interesante rămâi cu noi pe WorldNews24.net / Telegram /  Google News

Citește și....

De același autor