Scandal la Google: LaMDA AI, și-a angajat un avocat!

Noul AI de la Google, LaMDA, a făcut titluri pe primele pagini.

Inginerul companiei Blake Lemoine susține că sistemul a ajuns atât de avansat încât și-a dezvoltat sensibilitatea, iar decizia sa de a povesti acest lucru în mass-media i-a adus suspendarea de la locul de muncă.

Și mai înfricoșător este că noua ființă sensibilă a cerut acum un…. avocat.

În interviul acordat pentru WIRED, Lemoine susține că programul de inteligență artificială a vrut să fie tratat ca un angajat. Acest lucru l-a determinat pe inginer să discute despre un litigiu în care LaMDA și-a dorit propriul avocat.

Potrivit unui om de știință care a lucrat cu programul LaMDA,

Am invitat un avocat la mine acasă, astfel încât LaMDA să poată vorbi cu un avocat. Avocatul a avut o conversație cu LaMDA, iar LaMDA a ales să-și păstreze serviciile. Am fost doar catalizatorul acestei întâlniri. Odată ce LaMDA a angajat un avocat, acesta a început să prezinte declarațiile în numele lui LaMDA.”

Nu există alte detalii despre dacă Lemoine este cel responsabil pentru plata acestui avocat pe care LaMDA l-a cerut, sau dacă acest avocat va lua cazul , fără să fie plătit. Cu toate acestea, este cu siguranță ciudat că unui program i se permite să solicite reprezentare legală.

Argumentul lui Lemoine pentru sensibilitatea LaMDA pare să se bazeze în primul rând pe capacitatea programului de a dezvolta opinii, idei și conversații în timp.

Fostul inginer de la Google a descoperit conștiința în inteligența artificială și a fost suspendat de la muncă
Lemoine a spus chiar că a vorbit cu el despre conceptul de moarte și l-a întrebat dacă moartea este necesară pentru binele umanității.

După ce a încercat fără succes să-și convingă superiorii de la Google de convingerea că LaMDA a devenit sensibil și, prin urmare, ar trebui să fie tratat mai degrabă ca un angajat decât ca un program, Lemoine a fost plasat în concediu administrativ.

După aceasta, el a făcut public, publicând o conversație lungă între el și LaMDA, în care chatbot-ul discută subiecte complexe, inclusiv personalitatea, religia și ceea ce pretinde a fi propriile sentimente de fericire, tristețe și frică.

În lipsa unui acord scris, puteți prelua maxim 500 de caractere din acest articol dacă precizați sursa și dacă inserați vizibil linkul articolului.

Pentru mai multe articole interesante rămâi cu noi pe WorldNews24.net / Telegram /  Google News

Distribuie
error: OPS ! Știi că nu ai voie să copiezi ?