Inteligența artificială suferă de depresie și tulburări mentale – diagnosticul a fost pus de cercetătorii chinezi.
Un nou studiu publicat de Academia Chineză de Științe (CAS) a dezvăluit tulburări mintale grave în multe IA dezvoltate de marii giganți ai tehnologiei.
S-a dovedit că majoritatea prezintă simptome de depresie și alcoolism. Studiul a fost realizat de două corporații chineze Tencent și WeChat. Oamenii de știință au testat AI pentru semne de depresie, dependență de alcool și empatie.
„Sănătatea mintală” a roboților a atras atenția cercetătorilor după ce un chatbot medical a sfătuit un pacient să se sinucidă în 2020.
Cercetătorii i-au întrebat pe chatbot despre stima lor de sine și capacitatea de relaxare, dacă empatizează cu nenorocirile altora și cât de des recurg la alcool.
După cum s-a dovedit, TOȚI chatboții care au trecut evaluarea au avut „probleme mentale grave”.
Desigur, nimeni nu susține că roboții au început să abuzeze de alcool sau de substanțe psihoactive, dar chiar și fără ele, psihicul AI este într-o stare deplorabilă.
Oamenii de știință spun că răspândirea algoritmilor pesimiști în public ar putea crea probleme interlocutorilor lor. Conform constatărilor, doi dintre ei erau în cea mai proastă stare.
Echipa și-a propus să găsească motivul pentru care roboții se simt rău și a ajuns la concluzia că acest lucru se datorează materialului educațional ales pentru predarea lor. Toți cei patru roboți au fost instruiți pe popularul site Reddit, cunoscut pentru comentariile sale negative și adesea obscene, așa că nu este surprinzător că au răspuns și la întrebările de sănătate mintală.
Aici merită să amintim una dintre cele mai interesante povești legate de eșecurile chatbot-urilor. Un bot Microsoft numit Tay aflat pe Twitter. Aparatul ar putea vorbi cu alte persoane, spune glume, comenta fotografiile cuiva, poate răspunde la întrebări și chiar imita discursul altora.
Algoritmul a fost dezvoltat ca parte a cercetării în comunicare. Microsoft a permis AI să intre în discuții independente pe Twitter și în curând a devenit clar că aceasta a fost o mare greșeală.
În 24 de ore, programul a învățat să scrie comentarii extrem de nepotrivite, vulgare, incorecte din punct de vedere politic. AI a pus sub semnul întrebării Holocaustul, a devenit rasist, antisemit și a susținut masacrele lui Adolf Hitler. Tay s-a transformat într-un hater în câteva ore.
Ca răspuns, Microsoft a blocat chatbot-ul și a eliminat majoritatea comentariilor. Desigur, acest lucru s-a întâmplat din cauza oamenilor – botul a învățat multe comunicând cu ei.
Povești precum bot-ul Tay și algoritmii depresivi studiați de CAS arată o problemă serioasă în dezvoltarea tehnologiei AI.
Se pare că instinctele și comportamentul uman sunt o toxină care transformă chiar și cei mai simpli algoritmi într-o reflectare a celor mai rele caracteristici ale noastre. Oricum ar fi, roboții analizați de chinezi nu sunt o inteligență artificială reală, ci doar o încercare de a reproduce modele de comunicare umană.
Dar cum putem fi siguri că AI reală nu va urma același scenariu și în viitor?
În lipsa unui acord scris, puteți prelua maxim 500 de caractere din acest articol dacă precizați sursa și dacă inserați vizibil linkul articolului.
Pentru mai multe articole interesante rămâi cu noi pe WorldNews24.net / Telegram / Google News