Michael Garrett: ”Inteligența artificială (IA) a progresat într-un ritm uluitor în ultimii ani. De ce nu am întâlnit încă extratereștrii ?
Unii oameni de știință se îndreaptă acum spre dezvoltarea superinteligenței artificiale (ASI) – o formă de inteligență artificială care nu numai că ar depăși inteligența umană, dar nu ar fi limitată de viteza de învățare a oamenilor.
Dar dacă această piatră de hotar nu este doar o realizare remarcabilă?
Dacă reprezintă, de asemenea, un formidabil blocaj în dezvoltarea tuturor civilizațiilor, unul atât de provocator încât să le zădărnicească supraviețuirea pe termen lung?
Această idee se află în centrul unei lucrări de cercetare publicată recent în Acta Astronautica. Ar putea fi IA „marele filtru” al universului – un prag atât de greu de depășit încât împiedică majoritatea vieții să evolueze în civilizații spațiale?”
Acesta este un concept care ar putea explica de ce căutarea inteligenței extraterestre nu a detectat încă semne unor civilizații tehnice avansate în alte părți ale galaxiei.
Ipoteza marelui filtru este, în cele din urmă, o soluție propusă la Paradoxul Fermi. Aceasta se întreabă de ce, într-un univers suficient de vast și de vechi pentru a găzdui miliarde de planete potențial locuibile, nu am detectat niciun semn al unor civilizații extraterestre.
Ipoteza sugerează că există obstacole insurmontabile în cronologia evolutivă a civilizațiilor care le împiedică să se dezvolte în entități spațiale.
Cred că apariția ASI ar putea fi un astfel de filtru. Progresul rapid al IA, care ar putea duce la ASI, s-ar putea intersecta cu o fază critică în dezvoltarea unei civilizații – tranziția de la o specie monoplanetară la una multiplanetară.
Acesta este punctul în care multe civilizații ar putea eșua, deoarece inteligența artificială progresează mult mai rapid decât capacitatea noastră de a o controla sau de a explora și popula în mod durabil sistemul nostru solar.
Provocarea cu IA, și în special cu ASI, constă în natura sa autonomă, de auto-amplificare și îmbunătățire. Aceasta posedă potențialul de a-și spori propriile capacități cu o viteză care depășește propriile noastre termene de evoluție fără IA.
Potențialul ca ceva să meargă prost este enorm, ducând la prăbușirea atât a civilizațiilor biologice, cât și a civilizațiilor AI înainte ca acestea să aibă șansa de a deveni multiplanetare.
De exemplu, dacă națiunile se bazează din ce în ce mai mult pe sisteme autonome de inteligență artificială care concurează între ele și cedează puterea acestora, capacitățile militare ar putea fi folosite pentru a ucide și a distruge la o scară fără precedent.
Acest lucru ar putea duce la distrugerea întregii noastre civilizații, inclusiv a sistemelor de inteligență artificială în sine.
În acest scenariu, estimez că longevitatea tipică a unei civilizații tehnologice ar putea fi mai mică de 100 de ani. Acesta este aproximativ timpul dintre posibilitatea de a recepționa și de a transmite semnale între stele (1960) și apariția estimată a ASI (2040) pe Pământ.
Acest timp este alarmant de scurt, dacă îl raportăm la scara temporală cosmică de miliarde de ani.
Această estimare, atunci când este introdusă în versiunile optimiste ale ecuației lui Drake – care încearcă să estimeze numărul de civilizații extraterestre active și comunicative din Calea Lactee – sugerează că, la un moment dat, există doar o mână de civilizații inteligente. În plus, la fel ca noi, activitățile lor tehnologice relativ modeste ar putea să le facă destul de dificil de detectat.
Semnal de alarmă
Această cercetare nu este pur și simplu o poveste de avertizare cu privire la o potențială condamnare. Ea servește drept un apel de trezire pentru ca omenirea să stabilească cadre de reglementare solide pentru a ghida dezvoltarea inteligenței artificiale, inclusiv a sistemelor militare.
Nu este vorba doar de a preveni utilizarea răuvoitoare a IA pe Pământ; este vorba, de asemenea, de a asigura că evoluția IA se aliniază cu supraviețuirea pe termen lung a speciei noastre.
Aceasta sugerează că trebuie să investim mai multe resurse pentru a deveni cât mai curând posibil o societate multiplanetară – un obiectiv care a rămas în adormire încă din zilele de glorie ale proiectului Apollo, dar care a fost reaprins în ultima vreme de progresele realizate de companiile private.
După cum a remarcat istoricul Yuval Noah Harari, nimic în istorie nu ne-a pregătit pentru impactul introducerii pe planeta noastră a unor entități non-conștiente și super-inteligente.
Recent, implicațiile procesului de luare a deciziilor autonome ale inteligenței artificiale au dus la apeluri din partea unor lideri proeminenți din domeniu pentru un moratoriu asupra dezvoltării inteligenței artificiale, până când va putea fi introdusă o formă responsabilă de control și reglementare.
Dar chiar dacă fiecare țară ar fi de acord să respecte reguli și reglementări stricte, organizațiile necinstite vor fi greu de ținut în frâu.
Integrarea inteligenței artificiale autonome în sistemele de apărare militară trebuie să fie un domeniu de interes deosebit.
Există deja dovezi că oamenii vor renunța în mod voluntar la o putere semnificativă în favoarea unor sisteme din ce în ce mai capabile, deoarece acestea pot îndeplini sarcini utile mult mai rapid și mai eficient fără intervenția umană.
Prin urmare, guvernele sunt reticente în a reglementa acest domeniu, având în vedere avantajele strategice pe care le oferă IA, așa cum s-a demonstrat recent și în mod devastator în Gaza.
Acest lucru înseamnă că deja ne apropiem periculos de mult de o prăpastie în care armele autonome operează dincolo de limitele etice și ocolesc dreptul internațional.
Într-o astfel de lume, cedarea puterii către sistemele de inteligență artificială pentru a obține un avantaj tactic ar putea declanșa, fără să vrea, un lanț de evenimente extrem de distructive care se intensifică rapid. Într-o clipită, inteligența colectivă a planetei noastre ar putea fi anihilată.
Omenirea se află într-un punct crucial al traiectoriei sale tehnologice. Acțiunile noastre de acum ar putea determina dacă vom deveni o civilizație interstelară durabilă sau dacă vom ceda în fața provocărilor provocate de propriile noastre creații.
Folosirea Seti ca o lentilă prin care putem examina dezvoltarea noastră viitoare adaugă o nouă dimensiune discuției despre viitorul IA.
Depinde de noi toți să ne asigurăm că, atunci când ajungem la stele, nu o facem ca o poveste de avertizare pentru alte civilizații, ci ca un far de speranță – o specie care a învățat să prospere alături de IA.
Pentru mai multe articole interesante rămâi cu noi pe WorldNews24.net Și nu uitați, vă așteptăm și pagina noastră de Facebook !