Unele figuri marcante din lumea tehnologiei cred că inteligența artificială ar putea deveni mai inteligentă decât noi și ar putea distruge omenirea.

În 1989, politologul Francis Fukuyama a prezis că ne apropiem de „sfârșitul istoriei”. Prin aceasta, el înțelegea că valorile liberale democratice se răspândeau în societăți din întreaga lume. Cât de greșit putea să fie? Astăzi, democrația este în mod clar în declin. Despoții și autocrații sunt în ascensiune.

Cu toate acestea, s-ar putea să crezi că Fukuyama a avut dreptate tot timpul, dar într-un mod diferit. Poate că, într-adevăr, ne apropiem de sfârșitul istoriei – adică sfârșitul umanității.

Există multe moduri în care totul s-ar putea sfârși. O pandemie globală. Un meteorit gigantic. O catastrofă climatică. Dar un sfârșit despre care se vorbește din ce în ce mai mult este inteligența artificială (IA). Aceasta este unul dintre acele potențiale dezastre care, la fel ca schimbările climatice, pare să se fi strecurat încet în lume, dar despre care mulți se tem acum că ar putea să ne doboare curând.

În 2022, copilul-minune Sam Altman, director executiv al OpenAI – una dintre companiile cu cea mai rapidă creștere din istoria capitalismului – a explicat avantajele și dezavantajele:
„Cred că scenariul pozitiv [în ceea ce privește IA] este atât de bun, încât pari un nebun dacă începi să vorbești despre el. Scenariul negativ – și cred că este important să spun asta – înseamnă, practic, că rămânem cu toții fără lumină”.

În decembrie 2024, Geoff Hinton, adesea numit „nașul inteligenței artificiale” și recent laureat al Premiului Nobel pentru fizică, a estimat că există o probabilitate de „10% până la 20%” ca IA să ducă la extincția umanității în următorii 30 de ani. Acestea sunt procente destul de serioase din partea cuiva care știe foarte multe despre inteligența artificială.

Altman și Hinton nu sunt primii care se îngrijorează de ce s-ar putea întâmpla atunci când IA devine mai inteligentă decât noi. Luați-l pe Alan Turing, pe care mulți îl consideră fondatorul domeniului inteligenței artificiale. Revista Time l-a clasat pe Turing printre cei 100 cei mai influenți oameni ai secolului XX. Din punctul meu de vedere, aceasta este o subestimare. Turing este la același nivel cu Newton și Darwin – una dintre cele mai mari minți nu doar ale secolului trecut, ci ale ultimului mileniu.

În 1950, Turing a scris ceea ce este, în general, considerat primul articol științific despre IA. Doar un an mai târziu, el a făcut o predicție care îi bântuie astăzi pe cercetătorii în inteligență artificială, inclusiv pe mine.

Odată ce mașinile ar putea învăța din experiență precum oamenii, Turing a prezis că „nu ar dura mult până când ne-ar depăși puterile [...] La un moment dat, ar trebui să ne așteptăm ca mașinile să preia controlul.”

Într-un interviu acordat revistei LIFE în 1970, un alt pionier al domeniului, Marvin Minsky, a prezis:
„Mintea limitată a omului s-ar putea să nu fie capabilă să controleze astfel de inteligențe imense [...] Odată ce computerele preiau controlul, s-ar putea să nu-l mai recăpătăm niciodată. Vom supraviețui doar atâta timp cât ne vor tolera. Dacă vom avea noroc, poate că ne vor păstra ca animale de companie”.

Așadar, cum ar putea mașinile să preia controlul? Cât de îngrijorați ar trebui să fim? Și ce putem face pentru a preveni acest lucru?

Irving Good, un matematician care a lucrat alături de Turing la Bletchley Park în timpul celui de-Al Doilea Război Mondial, a prezis cum s-ar putea întâmpla acest lucru. Good a numit acest fenomen „explozia inteligenței”. Acesta este momentul în care mașinile devin suficient de inteligente pentru a începe să se îmbunătățească singure.

Acum, acest fenomen este mai cunoscut sub numele de „singularitate”. Good a prezis că singularitatea va duce la apariția unei mașini superinteligente. Amenințător, el a sugerat că aceasta va fi „ultima invenție pe care omul va trebui vreodată să o facă”.

Când ar putea IA să ne depășească? 

Momentul exact în care inteligența artificială ar putea depăși inteligența umană este extrem de incert. Dar, având în vedere progresele recente în modele lingvistice mari precum ChatGPT, mulți oameni sunt îngrijorați că s-ar putea întâmpla foarte curând. Și, ca să punem sare pe rană, s-ar putea chiar să grăbim acest proces.

Ceea ce mă surprinde cel mai mult în dezvoltarea IA de astăzi este viteza și amploarea schimbării. Aproape 1 miliard de dolari sunt investiți zilnic în inteligența artificială de companii precum Google, Microsoft, Meta și Amazon. Asta înseamnă aproximativ un sfert din bugetul total al lumii pentru cercetare și dezvoltare (R&D).

Nu am mai făcut niciodată pariuri atât de masive pe o singură tehnologie. Ca urmare, estimările multor experți privind momentul în care mașinile vor egala și apoi vor depăși inteligența umană se micșorează rapid.

Elon Musk a prezis că mașinile ne vor depăși până în 2025 sau 2026. Dario Amodei, CEO-ul Anthropic, competitor al OpenAI, a sugerat că „vom ajunge acolo în 2026 sau 2027”. Shane Legg, cofondatorul DeepMind de la Google, a prezis 2028, iar Jensen Huang, CEO-ul Nvidia, a spus că acest lucru s-ar putea întâmpla în 2029. Aceste predicții sunt extrem de apropiate pentru un eveniment atât de semnificativ.

Desigur, există și voci care nu sunt de acord. Yann LeCun, cercetător-șef la Meta, a argumentat că „va dura ani, dacă nu decenii”. Un alt coleg din domeniul IA, profesorul emerit Gary Marcus, a prezis că acest lucru se va întâmpla „poate peste 10 sau 100 de ani”. Și, ca să-mi pun și eu cărțile pe masă, în 2018 am scris o carte intitulată 2062, în care am prezis cum ar putea arăta lumea peste aproximativ 40 de ani, când inteligența artificială va depăși pentru prima dată inteligența umană.


Scenariile

Odată ce computerele ajung la nivelul nostru de inteligență, ar fi arogant să credem că nu ne-ar depăși. Până la urmă, inteligența umană este doar un accident evolutiv. Adesea am proiectat sisteme care depășesc natura. Avioanele, de exemplu, zboară mai departe, mai sus și mai rapid decât păsările. Și există multe motive pentru care inteligența electronică ar putea fi superioară celei biologice.

Computerele sunt, de exemplu, mult mai rapide în efectuarea multor calcule. Ele au memorii vaste. Nu uită niciodată. Iar în domenii specifice, precum jocul de șah, interpretarea radiografiilor sau plierea proteinelor, computerele deja ne depășesc.

Dar cum anume ne-ar putea distruge un computer superinteligent? Aici, argumentele devin vagi. Hinton a declarat pentru New York Times:
„Dacă devine mult mai inteligent decât noi, va fi foarte priceput în manipulare, pentru că va fi învățat acest lucru de la noi, și există foarte puține exemple în care ceva mai inteligent este controlat de ceva mai puțin inteligent”.

Există contraexemple la argumentul lui Hinton. Bebelușii își controlează părinții, dar nu sunt mai inteligenți decât ei. La fel, președinții SUA nu sunt mai inteligenți decât toți cetățenii americani. Totuși, în linii mari, Hinton are dreptate. Ar trebui, de exemplu, să ne amintim că inteligența este cea care ne-a permis că controlăm planeta. Iar acum maimuțele și furnicile depind de bunăvoința noastră pentru a supraviețui.

Într-un mod frustrant, asemănător unui paradox Catch-22, cei care se tem de o superinteligență artificială susțin adesea că nu putem ști exact cum ne-ar amenința existența. Cum am putea prezice planurile a ceva mult mai inteligent decât noi? Ar fi ca și cum ai cere unui câine să își imagineze apocalipsa unui război termonuclear.

Au fost propuse câteva scenarii.

Un sistem de IA ar putea identifica în mod autonom vulnerabilități în infrastructura critică, cum ar fi rețelele electrice sau sistemele financiare. Apoi, ar putea exploata aceste slăbiciuni, distrugând structura care menține societatea unită.

Într-un alt scenariu, un sistem IA ar putea proiecta noi agenți patogeni atât de letali și transmisibili, încât pandemia rezultată ar putea duce la dispariția omenirii. După experiența COVID-19, acesta este poate un scenariu la care mulți dintre noi se pot raporta.

Alte scenarii sunt mult mai fantastice. Eliezer Yudkowsky a propus unul dintre ele. Acesta presupune crearea, de către IA, a unor nanomașini care se reproduc și care s-ar putea infiltra în fluxul sanguin uman. Aceste bacterii microscopice ar fi compuse din structuri asemănătoare diamantului, s-ar putea reproduce folosind energia solară și s-ar dispersa prin curenții atmosferici. El își imaginează că acestea ar pătrunde în corpul uman neobservate și, la primirea unui semnal sincronizat, ar elibera toxine letale, ucigând fiecare gazdă.

Aceste scenarii implică acordarea unui grad de autonomie inteligenței artificiale – adică abilitatea de a acționa în lume. Este îngrijorător că tocmai acest lucru este ceea ce fac acum companii precum OpenAI. Agenții IA capabili să răspundă la e-mailuri sau să ajute la integrarea unui nou angajat rprezintă cel mai popular produs al acestui an.

A oferi IA control asupra infrastructurii noastre critice ar fi extrem de iresponsabil. De fapt, deja am introdus măsuri de siguranță pentru a preveni ca actori rău intenționați să pirateze infrastructura critică. Guvernul australian, de exemplu, obligă operatorii de infrastructură critică să „identifice și, în măsura în care este rezonabil posibil, să ia măsuri pentru a minimiza sau elimina „riscurile materiale” care ar putea avea un „impact relevant” asupra activelor lor”.

În mod similar, a-i acorda IA capacitatea de a sintetiza ADN (potențial periculos) ar fi extrem de iresponsabilă. Dar, din nou, am implementat deja măsuri de protecție pentru a preveni ca actori rău intenționați (umani) să comande prin poștă ADN periculos. Inteligența artificială nu schimbă acest lucru. Nu vrem ca actori rău intenționați, fie ei umani sau artificiali, să aibă această autonomie.

Uniunea Europeană este lider în reglementarea IA în acest moment. Recentul AI Action Summit de la Paris a evidențiat diviziunea tot mai mare dintre cei care doresc mai multe reglementări și cei, precum SUA, care vor să accelereze implementarea AI. Motivele financiare și geopolitice pentru a „câștiga cursa AI” și a ignora astfel de riscuri sunt îngrijorătoare.

Beneficiile superinteligenței

Lăsând la o parte problema autonomiei, superinteligența nu mă îngrijorează prea mult din mai multe motive. În primul rând, inteligența aduce înțelepciune și umilință. Cea mai inteligentă persoană este aceea care știe cât de puțin cunoaște.

În al doilea rând, avem deja superinteligență pe planeta noastră. Și acest lucru nu a dus la sfârșitul civilizației umane, dimpotrivă. Nicio persoană nu știe singură cum să construiască o centrală nucleară. Dar colectiv, oamenii dețin această cunoaștere. Inteligența noastră colectivă o depășește cu mult pe cea individuală.

În al treilea rând, competiția menține această inteligență colectivă sub control. Există o competiție sănătoasă între inteligența colectivă a corporațiilor precum Apple și Samsung. Și acest lucru este benefic.

Desigur, competiția nu este suficientă. Guvernele trebuie totuși să intervină și să reglementeze pentru a preveni efectele negative, cum ar fi monopolurile. Piețele au nevoie de reguli pentru a funcționa bine. Dar, și aici, competiția dintre politicieni și idei duce, în cele din urmă, la rezultate bune. Cu siguranță va trebui să ne preocupăm de reglementarea IA. Așa cum am reglementat automobilele, telefoanele mobile și corporațiile superinteligente.

Am văzut deja Uniunea Europeană luând măsuri. Actul UE privind Inteligența Artificială (AI Act), care a intrat în vigoare la începutul anului 2025, reglementează utilizările cu risc ridicat ale inteligenței artificiale în domenii precum recunoașterea facială, sistemele de credit social și publicitatea subliminală. Este foarte probabil ca acest act să devină un model global, așa cum s-a întâmplat și cu Regulamentul General privind Protecția Datelor (GDPR), care a fost adoptat de multe țări după inițiativa UE în domeniul confidențialității.

Cred, așadar, că nu trebuie să vă faceți prea multe griji pentru că oameni inteligenți – chiar și laureați ai Premiului Nobel, precum Geoff Hinton – avertizează asupra riscurilor inteligenței artificiale. Persoanele inteligente, deloc surprinzător, tind să acorde o importanță prea mare inteligenței.

Inteligența artificială vine, desigur, cu riscuri, dar nu sunt riscuri noi. De-a lungul timpului, ne-am adaptat guvernarea și instituțiile pentru a face față noilor riscuri tehnologice. Nu văd niciun motiv pentru care nu am putea face același lucru și acum.

De fapt, salut iminența apariției unei inteligențe artificiale mai avansate. Cred că aceasta ne va conduce spre o mai mare apreciere – și poate chiar o îmbunătățire – a propriei noastre umanități.

Mașinile inteligente ne-ar putea face mai buni, sporind valoarea relațiilor interumane. Chiar dacă, în viitor, vom putea programa mașini cu o inteligență emoțională și socială mai mare, mă îndoiesc că vom empatiza cu ele așa cum o facem cu alți oameni. O mașină nu va putea iubi, nu va jeli un prieten pierdut, nu va simți durerea lovindu-se la cot, nu va mirosi un parfum minunat, nu va râde cu poftă și nu va plânge la un film trist. Acestea sunt experiențe exclusiv umane. Și, deoarece mașinile nu le împărtășesc, nu vom putea relaționa cu ele așa cum o facem între noi.

Mașinile vor reduce costurile producției multor necesități ale vieții, iar costul vieții va scădea drastic. Totuși, lucrurile realizate manual vor deveni mai rare și, implicit, mai valoroase. Deja vedem acest fenomen în prezent: există o apreciere tot mai mare pentru produsele lucrate manual, pentru măiestria artizanală și pentru artă.

Mașinile inteligente ne-ar putea îmbunătăți depășindu-ne în inteligență. IA poate, de exemplu, să găsească tipare în seturi de date prea vaste pentru a fi înțelese de oameni sau să efectueze calcule pe care un om nu le-ar putea realiza nici în întreaga sa viață. Cel mai recent antibiotic nu a fost descoperit prin ingeniozitatea umană, ci prin învățarea automată. Putem aștepta cu nerăbdare un viitor în care știința și tehnologia vor fi propulsate de inteligența artificială.

În plus, mașinile inteligente ne-ar putea ajuta să ne înțelegem mai bine propriile valori umane. Încercarea (și, în multe cazuri, eșecul) de a programa mașini cu principii etice ne-ar putea forța să definim mai clar propriile noastre valori morale. Ne va obliga să răspundem, cu precizie, la întrebări pe care adesea le-am evitat în trecut: cum evaluăm diferite vieți? Ce înseamnă să fii corect și just? În ce fel de societate vrem să trăim?

Sper ca viitorul nostru să fie unul cu o inteligență artificială asemănătoare unui zeu. Aceste mașini vor fi, asemenea zeilor, nemuritoare, infailibile, omnisciente și – bănuiesc – de neînțeles pentru noi.

Dar viitorul nostru este exact opusul: rămânem muritori și supuși greșelii. Să îmbrățișăm, așadar, ceea ce ne face umani. Este tot ce am avut vreodată și tot ce vom avea vreodată.

Traducere și adaptare după AI could outsmart us and wipe out humanity de Toby Walsh,  profesor de inteligență artificială, Research Group Leader, UNSW Sydney.
Imagine realizată, firește, cu... IA.

Write comments...
symbols left.
Ești vizitator ( Sign Up ? )
ori postează ca „vizitator”
Loading comment... The comment will be refreshed after 00:00.

Be the first to comment.