Explozie nuclearaÎn gălăgia zilnică a ”crizelor” cu care se confruntă omenirea, uităm de multele generaţii care sperăm să ne urmeze. Nu cele care vor trăi peste 200 de ani, ci cele care vor trăi peste 1.000 sau 10.000 de ani. Folosesc cuvântul ”sperăm” deoarece ne confruntăm cu riscuri, numite riscuri existenţiale care ar putea ameninţa să şteargă omenirea de pe faţa pământului. Aceste riscuri nu sunt doar riscuri ale unor mari dezastre, ci ale unor dezastre care ar putea pune capăt istoriei.



Totuşi, nu toţi au ignorat viitorul pe termen lung. Mistici ca Nostradamus au încercat adesea să calculeze sfârşitul lumii. HG Wells a încercat să dezvolte o ştiinţă a prezicerilor şi a descris viitorul îndepărtat al omenirii în cartea ”Maşina timpului”. Şi alţi scriitori au construit viitoruri pe termen lung pentru a avertiza, amuza sau face speculaţii.

Dar chiar dacă aceşti pionieri sau futurologi nu s-ar fi gândit la viitorul omenirii, asta n-ar fi schimbat rezultatul. Oamenii nu puteau să facă mare lucru ca să ne salveze de o criză existenţială sau chiar să provoace una.

Astăzi suntem într-o poziţie mai privilegiată. Activitatea umană a format în mod constant viitorul planetei noastre. Şi chiar dacă suntem departe de a controla dezastrele naturale, dezvoltăm tehnologii care ne pot ajuta să le temperăm sau cel puţin, să le suportăm.

Viitorul imperfect

Totuşi aceste riscuri nu sunt studiate îndeajuns. Există un sentiment de neputinţă şi de fatalism faţă de ele. Oamenii au vorbit de milenii despre apocalipsă, dar puţini au încercat s-o prevină. Oamenii nu se pricep nici să trateze probleme care nu au apărut încă (parţial din cauza euristicii disponibilităţii - tendinţa de a supraestima probabilitatea evenimentelor pe care le cunoaştem ca exemple şi de a subestima evenimentele pe care nu ni le putem aminti cu uşurinţă).

Dacă omenirea dispare, în cel mai rău caz, pierderea este echivalentă cu pierderea tuturor indivizilor vii şi frustrarea scopurilor acestora. Dar pierderea va fi probabil mult mai mare de atât. Dispariţia umanităţii înseamnă pierderea cunoştinţelor acumulate de generaţiile trecute, vieţile generaţiilor viitoare (şi ar putea fi un număr astronomic de vieţi viitoare) şi toate valorile pe care acestea le-ar fi putut crea. Dacă inteligenţa sau conştiinţa se pierd, asta poate însemna că valoarea însăşi dispare din univers. Acesta este un motiv moral foarte bine întemeiat pentru a ne strădui să împiedicăm ca ameninţările existenţiale să devină realitate. Şi nu trebuie să eşuăm nici măcar o dată în această întreprindere.

Cu aceste idei în minte, am ales ceea ce consider eu că sunt cele mai mari cinci ameninţări la adresa existenţei omenirii. Dar sunt avertismente care trebuie ţinute minte, deoarece această listă nu este finală.

În ultimile secole am descoperit sau creat noi riscuri existenţiale - supervulcanii au fost descoperiţi la începutul anilor ’1970 şi înainte de proiectul Manhattan războiul nuclear era imposibil - deci putem să ne aşteptăm să mai apară şi altele. De asemenea, unele riscuri care astăzi par serioase s-ar putea să dispară pe măsură ce aflăm mai multe. Probabilităţile se pot schimba şi ele în timp - uneori datorită faptului că riscurile ne îngrijorează şi ne ocupăm de ele ca să le eliminăm.

În cele din urmă, doar pentru că ceva e posibil şi potenţial periculos, nu înseamnă că şi merită să ne facem griji. Există unele riscuri asupra cărora nu putem avea nicio influenţă, cum ar fi emisiile de raze gama care rezultă din explozia galaxiilor. Dar dacă aflăm că putem face ceva, priorităţile se schimbă. De exemplu, prin igienă, vaccinuri şi antibiotice, molimele au devenit dintr-un act divin, o proastă igienă publică.

 


1. Războiul nuclear

Deşi până acum au fost folosite în război numai două arme nucleare - la Hiroşima şi la Nagasaki în al Doilea Război Mondial -  şi stocurile de arme nucleare au scăzut de la vârful pe care l-au atins în timpul Războiului Rece, e o greşeală să credem că războiul nuclear e imposibil. De fapt, s-ar putea să nu fie improbabil.

Criza rachetelor cubaneze a fost foarte aproape să devină una nucleară. Dacă presupunem că la fiecare 69 de ani s-ar petrece un asemenea eveniment şi că există una din trei şanse să se transforme într-un război nuclear, şansa unei astfel de catastrofe creşte la aproape una la 200 pe an.

Şi mai rău, criza rachetelor cubaneze a fost numai cel mai cunoscut caz. Istoria disuasiunii nucleare dintre Uniunea Sovietică şi Statele Unite e plină de apeluri de urgenţă şi greşeli periculoase. Probabilitatea reală s-a schimbat depinzând de tensiunile internaţionale, dar pare neverosimil ca şansele să fie mai mici de unu la o mie pe an.

Un război nuclear la scară mare între două superputeri ar omorî sute de milioane de oameni direct sau în perioada imediat următoare dezastrului - un dezastru inimaginabil. Dar asta nu e destul ca să-l transforme într-un risc existenţial.

Similar, pericolele căderilor radioactive sunt adesea exagerate - potenţial mortale la nivel local, dar la nivel global o problemă relativ limitată. Bombele cu cobalt au fost propuse ca o armă ipotetică a zilei de apoi care i-ar omorî pe toţi prin căderile radioactive, dar sunt practic greu şi scump de construit. Şi fizic, sunt doar cu greu posibile.

Adevărata ameninţare este iarna nucleară - adică deşeurile radioactive aruncate în stratosferă care ar cauza o răcire şi o uscare pe termen lung a lumii. Simulările moderne ale climatului arată că ar putea termina agricultura mondială pe mulţi ani. Dacă acest scenariu apare, vor flămânzi miliarde de ani, lăsând numai supravieţuitori împrăştiaţi care ar putea fi terminaţi de alte ameninţări cum ar fi bolile. Principala incertitudine este cum s-ar comporta căderile radioactive: în funcţie de tipul de deşeuri, rezultatele pot fi foarte diferite şi în momentul de faţă nu avem mijloace corecte de a le evalua.

2. Epidemiile create prin bioinginerie

Epidemiile naturale au omorât mai mulţi oameni decât războaiele. Totuşi, epidemiile naturale nu sunt o potenţială ameninţare existenţială: de obicei sunt câţiva oameni rezistenţi la agenţii patogeni, iar descendenţii supravieţuitorilor vor fi mai rezistenţi. De asemenea, evoluţia nu favorizeză paraziţii care îşi omoară gazdele. Acesta este motivul pentru care sifilisul a devenit dintr-un ucigaş virulent o boală cronică pe măsură ce s-a răspândit în Europa.

Din nefericire putem face acum bolile mai rele. Unul dintre cele mai celebre exemple este cel în care introducerea unei gene suplimentare în variola şoarecilor - versiunea transmisă de şoareci a variolei - a făcut-o şi mai letală şi capabilă să infecteze indivizii vaccinaţi. Cercetările recente făcute asupra gripei aviare au demonstrat că contagiozitatea unei boli poate fi crescută în mod deliberat.

În momentul acesta, riscul ca cineva să elibereze deliberat ceva devastator e mic. Dar pe măsură ce biotehnologia se perfecţionează şi devine mai ieftină, tot mai multe grupuri vor fi în stare să facă bolile şi mai grave.

Majoritatea lucrărilor asupra armelor biologice au fost făcute de guverne în căutarea a ceva controlabil deoarece ştergerea umanităţii de pe faţa pământului nu aduce vreun folos militar. Dar totdeauna există oameni care vor să facă ceva pentru că pot. Alţii au scopuri mai înalte. De exemplu, cultul Aum Shinrikyo a încercat să grăbească apocalipsa folosind armele biologice pe lângă atacul  lor mai reuşit cu gaze. Unii cred că Pământul ar fi mai bun fără oameni ş.am.d.

Numărul morţilor datorat armelor biologice şi epidemiilor declanşate par să aibă o distribuţie exponenţială - cele mai multe atacuri au mai puţine victime, dar puţine atacuri omoară mai mulţi. Numărul curent de riscuri al unei epidemii provocate de bioterorism pare foarte mic. Dar numai prin bioterorism guvernele au ucis cu arme biologice mult mai mulţi oameni decât teroriştii (până la 400.000 de oameni au murit datorită programului japonez de război biologic în al Doilea Război Mondial). Şi cum tehnologia devine tot mai puternică, în viitor agenţi patogeni mai virulenţi devin mai uşor de proiectat.

3. Superinteligenţa

Inteligenţa e foarte puternică. O creştere mică în abilitatea de a rezolva problemele şi coordonarea în grup ne-a făcut să lăsăm maimuţele în urmă. Acum existenţa lor depinde de deciziile oamenilor, nu de ce fac ele. A fi inteligent este un avantaj pentru oameni şi organizaţii. De aceea se impun mari eforturi în găsirea unor căi de a îmbunătăţi inteligenţa noastră individuală şi colectivă, de la medicamente care să intensifice cunoaşterea până la programele de inteligenţă artificială.

Problema este că entităţile inteligente sunt bune la atingerea scopurilor lor, dar dacă scopurile sunt rele, entităţile îşi pot folosi puterea pentru a atinge în mod inteligent obiective dezastruoase. Nu e niciun motiv să credem că inteligenţa însăşi va face ceva să se poarte frumos şi moral. De fapt, e posibil să se demonstreze că anumite tipuri de sisteme superinteligente nu vor urma regulile morale chiar dacă ele sunt valide.

Şi mai îngrijorător e faptul că în încercarea de a explica lucrurile inteligenţei artificiale, intrăm în probleme practice şi filozofice profunde. Valorile umane sunt difuze, lucruri complicate pe care nu ştim să le exprimăm bine şi chiar dacă am şti, s-ar putea să nu înţelegem implicaţiile dorinţelor noastre.

Inteligenţa bazată pe software poate să ajungă repede de la o putere subumană la o putere înspăimântătoare. Motivul este că ea poate fi ajustată în mod diferit de inteligenţa biologică: poate lucra mai rapid pe calculatoare mai rapide. Părţi din ea pot fi distribuite pe mai multe calculatoare, versiuni diferite pot fi testate şi actualizate în timpul funcţionării, noi algoritmi pot fi înglobaţi pentru a mări performanţele.

S-a sugerat că e posibilă o explozie a inteligenţei când software-ul devine destul de perfecţionat pentru a face un software şi mai bun. Dacă apare un astfel de salt, atunci va fi o mare diferenţă între puterea potenţială a sistemelor inteligente (sau a oamenilor care le spun ce să facă) şi restul lumii. Acestea au un potenţial clar de a provoca dezastre dacă sunt direcţionate spre scopuri rele.

Lucrul neobişnuit privind superinteligenţa este că nu ştim dacă e posibilă o rapidă şi puternică explozie a inteligenţei. Poate că civilizaţia noastră actuală se autoperfecţionează în cel mai rapid ritm posibil. Dar există motive întemeiate să credem că unele tehnologii pot grăbi lucrurile mult mai repede decât pot să le stăpânească societatea actuală. La fel, nu avem o bună înţelegere a cum ar putea fi diferite forme periculoase de superinteligenţă sau ce strategii de temperare ar putea funcţiona. E foarte greu să te gândeşti la o tehnologie viitoare pe care nu o avem încă sau la inteligenţe mai mari decât a noastră. Cât despre riscurile de pe această listă, ele sunt cel mai probabil fie majore, fie doar un miraj.

Acesta, suprinzător, este un domeniu cercetat prea puţin. Chiar în anii ‘1950 şi ‘1960, când oamenii erau foarte convinşi că superinteligenţa poate fi realizată ”într-o generaţie”, ei nu dădeau mare atenţie problemelor de siguranţă. Poate că nu şi-au luat în serios previziunile, dar e mai probabil că au considerat asta ca fiind o problemă pentru viitorul îndepărtat.

4. Nanotehnologia

Nanotehnologia este controlul asupra materiei cu precizie atomică sau moleculară. În sine, nu e periculoasă – dimpotrivă, ar trebui să fie o veste bună pentru cele mai multe aplicaţii. Problema este că, exact ca biotehnologia, creşterea puterii creşte şi potenţialul pentru abuzuri împotriva cărora e greu să te aperi.

Marea problemă nu e infamul ”grey goo” (scenariul în care nanoroboţii scapă de sub control) în care maşinile care se automultiplică devorează totul. Asta ar necesita o proiectare inteligentă îndreptată chiar spre acest obiectiv. E greu să faci o maşină care să se automultiplice. Biologia, implicit, e mult mai bună la asta. Poate vreun maniac să reuşească, dar sunt mult mai multe metode mai uşoare în domeniul tehnologiei distrugătoare.

Riscul cel mai evident este că fabricarea cu precizie atomică pare ideală pentru fabricarea ieftină a unor lucruri ca armele. Într-o lume în care orice guvern ar putea ”tipări” mari cantităţi de arme automate şi semiautomate (inclusiv instalaţii care să producă şi mai multe), cursa înarmărilor ar deveni foarte rapidă, şi deci instabilă, deoarece a-i da inamicului prima lovitură înainte ca el să poată să riposteze e un avantaj prea tentant.

Armele pot fi de asemenea lucruri mici, precise. O ”otravă inteligentă” care acţionează ca un gaz paralizant, dar îşi caută victimele, sau sistemele de supraveghere bazate pe omiprezenţii ”gnatboţi” (roboţi minusculi) care să ţină populaţiile docile, par perfect posibile. De asemenea, pot exista căi de a pune la îndemâna oricui vrea arme nucleare şi inginerie a climei.

Nu putem estima probabilitatea riscurilor existenţiale ale nanotehnologiei din viitor, dar ea pare a fi potenţial distrugătoare deoarece ne poate oferi orice dorim.

5. Necunoscutele necunoscute

Cea mai neliniştitoare posibilitate este că există ceva acolo foarte mortal şi noi nu avem niciun indiciu despre asta.

Tăcerea din cer poate fi evidenţa acestui lucru. Absenţa extratereştrilor se datorează oare faptului că viaţa sau inteligenţa sunt extrem de rare sau că viaţa inteligentă tinde să se auto-extermine ? Dacă există un viitor Mare Filtru, trebuie să fi fost observat şi de alte civilizaţii, dar nici asta n-a ajutat la nimic.

Oricare este ameninţarea, trebuie să fie ceva care este de neevitat chiar dacă ştii că este acolo, indiferent cine sau ce eşti. Nu ştim nimic despre o astfel de ameninţare (nimic de pe lista acesta nu acţionează astfel), dar ea poate exista.

Observaţi că doar pentru că ceva e necunoscut, nu ne împiedică să ne gândim la asta. Într-un articol remarcabil, Max Tegmark şi Nick Bostrom arată că un anumit set de riscuri trebuie să aibă mai puţin de o şansă la un miliard de ani, ţinând cont de vârsta relativă a Pământului.

Vă puteţi întreba de ce schimbarea climei sau căderea unui meteorit au fost scoase de pe această listă. Schimbarea climei, oricât de înfricoşătoare ar fi, e improbabil să facă planeta nelocuibilă (dar s-ar putea să se combine cu alte ameninţări, dacă apărarea noastră se prăbuşeşte). Meteoriţii ar putea, desigur, să ne şteargă de pe faţa pământului, dar ar trebui să fim foarte ghinionişti. Speciile medii de mamifere supravieţuiesc vreun milion de ani. Deci, ritmul extincţiei naturale este aproximativ de unu la un milion de ani. Acesta e mult mai mic decât riscul unui război nuclear, care după 70 de ani încă e cea mai mare ameninţare la adresa continuităţii existenţei noastre.

Euristica disponibilităţii ne face să supraestimăm riscurile care apar adesea în media şi să nesocotim riscurile insolite. Dacă mai vrem să fim pe aici într-un milion de ani, trebuie să corectăm acest lucru.



Traducere de Alexandru Vilan după the-five-biggest-threats-to-human-existence.