Inteligența artificială (IA) poate depăși omul într-o plajă largă de problematici, dar și-a dovedit multiple limite, uneori letale. Răspândirea IA ne obligă să știm mai multe despre această tehnologie, căci are un impact direct asupra vieții noastre. Iată șapte moduri în care eșuează.

Parte din problemă constă în faptul că tehnologia rețelelor neuronale pe care se bazează IA eșuează în moduri care nu sunt înțelese de cercetători. Este imposibil să spui a priori ce probleme va rezolva IA pentru că, în primul rând, nu înțelegem prea bine inteligența.


1. Fragilitatea

Imaginează-ți un autobuz. IA va învăța rapid să-l identifice. Dar dacă-l pui pe-o parte, cum este cazul uneori atunci când este implicat într-un accident, IA va spune că autobuzul este un plug de zăpadă, pentru că IA nu este în stare de ceea ce și un copil de 3 ani poate face: rotirea mentală a obiectului.

Schimbând un singur pixel pe o imagine poate face ca IA să creadă că un cal este o broască, așa cum s-a observat într-un studiu din 2017. Sau că o imagine statică multicoloră este un leu. Vezi videoclipul de mai jos în care sunt prezentate multiple exemple în care IA eșuează să identifice obiectul corect.




Soluția? Expunerea la cât mai multe exemple problematice, din care să „învețe”. Dar oricât antrenament ar face, tot vor fi cazuri imposibil de prezis în care AI va eșua.


2. Predispoziții

IA este folosită din ce în ce mai mult în luarea deciziilor, cum ar fi cu privire la cine ia împrumuturi, durata sentinței unui condamnat sau stabilirea priorității pacienților în sistemul medical. Speranța este că IA va lua decizii mai rapid și imparțial.

Dar s-a descoperit că „deciziile” IA au la bază predispoziții ce au ca rezultat discriminări în masă.

De exemplu, în 2019 s-a constatat că populația de culoare din SUA era discriminată de IA în ce privește prioritizarea pentru terapie intensivă. Softul aprecia că pacienții albi bogați sunt mai bolnavi decât pacienții de culoare săraci, pentru că presupunea că cei care erau înregistrați cu niște costuri mai mari în cadrul sistemului medical erau, pe cale de consecință, mai bolnavi și, prin urmare, mai îndreptățiți la îngrijiri medicale imediate.

O echipă de cercetători au luat lucrurile în serios și au creat un ghid pentru a elimina discriminarea din softurile care folosesc IA. Poate fi citit aici.


3. Uitarea catastrofică

Surprinzător poate pentru unii, IA are o memorie teribilă. Să luam cazul „deepfake”, adică imagini, videoclipuri ori clipuri audio falsificate. În cadrul unui proiect din Coreea de Sud, cercetătorii au creat un website unde utilizatorii puteau folosi puterea IA pentru a detecta dacă o imagine este deepfake sau nu. Dar pe măsură ce mai multe tipuri de deepfake au apărut, ceva interesant s-a întâmplat: softul bazat pe IA a uitat să mai identifice primul tip de deepfake...


4. Proces decizional neclar


De ce suspectează un soft specializat bazat pe IA că o anumită persoană poate fi un criminal ori are o anumită boală? Cum decide asta?

Modul în care IA ia o decizie a fost considerat multă vreme un mister, totul întâmplându-se într-o „casetă neagră”, inaccesibilă omului. Dar deciziile au implicații asupra vieții oamenilor, deci trebuie să știm ce se întâmplă.

O echipă de cercetători a investigat 7 tehnici dezvoltate pentru a oferi explicații pentru deciziile IA. Au descoperit că multe dintre aceste metode sunt „instabile”, în sensul că explicațiile diferă de la caz la caz. O metodă poate funcționa pentru un set de rețele neuronale, dar poate eșua pentru un alt set.





5. Incertitudine

În anul 2016 o mașină Tesla, modelul S, pe pilot automat, a intrat într-un camion, omorându-și șoferul.  Primul deces produs de sistemul de conducere automată. Explicația? Nici sistemul de pilot automat, nici șoferul nu au observat camionul, pe fondul unui cer luminos.

În prezent, IA poate fi foarte sigură în situații în care nu are dreptate deloc. Asta înseamnă că IA trebuie să învețe să se descurce mai bine cu situații incerte.


6. Lipsa de „bun-simț”

Bun-simț, în sensul de abilitatea de a ajunge la concluzii logice, bazate pe un vast cumul de cunoștințe, pe care omul le consideră normale.

Pentru IA este extrem de greu să înțeleagă contextul și, prin urmare, să ia decizia corectă. De exemplu, este posibil să vorbești despre homosexuali sau populații de culoare fără resentimente față de aceste categorii și pe un ton pozitiv, dar pentru IA poate părea că este vorba despre rasism ori discriminare, pentru că nu înțelege contextul discuției.

În cadrul unei cercetări extinse ale cărei rezultate au fost publicate în 2020 a rezultat că IA nu dispune de bunul-simț necesar pentru a genera propoziții plauzibile.

Modelele curente de generare de text pot produce, de pildă, un articol convingător pentru mulți cititori, dar ele nu fac altceva decât să copieze ceea ce au învățat pe timpul antrenamentului.


7. O surprinzătoare inabilitate când vine vorba de matematică

Deși computerele clasice sunt foarte bune la matematică, surprinzător, IA nu se ridică la același nivel când vine vorba despre rezolvarea de probleme. Poți avea ultimul model ce are nevoie de sute de cipuri pentru antrenament și cu toate acestea performanța nu o atinge pe cea a unui calculator de buzunar.

O echipă de cercetători a antrenat IA pe baza a sute de mii de probleme de matematică, oferind soluțiile pas cu pas. Dar când a testat performanța softului cu 12.500 de probleme din diverse competiții la nivel de liceu, acuratețea răspunsurilor a fost de doar 5 %.

Rețelele neuronale pot rezolva azi aproape orice problemă, dacă dispune de suficiente date și resurse, dar nu stau lucrurile astfel când este vorba de matematică.

Cum multe probleme din domeniul științei necesită multă matematică, această slăbiciune a IA poate limita aplicarea acesteia în cercetarea științifică.

Nu este încă foarte clar de ce IA este slabă la matematică. O posibilă explicație este aceea că rețelele neuronale „atacă” o problemă într-o abordare „paralelă”, cam cum face un om, dar rezolvarea de probleme presupune o lungă serie de etape, la care IA nu se descurcă așa cum ne-am dori.




Sursa: Spectrum

Write comments...
symbols left.
You are a guest ( Sign Up ? )
or post as a guest
Loading comment... The comment will be refreshed after 00:00.

Be the first to comment.