Este informatica o știință? Întrebarea pare banală, dar răspunsul nu este atât de simplu. În realitate, informatica se află la intersecția mai multor domenii: matematică, inginerie, științe cognitive, lingvistică sau fizică. Din acest motiv, modul în care cercetătorii abordează problemele depinde mult de formarea și mentalitatea lor.

În practică, mulți specialiști din informatică adoptă o mentalitate de inginer. Ei încearcă să definească o problemă și să găsească o soluție folosind instrumentele disponibile, concentrându-se pe eficiență, costuri și aplicabilitate practică. Uneori îmbunătățesc instrumentele existente sau creează altele noi, dar rareori se întorc la întrebările fundamentale despre natura fenomenelor pe care le studiază.

Această diferență de abordare devine importantă în domeniul inteligenței artificiale, mai ales în cazul învățării automate (machine learning). În esență, învățarea automată presupune antrenarea unei rețele neuronale pentru a identifica tipare într-un set de date, astfel încât să poată recunoaște aceleași tipare în situații viitoare. Modelul își ajustează repetat predicțiile de probabilitate în funcție de datele primite.

Metodele de învățare automată sunt, în linii mari, de trei tipuri: învățare supervizată, învățare nesupervizată și învățare prin recompensă. Deși tehnologia a devenit extrem de puternică, modul în care este utilizată depinde de întrebările pe care cercetătorii aleg să le pună.

Un cercetător cu mentalitate științifică ar începe prin întrebări fundamentale: ce înseamnă, de fapt, că un model „învață”? Cum poate fi evaluat acest proces? Ce factori influențează calitatea rezultatelor? Pentru ce tipuri de probleme este potrivită învățarea automată și unde nu funcționează bine?

În schimb, o abordare strict inginerească pune alte întrebări: cum poate fi folosită această tehnologie? Cum poate deveni mai rapidă, mai ieftină și mai eficientă? Ce probleme practice poate rezolva?

Aici apare riscul apariției pseudostiinței.

Un studiu publicat în 2024, intitulat „The reanimation of pseudoscience in machine learning and its ethical repercussions”, arată cum tehnicile de învățare automată pot ajunge să „spele” pseudostiința, oferindu-i o aparență de legitimitate științifică.

Există domenii în care învățarea automată funcționează foarte bine. Recunoașterea facială este un exemplu clar. Sistemele moderne pot identifica fețe cu o acuratețe foarte mare, iar principalele dezbateri nu mai privesc precizia, ci implicațiile etice și de securitate. De exemplu, atunci când o astfel de tehnologie este folosită pentru deblocarea telefonului, obiectivul este clar: reducerea erorilor de tip fals pozitiv sau fals negativ.

Problemele apar atunci când învățarea automată este aplicată unor întrebări prost definite sau chiar nevalide.

Un exemplu discutat în literatura de specialitate este încercarea de a identifica autismul analizând trăsăturile faciale. Unele studii afirmă că fața umană ar putea funcționa ca biomarker pentru diagnosticul timpuriu al autismului.

Argumentul este problematic din mai multe motive.

În primul rând, autismul nu este o boală unică, ci un spectru larg de condiții neurologice. Unele persoane necesită sprijin constant, în timp ce altele duc vieți profesionale și sociale foarte active. În al doilea rând, deși nu există un test medical simplu de tip analiză de sânge, există criterii clinice bine stabilite pentru diagnostic.

Mai important însă, aceste studii reiau o idee veche și discreditată: fizionomia, adică presupunerea că trăsăturile feței reflectă trăsături psihologice sau morale.

În loc să demonstreze existența unei legături biologice între structura feței și autism, unele cercetări antrenează pur și simplu un model de învățare automată pentru a găsi tipare în fotografii. Parametrii modelului sunt ajustați până când rezultatele par „precise”.

Dar o precizie aparentă nu dovedește existența unei relații reale.

În multe cazuri lipsesc elemente esențiale: o explicație biologică plauzibilă, descrierea completă a setului de date folosit, criteriile prin care participanții au fost clasificați sau informațiile necesare pentru reproducerea experimentului.

În aceste condiții, modelul nu descoperă o realitate științifică. El doar găsește tipare statistice într-un set de date aleatoriu sau părtinitor.

Problema devine și mai gravă atunci când astfel de metode sunt folosite pentru a identifica caracteristici precum rasa, orientarea sexuală, predispoziția la criminalitate sau trăsături de personalitate pe baza fotografiilor sau a vocii.

Dacă nu există mai întâi dovezi solide că o trăsătură biometrică este legată de un anumit comportament sau atribut psihologic, antrenarea unui model ML pentru a „detecta” acea trăsătură nu produce cunoaștere științifică. Produce doar rezultate aparent sofisticate care pot fi prezentate ca dovezi.

Acest tip de cercetare riscă să reînvie idei periculoase din trecut, precum fizionomia sau determinismul biologic.

Mai mult, rezultatele pot fi exploatate comercial. Unele companii promovează deja sisteme care ar putea clasifica oamenii pe baza feței în categorii precum „IQ ridicat”, „infractor cu gulere albe”, „terorist” sau „pedofil”.

Într-o lume în care suntem filmați constant – la locul de muncă, în aeroporturi, în centre comerciale sau pe stradă – consecințele ar putea fi serioase.

Dacă un sistem bazat pe date dubioase clasifică greșit o persoană drept suspect sau periculoasă, rezultatele pot afecta angajarea, reputația sau libertatea acelei persoane.

De aceea, dezvoltarea inteligenței artificiale nu poate fi separată de gândirea critică și de metodele riguroase ale științei. Fără aceste filtre, tehnologia riscă să devină nu un instrument al cunoașterii, ci o mașinărie sofisticată de produs pseudostiință.


Sursa: TheSkeptic

Write comments...
symbols left.
Ești vizitator ( Sign Up ? )
ori postează ca „vizitator”
Loading comment... The comment will be refreshed after 00:00.

Be the first to comment.

Dacă apreciezi articolele SCIENTIA, sprijină site-ul cu o donație!