Mari minți, precum Stephen Hawking (decedat în 2018), și-au exprimat în ultimii ani temerea că progresul din domeniul inteligenței artificiale ar putea duce la situația în care mașinile să preia controlul lumii într-un viitor nu prea îndepărtat, iar acest lucru ar putea duce la dispariția speciei umane. Aceste mașini ar fi, în fapt, computere super-inteligente, conștiente. John Searle, filozof american, spune că așa ceva nu este posibil și demonstrează asta cu un experiment mental, numit „experimentul camerei chinezești”.


Testul Turing și inteligența computerelor

Matematicianul englez Alan Turing a căutat să creeze teste prin care să verifice inteligența computerelor (Testul Turing). Ideea a fost următoarea: dacă în cadrul unui test o persoană-judecător, aflată într-o conversație cu persoană reală și cu un computer, nu poate spune care este persoana și care este computerul, atunci putem spune că avem de-a face cu un computer inteligent, în sens uman.


John Searle și experimentul camerei chinezești

Filozoful american John Searle propune un experiment teoretic numit „experimentul camerei chinezești” prin care își propune să demonstreze că inteligența umană nu poate fi obținută de către o mașină.

Să ne imaginăm că ar fi fost inventat un computer inteligent care se comportă ca şi cum ar înţelege limba chineză. Adică primeşte un set de caractere chinezeşti ca input şi, prin prelucrarea acestora potrivit instrucţiunilor din programul pe care-l rulează, produce ca output un alt set de caractere chinezeşti. Să presupunem că face acest lucru atât de bine încât trece cu uşurinţă testul Turing.
Acum să ne imaginăm că suntem într-un un birou, într-o cameră închisă, şi că avem asupra noastră o carte în limba română cu programul de calculator folosit de computer (toate instrucţiunile necesare pentru a efectua operațiunile pe care le-a efectuat și calculatorul). Astfel, primind pe sub uşă o foaie cu un set de caractere chinezeşti şi „rulând” manual setul de instrucţiuni din carte, am fi capabili să producem un alt set de caractere chinezeşti ca output. Cum computerul a trecut testul, ar fi corect să presupunem că şi operatorul uman îl va trece cu aceeaşi uşurinţă.

Nu există nici o diferenţă esenţială între cazul computerului şi cel al operatorului uman, întrucât în ambele situaţii se simulează un comportament inteligent, urmându-se instrucţiunile pas-cu-pas. Dar operatorul uman poate face asta fără a înţelege vreun simbol chinezesc. Astfel, nu putem afirma nici despre computer că trecerea testului dovedeşte faptul că acesta ar avea o înţelegere a limbii chineze şi că, în consecinţă, ar putea gândi.  

Searle arată că testul Turing este insuficient şi că ceea ce ar trebui să reproducă inteligența artificială nu este simularea comportamentului uman, ci intenţionalitatea, singura care ne poate garanta prezenţa gândirii.

Ideea principală a experimentului propus de Searle este că o mașină poate trece testul Turing, comportându-se așadar ca și cum ar înțelege ce procesează, dar, în fapt, nu înțelege. Iar înțelegerea face diferența dintre om și mașină.


Inteligența artificială generală

Probabil că ați citit de progresele inteligenței artificiale în ultimii ani. Dar în toate aceste cazuri nu putem de vorbi de calculatoare care au obținut inteligență în sens uman, ci doar de calculatoare care execută sarcini într-o manieră super-rapidă și inteligentă (pot, de exemplu, să se antreneze și să învețe din propriile greșeli). Mai multe pe acest subiect aici: Învățarea automată pe înțelesul tuturor

Dar marele vis al cercetătorilor din domeniul inteligenţei artificiale este să realizeze „inteligenţa artificială generală”, adică un soft care să aibă capacitatea de a se raporta la lume, în complexitatea ei, aşa cum o face fiinţa umană.


Pot mașinile deveni conștiente?

Vă invit să urmăriți videoclipul de mai jos, în care John Searle vorbește la sediul Google despre de ce crede că mașinile nu pot deveni conștiente. În partea de final sunt câteva întrebări din partea publicului care-l provoacă pe filozof să răspundă la întrebarea: de ce nu crede că, totuși, într-o zi, mașinile pot atinge performanțele omului, adică să devină conștiente.







Și totuși...

De dragul discuției am merge pe o altă logică, pentru a sugera că, în principiu, mașinile ar putea deveni conștiente.

Pe scurt, argumentația este următoarea: în cazul în care conștiința nu este alt lucru decât o stare de emergență a activității neuronale, de ce nu ar fi posibil ca și un robot al viitorului, cu o complexitate a rețelelor neuronale similară omului, să aibă un moment de „trezire”, în care devine conștient de sine, în care devine capabil  să perceapă ce se întâmplă în „mintea” lui?

La urma urmelor asta presupunem că s-a întâmplat și cu omul în urmă cu câteva mii de ani, nu? Dacă natura a permis ca omul să devină conștient, de ce s-ar opune ca o altă creatură, chiar și construită de om, să obțină aceeași formidabilă trăsătură, conștiința?

Ce este emergența?  Emergența reprezintă un produs, cum este conștiința, cu trăsături diferite de cele ale componentelor; în cazul nostru vorbim de neuroni, despre care presupunem că, împreună, creează conștiința, fără ca la nivel individual aceștia să fie conștienți.
Iată un alt exemplu de emergență: sodiul (Na), în stare pură, e un metal. Clorul (Cl), în stare pură, e un gaz otrăvitor. Când iei atomul de clor și-l pui lângă cel de sodiu, iese sarea de masă (NaCl), nici metal, nici otrăvitoare.


Unde vă situați, alegând între cele două extreme? Credeți că este posibil ca mașinile să obțină conștiință sau mai degrabă credeți că argumentul lui Searle împotriva conștiinței este de nezdruncinat?


Vă invităm să citiți și:
¤ Cel mai probabil nu vom înţelege niciodată ce este conştiinţa. Iată de ce
¤ De ce nu vom ști niciodată dacă avem liber-arbitru
¤ Nu știm nimic despre realitate, despre lumea-în-sine, și nici nu avem cum ști

 

 

Puteți comenta folosind contul de pe site, de FB, Twitter sau Google ori ca vizitator (fără înregistrare). Pt vizitatori comentariile sunt moderate (aprobate de admin).

Loading comment... The comment will be refreshed after 00:00.
  • Comentariul tău, publicat ca Vizitator, va fi evaluat în vederea publicării. Doar utilizatorilor care au cont pe site ori face folosesc conturile de FB, Twitter ori Google li se publică în mod automat comentariile.
    Alex · 16:08 23.08.2020
    Pentru filosofii *** mele si specialistii vietii cu lacune mari in logica

    Scopul generează conștiință; (liniaritate si subiectivism).
    Antipodul: scepticismul.
    "Interesul primordial" (vezi pagina anterioara) + algoritm aleatoriu (scepticism) = Mia/Anita (umanoid/supraom).
    Daca interesul principal apartine unei alte caracteristici dominante excluzand aprecierea -exceptiile/minoritatile/anomaliile-, formula de calcul ramane aceeasi. Exemplificare sub o alta forma: interesul/scopul de baza + una sau mai multe perspective contrare/diferite + aruncarea zarurilor. Schimband scopul, se schimba si constiinta, iar algoritmul (zarurile) face scopul-constiinta impredictibil. Paradoxal, doar programarea computerizata poate depasi liniaritatea mintii umane. Paradoxul este baza procesului de gandire uman/analiza probabilitatilor pentru o certitudine finala. Transpunere in A.I.: In ce moment ar trebui facut saltul intre constiinte?
    In functie de viteza de procesarea a datelor, de preferat sa se intample intr-un timp cat mai scurt, de ordinul miimilor de secunda.
    Programarea de baza (multiplele constiinte) trebuie sa fie insotita si de asimilarea de informatie din mediul exterior pentru o dezvoltare total impredictibila a proceselor de gandire, depasirea constiintelor impuse de la bun inceput.
    Un exemplu de constiinta:Self awareness pentru om = instinct de conservare
    Self awareness pentru robot = program antivirus, firewall, malware etc.
    Care este ideea? Self awareness este una dintre constiinte (autoprotectie).
  • Comentariul tău, publicat ca Vizitator, va fi evaluat în vederea publicării. Doar utilizatorilor care au cont pe site ori face folosesc conturile de FB, Twitter ori Google li se publică în mod automat comentariile.
    𝗜𝗼𝘀𝗶𝗳 𝗔. · 09:14 23.08.2020
    „Filozoful vieții”, cum îl numiți, are o altă opinie. Vorbind de exemplul pe care l-ați dat, tăiatul la deget, acesta ar spune astfel: omul va avea experiența subiectivă a tăiatului la deget (va simți durere, va fi anxios ca urmare a vederii sângelui); un robot va primi informația că o parte din structura sa a fost afectată și este necesară aplicarea subrutinelor de remediere a problemei.
    Ar mai pune psihologul că ce face robotul nu este gândire, ci executare „oarbă” de comenzi, că robotul face repede și bine ce i s-a cerut să facă, dar robotul nu înțelege ce face, așa cum e explicat în experimentul camerei chinezești din articol.
    Cum nu avem nicio idee ce este conștiința și cum ar putea apărea în univers, nu știm, deocamdată, dacă un robot va putea vreodată deveni conștient de sine, deși, ca posibilitate, ar trebui să rămână.
    • Comentariul tău, publicat ca Vizitator, va fi evaluat în vederea publicării. Doar utilizatorilor care au cont pe site ori face folosesc conturile de FB, Twitter ori Google li se publică în mod automat comentariile.
      Alex · 15:07 23.08.2020
      1. "Cum nu avem nicio idee ce este conștiința" - vorbeste in numele tau.
      2. Constiinta = judecata/intelegere/modul in care vezi lucrurile, adica acumularea de informatii + conexiuni intre acestea.
      3. Omul nu este mai mult decat robotul actual, programarea biologica (principiul placerii) este un mecanism liniar (aparent complex) - in gandire si in simtire omul face calculare liniare 1+1 = 2.
      4. "și este necesară aplicarea subrutinelor de remediere a problemei".

      Solutie expusa intr-un alt mod.


      Ce este pentru om instinctul de conservare/self awarness, pentru robot este programul antivirus, firewall etc.

      P.S. Tu intelegi ca nu esti mai presus de calculatorul de la care tastezi si lucrurile sunt simple?

  • Comentariul tău, publicat ca Vizitator, va fi evaluat în vederea publicării. Doar utilizatorilor care au cont pe site ori face folosesc conturile de FB, Twitter ori Google li se publică în mod automat comentariile.
    Alex · 17:40 22.08.2020
    "Constiinta de sine" la om = instinct de conservare. Ex: m-am taiat la deget, ma duc sa pun un pansament. Instinctul de conservare poate fi privit ca informatia/legea de functionare a omului/maimuta programata biologic. Pot deveni robotii umani? Da. Mai mult decat atat, in privinta gandirii (analiza informatiei) ne pot depasi. Filosofu' vietii de mai sus habar nu are despre ce vorbeste cand se raporteaza la imposibilitate.
Spune-ne care-i părerea ta...
caractere rămase.
Loghează-te ( Fă-ți un cont! )
ori scrie un comentariu ca „vizitator”

 



Donează prin PayPal ()


Contact
| T&C | © 2020 Scientia.ro