(Timp citire: 3 - 4 minute)

Folosind o procedură de „deep learning” cercetătorii americani de la MIT au reuşit să dezvolte o inteligenţă artificială care este capabilă să recunoască sunetele – vorbirea sau muzica – la fel de bina ca şi noi.

În  filmul american „Her” Theodore Twombly dezvoltă o relaţie cu Samantha, un sistem de operare inteligent, care vorbeşte cu el prin intermediul unei voci feminine. În realitate însă, cât de aproape suntem de dezvoltarea unei inteligenţe artificiale capabile să converseze cu noi, să ne „înţeleagă” şi să ne răspundă? La ora actuală vorbim cu Siri – asistentul virtual creat de Apple – însă Siri este foarte limitat – nu conversăm de fapt cu Siri, ci cerem informaţii dintr-o bază de date.

Vom ajunge oare să conversăm cu un computer, cu o inteligenţă artificială care să ne înţeleagă şi să ne răspundă? Se pare că suntem un pas mai aproape de acest obiectiv în urma progreselor dintr-un proiect derulat de neurologii de la MIT, SUA, care, pentru prima dată, au dezvoltat o inteligenţă artificială capabilă să reproducă capacitatea oamenilor de a recunoaşte şi înţelege muzica şi vorbirea. Rezultatele acestui studiu au fost publicate recent în revista Neuron.

Cercetătorii de la MIT au folosit o procedură de deep-learning (învăţare profundă) denumită „deep neural network” (reţea neuronală profundă). Procedura prevede mai multe straturi de procesare a informaţiei în mai multe unităţi care pot fi antrenate cu informaţii specifice obiectivului şi care este inclusiv folosită de cercetători pentru a înţelege mai bine cum funcţionează creierul nostru. Aplicarea acestei proceduri este destul de complicată, întrucât încă nu există un model teoretic perfect care să descrie ceea ce se întâmplă.

Procedura de reţea neuronală profundă a fost dezvoltată încă din anii ’80, însă la vremea respectivă nu existau calculatoare destul de performante pentru a realiza modele capabile să recunoască muzica sau vorbirea. În ultimii ani, o dată cu creşterea capacităţii de calcul şi a tehnologiilor la baza deep-learning, au fost puse bazele mai multor aplicaţii mai ales în ingineria industrială. Iată însă că neurologii, ţinând cont de noutăţile din acest domeniu, au reluat activitatea de dezvoltare a inteligenţei artificiale în cadrul acestui noi proiect în care au antrenat o reţea neuronală pentru recunoaşterea a două tipuri de sunete: vorbirea şi muzica.

Pentru a realiza acest ambiţios obiectiv reţeaua neuronală a fost antrenată cu mii de înregistrări, cu durată a două secunde fiecare, de persoane care vorbesc. Scopul era de a se reuşi recunoaşterea cuvintelor pronunţate la jumătatea înregistrărilor, chiar şi atunci când acestea erau efectuate într-un mediu zgomotos – la fel ca şi în viaţa reală atunci când vorbim cu alţii şi suntem mai mereu înconjuraţi de alte persoane care vorbesc sau de sunete care provin de la trafic, diverse aparate, sau alte activităţi. Pentru antrenamentul muzical au fost folosite mii de înregistrări de durată de două secunde cu obiectivul de a se reuşi pe urmă recunoaşterea clipului. Şi în această situaţie fiecare înregistrare muzicală conţinea un zgomot de fond, ceea cea a îngreunat procedura de recunoaştere.

După acest antrenament reţeaua neuronală profundă reuşea să recunoască atât vorbirea, cât şi muzica la fel de bine ca o persoană în carne şi oase. Greşelile pe care le făcea erau foarte asemănătoare cu greşelile pe care le facem şi noi în condiţii asemănătoare (atunci când zgomotele sunt prea intense confundăm cuvintele sau muzica).

Recunoaşterea cuvintelor şi a muzicii au fost efectuate în două procesări diferite – existând astfel o ierarhie în cadrul programului. Ar putea oare aceasta explica şi funcţionarea creierului nostru? Găsirea unui răspuns este unul dintre obiectivele pe care neurologii de la MIT îl au pentru viitor.

De asemenea pe viitor, pe măsură ce deep learning progresează, se doreşte ca acest sistem să fie capabil să recunoască un cuvânt sau sunete (în cazul muzicii) pe care nu le-a auzit mai înainte, o caracteristică fundamentală pentru o adevărata inteligenţă.

Imagine: http://news.mit.edu