Pentru a putea publica, trebuie să vă înregistraţi.
Vf. folderul Spam după înregistrare.
Pune o întrebare

Newsletter


3.6k intrebari

6.8k raspunsuri

15.4k comentarii

2.4k utilizatori

2 plusuri 0 minusuri
489 vizualizari

Se tot vorbeste de treaba asta si se tot anunta ca ne apropiem de limita. Dar cand se va ajunge la ea? Cam la ce puteri de procesare maxime suntem acum si cat mai putem progresa cu ajutorul tehnologiei bazate pe siliciu? Ca timp, cam cat va mai dura si care credeti ca sunt tehnologiile care candideaza pentru postul de inlocuitor al siliciului?

 

Întrebarea a fost formulată în vechea secţiune QA de sci_fan şi nu a primit răspunsuri mulţumitoare.

(25 puncte) in categoria Tehnologia Informatiei

3 Raspunsuri

0 plusuri 0 minusuri
Ce inseamna "putere/limita de procesare" ?
4 plusuri 0 minusuri

 

Salut !
 
Din putine mele cunostinte IT, stiu ca viteza de procesare este influentata de frecventa de lucru si de nivelul miniaturizarii procesorului. Frecventa de tact mai mare aduce cu sine dezavantajul caldurii mai mari radiate - de aceea in ultimul timp s-a mers pe limitarea acesteia dar cresterea miniaturizarii  - tehnologie pe 22 nm in tandem cu arhitecturi paralele (duo-core apoi quadro-core, multithread, etc).
 
Se afirma ca ambele sunt limitate, pragul miniaturizarii actuale ar fi limitat la 5 nm (in context, Legea lui Moore - la fiecare 2 ani se dubleaza densitatea tranzistorilor integrati in procesor).
 
Dar la un anumit nivel al cerintelor (viteza procesare versus miniaturizare), procesorul clasic nu va mai fi eficient din punct de vedere energetic, consumand prea mult si dispand prea multa caldura - in conditiile in care avem nevoie acuta de procesoare rapide, miniaturale si cu consum foarte mic de energie (vezi telefoane mobile si alte gadget-uri miniaturale). Se spune ca aceasta limita ar fi atinsa in vreo 10 ani - dar nu cred ca acest termen este realist - in conditiile in care alternativa procesorului cuantic este abia la inceput. Am mai auzit si ideea unor procesoare din nanotuburi de carbon, din molecule ADN, etc - dar n-am auzit de vreun succes in acest domeniu.
 
Probabil ca se vor gasi alternative tehnologice pentru imbunatatirea actualei tehnologii bazate pe semiconductori, cum a fost, de pilda, arhitectura 3D de la Intel. http://www.intel.com/content/www/us/en/silicon-innovations/intel-22nm-technology.html
 
Acolo unde este suficient spatiu si energie electrica, computerele ating puteri de calcul imense, dupa cate stiu eu cel mai tare este la japonezi, face 10,2 catralioane de operatiuni pe secunda, si desi este considerat economic, consuma energia electrica echivalenta a 10.000 de consumatori casnici.
 
Dar la anul, americanii vor replica cu unul cu viteza dubla, planuind si unul de 100 de petaflops !
 
Senior (8.7k puncte)
0 0
Cateva comentarii:

1) Miniaturizarea crescanda ridica doua probleme: evacuarea eficienta a caldurii si atingerea limitei fizice a modelelor dispozitivelor semiconductoare. Cred ca in principiu consumul nu este o problema cand vine vorba de performanta atunci cand cineva este dispus sa plateasca. Modelele actuale ale dispozitivelor semiconductoare (diode, tranzistoare) sunt bazat pe proprietatile de volum (bulk, adica numar imens de atomi) ale semiconductorilor, dar prin miniaturizare vom ajunge sa alcatuim tranzistori din 10-20 de atomi care necesita alte modele pentru a lua in calcul eventuale efecte cuantice sau de alta natura.

2) Metode calcul nestandard ca alternative ale schemei/masinii Turing exista si sunt fundamentate teoretic, vezi de exemplu Splicing DNA computing, existand si un roman implicat in directia asta de cercetare, Gheorghe Paun. In esenta calculele pe care le poate efectua si intrebarile la care poate raspunde un "procesor bazat pe ADN" sunt diferite de cele bazate pe un procesor secvential Turing. Cred ca te refereai ca nu au succes comercial.

3) Performanta unui sistem e data in principal de frecventa de lucru si de arhitectura sistemului. La inceput s-a pdelat puternic pe cresterea frecventei pentru ca era simplu, insa in ultima perioada au aparut si schimbari de arhitectura. Evident cresterea vitezei prin marirea frecventi era ceva brutal, putandu-se obtine factori de 10, 100, pe cand prin imbunatatirea arhitecturii cresterea este mult mai limitata, de ordinaul unitatilor. Supercalculatoarele se bazeaza in principal pe o arhitectura dedicata si eficientizata la maxim, plus binenteles un sistem de operare dedicat, cred ca nu-si imagineaza nimeni ca ruleaza windows sau ubuntu :)

Adaugare, pentru cei care nu au auzit de "5Ghz project": http://www.tomshardware.com/reviews/5-ghz-project,731.html
0 0
Multumesc Harap Alb, ma bucur ca ai iesit din "barlog", te asteptam cat mai des !
2 plusuri 0 minusuri
Silicul a fost ales din cauza avantajelor tehnologice si a proprietatilor electrice. Viteza dispozitivelor este data in principal de viteza de deplasare a electronilor (golurilor) in reteaua cristalina. Siliciul nu este cel mai performant semiconductor din punctul asta de vedere, de exemplu un semiconductor bazat pe galiu-arseniu (GaAs) ofera viteza mult sporita (poate ati auzit de diode Gunn folosite in oscilatoarele de microunde). Totusi, constructia de dispozitive bazate pe GaAs ridica probleme tehnologice.

Exista alternative la dispozitivele bazate pe siliciu, insa de moment sunt scumpe.
...