More

    Super-chip-urile viitorului sunt aproape: un nou limbaj de programare

    URMĂREȘTE-NE

    16,065FaniÎmi place
    1,142CititoriConectați-vă
    13,030AbonațiAbonați-vă

    Google, cu care ne-am obişnuit, în ultimul timp, să aibă idei futuriste (proiectele moonshot), foloseşte modelul de arhitectură al GPU, pentru a mapa creierul uman, iar compania Salesforce (numărul 1 în lume la cloud computing) se bazează pe acest proiect pentru găsirea unui mod de a analiza fluxurile de date din feed-urile Twitter. Arhitectura GPU este recunoscută a fi cea mai bună pentru procesarea paralelă, baza multi-tasking-ului.

    Trucul constă în faptul că trebuie construit un nou limbaj, gândit special, pentru a pătrunde în adâncul arhitecturii deja existente, limbaj care să dea o altă utilitate structurii procesorului.

    Un cercetător, în domeniul tehnicii de calcul, de la Universitatea din Indiana, a pus bazele unui nou limbaj de programare, numit Harlan, dedicat construirii de aplicaţii pentru procesoarele GPU.

    Programarea pentru GPU necesita din partea programatorului sa se decurce cu o multime de detalii neimportante care de obicei il distrag de la scopul initial„, spune Eric Holk. „Am vrut sa creem un sistem care sa se ocupe de toate aceste detalii, in locul programatorului, dandu-i posibilitatea sa fie mai productiv si sa se concentreze mai bine la obtinerea celor mai bune performante din GPU„.

    Cea mai mare parte a calculelor sunt procesate de CPU (Central Processing Unit). Unitatea centrală suportă o singură secvenţă de calcule (thread), deodata, executând această operaţie, cât poate de repede. Unitatea de procesare grafica (GPU) este proiectată să execute mai multe thread-uri, deodata. Acestea sunt executate la viteza mai mică, dar, prin programare, se poate mări viteza, astfel încât calculele multiple paralele să poată fi rezolvate într-un timp asemănător cu timpul unui calcul singular.

    Procesoarele multi-core de astazi pot executa calcule paralele (deşi este vorba de un paralelism, mult mai limitat decât în cazul GPU), dar sunt optimizate pentru calcul liniar, thread după thread.

    Termenul GPU a fost „bătut în cuie” în 1999 de NVIDIA, dar cele mai vechi chip-uri grafice au fost introduse la sfârsitul anilor ’70, începutul anilor ’80 şi erau capabile să „deseneze” contururi (wireframe).

    Aceste proto-GPU se bazau, în mare parte, pe Unitatea Centrală, care suplinea nevoia de calcul (offload) a chip-ului grafic.

    Evolutia arhitecturii hardware tip GPU a plecat de la un singur nucleu, care avea functii determinate fixe prin implementare pipeline, si a ajuns la mai multe nuclee paralele, programabile cu functii generale (nu doar grafice)„, spune Chris McClanahan, de la Universitatea Tehnica din Georgia. „Trend-ul in tehnolgia GPU este fara nici un dubiu marirea capacitatii de programare si a capacitatii de calcul paralel evoluand spre procesoarele cu scop general de tip CPU„.

    Cercetatorul nu crede că, în urma evoluţiei, cele doua tipuri de procesoare se vor contopi, ca arhitectură, într-un super-procesor, pentru că fiecare arhitectură are avantajele ei. De exemplu, arhitectura GPU beneficiază de lăţime de bandă a memoriei, mult mai mare decat arhitectura CPU, deci rulează foarte bine şi rapid cu operaţii simple pe cantităţi foarte mari de date.

    Există mai multe limbaje de programare GPU, între care CUDA şi OpenCL. Harlan compilează OpenCL, dar oferă posibilităţile de abstractizare ale unui limbaj, de nivel înalt, gen Python sau Ruby.

    Un alt scop declarat limbajului de programare Harlan este acela de a oferi o bază pentru crearea unui limbaj unic de programare, a arhitecturii GPU, care să nu se mai împiedice de interferenţe cu alte limbaje folosite, în acest scop, până acum, de-a lungul timpului. Practic, se încearcă o unificare a tot ceea ce se foloseşte la realizarea structurii logice a unui GPU, în scopul de a i se da functionalităţi extinse, specifice CPU.

    Interesant este că, această idee, are la bază limbajul de programare Lisp, creat de John McCarthy în 1958, un cercetător american în domeniul inteligenţei artificiale.

    În speranţa că nu a fost extraordinar de plictisitor, ne oprim aici şi poate că vom reveni cu amănunte, atunci când Harlan va căpăta o formă mai concretă.

    Cele mai noi știri

    Pe același subiect

    Leave a reply

    Vă rugăm să introduceți comentariul dvs.!
    Introduceți aici numele dvs.