Îl puteți examina pe github
Imaginea de ansamblu: Nu puteți merge cinci minute în aceste zile fără să auziți despre AI This și AI care. Dar te -ai întrebat vreodată cum am ajuns aici? Creditul se adresează în mare măsură unei rețele neuronale inovatoare din 2012, numită Alexnet. Deși nu a provocat o senzație imediată, în cele din urmă a devenit fundamentul revoluției de învățare profundă pe care o experimentăm astăzi. Acum, după ani de negocieri, codul sursă inițial a fost în cele din urmă publicat publicului.
Aceasta este mulțumită unui efort de colaborare între Muzeul de Istorie a Calculatorului și Google. Codul sursă, scris inițial de studentul absolvent al Universității din Toronto, Alex Krizhevsky, a fost acum încărcat la Github.
Alexnet a fost o rețea neuronală care a marcat o descoperire majoră în capacitatea unui computer de a recunoaște și clasifica imaginile. Până în 2012, teoria din spatele rețelelor neuronale – inclusiv algoritmul pivot de backpropagation – a fost în jur de zeci de ani. Cu toate acestea, lipseau două componente cheie: seturile de date masive necesare pentru instruirea acestor rețele și puterea de calcul brută necesară pentru a le prelucra. Inițiative precum proiectul ImageNet al lui Stanford și programarea CUDA GPU a NVIDIA au furnizat în sfârșit acele elemente cruciale.
Aceste progrese au permis Krizhevsky, lucrând sub pionierii AI Geoffrey Hinton și Ilya Sutskever, pentru a -l antrena pe Alexnet și a debloca întregul potențial al învățării profunde. Pentru prima dată, rețelele neuronale profunde, seturile de date mari și calculul GPU s -au reunit cu rezultate inovatoare. Fiecare a fost esențial pentru celălalt.
În cele din urmă, lucrarea Alexnet a fost prezentată la o conferință de viziune computerizată din 2012. La vremea respectivă, majoritatea cercetătorilor au ridicat -o din umeri, dar Yann LeCun – recunoscut acum ca un pionier al AI de frunte – și -a văzut imediat semnificația, numindu -l un moment de cotitură pentru domeniu. Predicția lui s -a dovedit exactă. După dezvăluirea lui Alexnet, rețelele neuronale au devenit rapid fundamentul aproape toate cercetările de viziune computerizată de ultimă oră.
Descoperirea lui Alexnet a demonstrat că formarea unei rețele neuronale relativ simple ar putea obține performanțe supraumane pe sarcini extrem de complexe, cum ar fi recunoașterea imaginii. Acest lucru a marcat nașterea paradigmei de învățare profundă, în care mașinile master abilitățile prin ingerarea și modelarea vastelor seturi de date.
Din acel moment, progresul s -a accelerat rapid. Rețelele neuronale au evoluat într -un ritm fără precedent, ceea ce a dus la repere precum înfrângerea campionilor umani la Go, sintetizarea vorbirii și muzicii realiste și chiar generarea de artă originală și scriere creativă. Cu toate acestea, adevăratul moment de cotitură pentru AI generativ a venit odată cu lansarea din 2022 a Chatgpt -ului lui OpenAI, care a reprezentat, probabil, culmea evoluției lui Deep Learning.
Desigur, aprovizionarea deschisă a unui astfel de cod semnificativ din punct de vedere istoric nu a fost o sarcină simplă. Muzeul de istorie a computerului a trebuit să navigheze pe un proces de negociere de cinci ani cu Krizhevsky, Hinton (acum la Google) și echipa legală a Google, înainte de a asigura aprobarea pentru publicarea fișierelor sursă originale.