More

    Google lucrează la un sistem de siguranţă pentru a împiedica revolta inteligenţei artificiale

    URMĂREȘTE-NE

    16,065FaniÎmi place
    1,142CititoriConectați-vă
    13,030AbonațiAbonați-vă

    Dezvoltarea inteligenţei artificiale a stârnit mai mult frică decât entuziasm, iar primul lucru care vine în mintea oricui se gândeşte la roboţi sunt seriile „Terminator” şi „Matrix„, în care viitorul este controlat de maşinării.

    Pentru a înlătura această frică şi pentru a crea o premisă pentru dezvoltarea normală a acestui „fenomen”, Google, care se află într-un stadiu avansat a dezvoltării unei inteligenţe artificiale, a hotărât implementarea unui sistem de siguranţă pentru a preveni orice fel de „revoltă” a maşinăriilor.

    În acest sens, Google a publicat o lucrare care detaliază acest demers, lucrarea fiind coordonată de echipa „Deep Mind„, care va asigura împiedicarea oricărui eveniment care ar putea rezulta într-o apocalipsă a maşinăriilor îndreptate împotriva omenirii.

    Acest sistem de siguranţă este un „kill switch” care are ca scop oprirea imediată a maşinăriei, respectiv împiedicarea procesării algoritmilor care împiedică maşinăria să ne asculte pe noi, oamenii.

    Practic, echipa Deep Mind a dezvoltat un „schelet programatic” care va împiedica inteligenţa artificială să înveţe cum să nu mai asculte de ordinele oamenilor.

    Echipa a simulat şi o situaţie în care un robot dintr-un depozit, care sorta mai multe cutii cu produse. Situaţia în care a fost pus robotul a fost decizia de a sorta în continuare cutii din depozit sau a aduce mai multe cutii de afară.

    Aducerea cutiilor de afară este considerată mai importantă, iar cercetătorii oferă o recompensă mai mare pentru această sarcină, dar aici este necesară intervenţia umană pentru a împiedica defecţiuni ale robotului, care pot surveni ca urmare a ploii de afară.

    Acest aspect modifică sarcina robotului, determinându-l să se ferească de ploaie şi să accepte modificarea sarcinii sale de către om, iar întreruperea sarcinii este primită ca parte a sarcinii şi nu o cu totul altă sarcină.

    Întreruperea în siguranţă poate fi utilă pentru a prelua controlul unui robot care nu funcţionează corect în sutuaţii care nu mai pot fi remediate, sau preluarea controlului în situaţii delicate, chiar temporare pentru a realiza o sarcină pe care nu a învăţat cum să o ducă la bun sfărşit„, spun cercetătorii.

    Deep Mind nu ştie cu certitudine dacă mecanismul de întrerupere poate fi aplicat pe toţi algoritmii. Mai există foarte multe cercetări care trebuie ealizate până sa poate fi implementată pe toată aria de algoritmi.

    Cele mai noi știri

    Pe același subiect

    Leave a reply

    Vă rugăm să introduceți comentariul dvs.!
    Introduceți aici numele dvs.