De ce ar trebui să încetați să vă bazați pe IA pentru căutările online

URMĂREȘTE-NE
16,065FaniÎmi place
1,142CititoriConectați-vă

Într-o lume în care tehnologia avansează cu pași mari, inteligența artificială pare să fie una dintre cele mai utile invenții ale secolului XXI. Dar, în ceea ce privește căutările de informații, aceasta poate deveni un aliat periculos. Un incident recent în Statele Unite a adus în atenție riscurile de a depinde prea mult de instrumentele de IA, mai ales atunci când vine vorba de obținerea unor date corecte și verificabile.

Un exemplu concret de pericol

Totul a început atunci când CNN a discutat despre grațierile prezidențiale din istorie, în contextul unui scandal legat de Joe Biden și fiul său. Ana Navarro-Cardenas, o figură cunoscută a canalului, a menționat cu încredere că președintele Woodrow Wilson i-ar fi acordat o grațiere unui anumit Hunter deButts, aparent un cumnat de-al său. Această informație a fost preluată rapid de mai multe media și s-a răspândit pe rețelele sociale.

Dar când a fost întrebată despre sursele acestei informații, Navarro-Cardenas a oferit un răspuns neașteptat: „Întrebați-l pe ChatGPT”. După o investigație amănunțită, s-a descoperit că Hunter deButts nu a existat niciodată, iar alte „fapte istorice” prezentate de aceleași surse erau complet false. De exemplu, s-a vorbit despre grațierea fiului lui George H.W. Bush sau a fratelui lui Jimmy Carter, ambele informații fiind la fel de inventate. Acesta este doar un exemplu dintr-un fenomen mult mai larg.

De ce să nu crezi orbește în IA

Această situație este doar vârful icebergului. Instrumentele de IA, cum ar fi ChatGPT, comit greșeli în mai mult de 75% din cazuri când vine vorba de citarea unor surse verificate. Aceste erori sunt extrem de îngrijorătoare, având în vedere că jurnaliștii, cercetătorii și chiar studenții le folosesc din ce în ce mai mult. Un caz remarcabil este cel al lui Jeff Hancock, fondatorul Stanford Social Media Lab, care, utilizând GPT-4 pentru a genera o listă de referințe bibliografice, a ajuns să citeze surse inexistente într-un document oficial. Dacă chiar și experții pot cădea în capcana IA, ce șanse are publicul larg?

O problemă sistemică care afectează informația

Diferența fundamentală între motoarele de căutare tradiționale și motoarele de răspuns bazate pe IA este abordarea lor. Google Search, de exemplu, redirecționează utilizatorii către surse primare pe care le pot verifica direct. Pe de altă parte, IA generativă creează răspunsuri care par coerente, dar sunt greu de verificat.

Această schimbare ridică o problemă majoră: folosirea ușoară a acestor instrumente poate duce la lene intelectuală. De ce să petreci timp căutând și verificând surse când o IA îți oferă răspunsuri rapide și aparent corecte? Această tendință contribuie la deteriorarea mediului nostru informațional, deja vulnerabil din cauza dezinfomării care circulă pe rețelele sociale.

Consecințele dincolo de lumea academică

Erorile nu sunt întotdeauna ușor de observat. De la afirmații ciudate, cum ar fi că renii sunt monogami, până la erori grave despre evenimentele de actualitate, capacitatea noastră de a distingue adevărul de minciună este serios amenințată. Așadar, până când ChatGPT și alte instrumente de IA vor ajunge să ofere informații mai precise, este mult mai sigur să vă bazați pe Google și pe abilitatea dumneavoastră de a verifica informațiile.

Cele mai noi știri

Pe același subiect

LĂSAȚI UN MESAJ

Vă rugăm să introduceți comentariul dvs.!
Introduceți aici numele dvs.