Platformă deschisă + Acces deschis la AI = Sezon deschis pentru cei care fac răutăți
Acesta este motivul pentru care nu putem avea lucruri frumoase: Wikipedia se află în mijlocul unei crize de editare în acest moment, datorită inteligenței artificiale. Oamenii au început să inunde site-ul web cu informații fără sens, concepute de modele mari de limbă precum ChatGPT. Dar sincer, cine nu a văzut asta venind?
Wikipedia are o nouă inițiativă numită WikiProject AI Cleanup. Este un grup de voluntari care în prezent studiază articolele Wikipedia, editează sau elimină informații false care par să fi fost postate de oameni care folosesc IA generativă.
Ilyas Lebleu, membru fondator al echipajului de curățenie, a declarat pentru 404 Media că criza a început atunci când editorii și utilizatorii Wikipedia au început să vadă pasaje care au fost scrise în mod inconfundabil de un chatbot de vreun fel. Echipa a confirmat teoria recreând unele pasaje folosind ChatGPT.
„Câțiva dintre noi observasem prevalența scrisului nefiresc care dădea semne clare că sunt generate de AI și am reușit să reproducem „stiluri” similare folosind ChatGPT”, a spus Lebleu. „Descoperirea unor expresii obișnuite de AI ne-a permis să identificăm rapid unele dintre cele mai flagrante exemple de articole generate, pe care ne-am dorit rapid să le oficializăm într-un proiect organizat pentru a compila descoperirile și tehnicile noastre.”
1: AI reprezintă evenimente halucinante, figuri istorice, concepte întregi pe Wikipedia
2: un grup de lucru al editorilor Wikipedia detectează și șterge aceste lucruri https://t.co/PlfzVCZd4P
– Jason Koebler (@jason_koebler) 9 octombrie 2024
De exemplu, există un articol despre o fortăreață otomană construită în anii 1400 numită „Amberlisihar”. Articolul de 2.000 de cuvinte detaliază locația și construcția reperului. Din păcate, Amberlisihar nu există, iar toate informațiile despre el sunt o halucinație completă presărată cu suficiente informații faptice pentru a-i da o oarecare credibilitate.
Nenorocirea nu se limitează nici la materialul nou postat. Actorii răi introduc informații false generate de AI în articolele existente pe care editorii voluntari le-au verificat deja. Într-un exemplu, cineva a inserat o secțiune citată corect despre o anumită specie de crab într-un articol despre un gândac neînrudit.
Lebleu și colegii săi editori spun că nu știu de ce oamenii fac asta, dar să fim sinceri – știm cu toții că acest lucru se întâmplă din două motive principale. Mai întâi este o problemă inerentă cu modelul Wikipedia – oricine poate fi editor pe platformă. Multe universități nu acceptă studenții să predea lucrări care citează Wikipedia tocmai din acest motiv.
Al doilea motiv este pur și simplu că internetul distruge totul. Am văzut asta și din nou, în special cu aplicațiile AI. Îți amintești de Tay, botul Twitter al Microsoft care a fost retras în mai puțin de 24 de ore când a început să posteze tweet-uri vulgare și rasiste? Aplicațiile AI mai moderne sunt la fel de susceptibile la abuz așa cum am văzut cu deepfake-urile, cărțile ridicole de shovelware generate de AI pe Kindle și alte șmecherii.
Ori de câte ori publicului i se permite accesul practic nerestricționat la ceva, vă puteți aștepta ca un mic procent de utilizatori să abuzeze de el. Când vorbim despre 100 de oameni, s-ar putea să nu fie mare lucru, dar când sunt milioane, vei avea o problemă. Uneori, este pentru câștig ilicit. Alteori, doar pentru că pot. Acesta este cazul situației actuale ale Wikipedia.