Vezi aceste exemple
WTF?! Capacitatea mașinilor de a genera videoclipuri false cu oameni a devenit alarmant de impresionantă. Bytedance, gigantul tehnologic chinez din spatele lui Tiktok, a arătat doar un nou sistem AI numit Omnihuman-1 care poate crea videoclipuri Deepfake aproape nedistinguibile de la realitate la persoana obișnuită.
S -ar putea să trecem cu mult peste punctul de pe Valea Uncanny chiar acum. Videoclipurile false ale lui Omnihuman-1 arată uimitor de realist, iar rezultatele profunde ale modelului sunt poate cele mai realiste până în prezent. Aruncați o privire la această discuție TED care nu a avut loc niciodată.
Sistemul are nevoie doar de o singură fotografie și de un clip audio pentru a genera aceste videoclipuri de la zero. De asemenea, puteți ajusta elemente precum raportul de aspect și încadrarea corpului. AI poate modifica chiar și materialele video existente, editarea lucrurilor precum mișcările și gesturile corpului în moduri creepily realist.
Desigur, rezultatele nu sunt 100% perfecte. Unele poze arată puțin, ca acest exemplu incomod de a ține un pahar de vin.
Există, de asemenea, această prelegere redată de AI de la Einstein, unde mâinile lui se răsucesc în direcții ciudate. Cu toate acestea, chipul lui este redat aproape perfect.
Totuși, calitatea generală este cu mult înaintea tehnicilor anterioare DeepFake.
Sub capotă, Omnihuman-1 a fost instruit pe 18.700 de ore de date video folosind o nouă abordare „Omni-Conditions” care îl permite să învețe din surse de intrare multiple precum prompturi de text, audio și corp pozează simultan. Cercetătorii de bendere spun că aceste date de instruire mai largi ajută AI „să reducă semnificativ risipa de date” în comparație cu modelele mai vechi de DeepFake.
Implicațiile acestei tehnologii sunt în legătură cu. Deepfakes a fost deja armat pentru campanii de dezinformare, fraudă și tot felul de scopuri nefaste în ultimii ani. Au fost numeroase incidente în timpul ciclului electoral din 2024 al audio -urilor DeepFake și videoclipurile răspândite la alegătorii înșelători.
Înșelătorii financiare au conectat și oameni din miliarde anul trecut. Un caz notabil a implicat un escrocher care folosea AI pentru a -l prezenta ca Brad Pitt, păcălind o femeie să trimită 850.000 de dolari luna trecută.
Având în vedere aceste incidente, sute de experți în etică AI au pledat pentru reglementări profunde anul trecut. Mai multe state americane au adoptat deja legi împotriva profunzilor rău intenționate, dar încă nu există nicio legislație federală generală.
California, pentru unul, a fost pe punctul de a adopta o lege care să -i lase pe judecători să -i forțeze pe oameni să -și dea jos adâncimi și să se confrunte cu amenzi pentru postarea lor. Cu toate acestea, acest proiect de lege s -a oprit în procesul legislativ.
Bytedance nu a lansat Omnihuman-1 publicului larg, dar puteți citi o lucrare despre model.