Creatorul nu își asumă responsabilitatea pentru crearea sa
Un cartof fierbinte: Companiile care oferă instrumente generative de inteligență artificială au tendința de a sfătui utilizatorii că conținutul creat ar putea fi inexact. LinkedIn de la Microsoft are o declinare similară, deși merge puțin mai departe, avertizând că orice utilizator care împărtășește această informație greșită va fi considerat responsabil pentru aceasta.
Microsoft și-a actualizat recent Acordul de servicii cu o declinare a răspunderii subliniind că AI-ul său de asistență nu este conceput, destinat sau utilizat ca înlocuitor pentru sfatul profesional.
După cum a raportat The Reg, LinkedIn își actualizează acordul de utilizare cu un limbaj similar. Într-o secțiune care intră în vigoare pe 20 noiembrie 2024, platforma afirmă că utilizatorii ar putea interacționa cu funcții care automatizează generarea de conținut. Acest conținut poate fi inexact, incomplet, întârziat, înșelător sau neadecvat pentru scopurile lor.
Până acum, atât de standard. Dar secțiunea următoare este ceva ce nu vedem adesea. LinkedIn afirmă că utilizatorii trebuie să revizuiască și să editeze conținutul care AI-ul său generează înainte de a o împărtăși altora. Acesta adaugă că utilizatorii sunt responsabili pentru a se asigura că acest conținut generat de inteligență artificială respectă Politicile sale profesionale ale comunității, care includ nu distribuirea de informații înșelătoare.

Pare oarecum ipocrit faptul că LinkedIn aplică cu strictețe politicile împotriva utilizatorilor care partajează conținut fals sau neautentic pe care propriile sale instrumente le pot genera. Încălcările repetate ale politicilor sale pot fi pedepsite cu suspendarea contului sau chiar desființarea contului.
Regul a întrebat LinkedIn dacă intenționează să tragă la răspundere utilizatorii pentru partajarea conținutului AI care încalcă politicile sale, chiar dacă conținutul a fost creat de propriile instrumente. Nerăspunzând cu adevărat la întrebare, un purtător de cuvânt a spus că pune la dispoziție o setare de renunțare pentru antrenarea modelelor AI utilizate pentru generarea de conținut în țările în care face acest lucru.
„Am folosit întotdeauna o anumită formă de automatizare în produsele LinkedIn și am fost întotdeauna clar că utilizatorii au posibilitatea de a alege cum sunt folosite datele lor”, a continuat purtătorul de cuvânt. „Realitatea în care ne aflăm astăzi este că mulți oameni caută ajutor pentru a obține acea primă schiță a acelui CV, pentru a ajuta la scrierea rezumatului pe profilul lor LinkedIn, pentru a ajuta la elaborarea mesajelor către recrutori pentru a obține următoarea oportunitate de carieră. La sfârșitul zilei, oamenii își doresc acest avantaj în cariera lor și ceea ce fac serviciile noastre GenAI este să le ajute să le ofere asistență.”
O altă parte care ridică sprâncenele în toate acestea este că LinkedIn a anunțat schimbările viitoare pe 18 septembrie, aproximativ în aceeași perioadă în care platforma a dezvăluit că a început să colecteze conținut generat de utilizatori pentru a-și antrena AI fără a le cere oamenilor să se înscrie mai întâi. . Strigătul și investigațiile au făcut ca LinkedIn să anunțe ulterior că nu va permite instruirea AI pe datele utilizatorilor din Spațiul Economic European, Elveția și Marea Britanie până la o nouă notificare. Cei din SUA mai trebuie să renunțe.
