Discriminare, manipulare, exploatarea vulnerabilităților… Cele mai mari riscuri asociate cu IA (France24)

Via: rfi.ro

Dar dezvoltarea sa neîngrădită ar putea implica și riscuri, cum ar fi încălcarea vieții private, campaniile de dezinformare sau chiar posibilitatea ,,fabricării de arme chimice sau biologice”, după cum a spus premierul britanic Rishi Sunak, la summit-ul internațional găzduit recent de regatul Unit, într-un loc încărcat de semnificații istorice: Bletchley Park, baza militară de unde în timpul celui de al doilea război mondial, aliații au reușit să decodifice mesajele criptate transmise de naziști.

În cadrul summit-ului, UE și cele aproximativ treizeci de țări participante – printre care Statele Unite și China – au semnat o declarație pentru dezvoltarea ,,sigură” a inteligenței artificiale.

France24 face o trecere în revistă a potențialelor amenințări pe care această nouă tehnologie le poate aduce societății.

Dezinformare

Folosite pentru a genera text, voci și imagini, sistemele de inteligență artificială sunt capabile să producă conținuturi care sunt din ce în ce mai greu de distins de cele produse de oameni. Aceste producții pot fi utilizate în mod abuziv pentru a înșela utilizatorii, în special prin crearea de videoclipuri sau mărturii false care par autentice.

Acest lucru s-a întâmplat în special după 7 octombrie și începutul războiului dintre Israel și Hamas, marcat de o multitudine de noi conținuturi înșelătoare partajate zilnic pe rețelele de socializare.

De exemplu, o imagine generată de inteligența artificială care arată că fanii lui Atletico Madrid afișează un steag palestinian uriaș pe stadion a fost distribuită masiv pe X și Facebook.

În urmă cu câteva zile, un videoclip cu modelul de origine palestiniană Bella Hadid a fost manipulat pentru a o face să spună că susține Israelul. În acest război informațional dintre Israel și Hamas, astfel de conținuturi sunt folosite pentru a influența opinia publică și pentru a afecta reputația taberei adverse.

,,Deepfakes”, imagini generate de la zero de inteligența artificială, au atins un nivel de realism fără precedent și reprezintă o amenințare pentru liderii politici. Emmanuel Macron în rolul unui om de serviciu, Papa Francisc purtând o jachetă albă de puf, Donald Trump în stare de arest… Aceste imagini aparent dubioase au fost totuși distribuite pe scară largă pe rețelele de socializare, ajungând la milioane de vizualizări.

Manipulare

Înșelăciune, presiune sau exploatarea vulnerabilității… Potrivit cercetătorilor, manipularea este una dintre problemele etice majore ale inteligenței artificiale. Printre cele mai cunoscute exemple se numără sinuciderea, în urmă cu câteva luni, a unui belgian care dezvoltase o relație intensă cu un chatbot, o inteligență artificială capabilă să răspundă în timp real la întrebările utilizatorilor de internet. Dar și sugestia făcută de asistentul personal Alexa unui copil de a atinge o priză electrică cu o monedă este un exemplu tot atât de îngrijorător…

,,Chiar dacă un chatbot este identificat în mod clar ca fiind un agent de conversație, utilizatorii pot proiecta asupra lui calități umane”, susține Giada Pistilli, etician la start-up-ul francez Hugging Face și cercetător la Universitatea Sorbona, care vorbește de un ,,risc de antropomorfism” – tendința de a atribui reacții umane animalelor și lucrurilor. ,,Acest lucru se datorează faptului că roboții de chat devin din ce în ce mai buni în simularea unei conversații umane.

Citește articolul pe rfi.ro

Lasă un răspuns