Deepfake din războiul din Gaza amplifică temerile cu privire la puterea IA de a induce în eroare
Deepfake din războiul din Gaza amplifică temerile cu privire la puterea IA de a induce în eroare
În mijlocul imaginilor cu case distruse și străzi devastate din Gaza, unele se evidențiază prin groaza absolută: bebeluși sângeroși și abandonați. Aceste imagini deepfake au fost create folosind inteligența artificială. Dacă te uiți atent, poți observa indicii: degete care se încovoiază ciudat sau ochi care strălucesc într-o lumină nefirească – toate semne evidente ale înșelăciunii digitale. Furia pe care aceste imagini au fost create să o provoace, însă, este cu totul reală. Imaginile din războiul dintre Israel și Hamas au ilustrat vivid și dureros potențialul IA-ului ca instrument de propagandă, folosit pentru a crea imagini realiste ale masacrelor. De când războiul a început în luna trecută, imagini manipulate digital s-au răspândit pe rețelele sociale, fiind folosite pentru a face afirmații false despre responsabilitatea pentru victime sau pentru a înșela oamenii cu privire la atrocități care nu s-au întâmplat niciodată. În timp ce majoritatea afirmațiilor false care circulă online despre război nu au necesitat IA pentru a fi create și au provenit din surse mai convenționale, avansurile tehnologice apar din ce în ce mai frecvent și cu puțină supraveghere. Aceasta a făcut ca potențialul IA-ului de a deveni o altă formă de armă să devină extrem de evident și a oferit o privire asupra a ceea ce urmează să vină în timpul conflictelor viitoare, alegerilor și altor evenimente importante. „Va fi și mai rău – mult mai rău – înainte să fie mai bine”, a declarat Jean-Claude Goldenstein, CEO al CREOpoint, o companie tech cu sediul în San Francisco și Paris, care utilizează IA pentru a evalua validitatea afirmațiilor online. Compania a creat o bază de date a celor mai virale deepfake-uri care au apărut din Gaza. „Imagini, video și audio: cu IA generativă va fi o escaladare pe care nu ai mai văzut-o”. În unele cazuri, fotografii din alte conflicte sau dezastre au fost reproiectate și prezentate ca noi. În altele, programele AI generative au fost folosite pentru a crea imagini de la zero, cum ar fi una cu un bebeluș care plânge în mijlocul ruinelor bombardamentelor, care a devenit virală în primele zile ale conflictului. Alte exemple de imagini generate de IA includ videoclipuri care prezintă presupuse atacuri cu rachete israeliene sau tancuri care se deplasează prin cartiere distruse sau familii care caută supraviețuitori printre dărâmături. În multe cazuri, falsurile par să fie concepute pentru a stârni o puternică reacție emoțională prin includerea cadavrelor de bebeluși, copii sau familii. În primele zile sângeroase ale războiului, susținătorii atât ai Israelului, cât și ai Hamasului au susținut că cealaltă parte a victimizat copiii și bebelușii; imaginile deepfake ale bebelușilor care plâng au oferit „dovezi” fotografice care au fost rapid prezentate ca probe. Propagandiștii care creează astfel de imagini sunt pricepuți în a viza cele mai profunde impulsuri și anxietăți ale oamenilor, a declarat Imran Ahmed, CEO al Center for Countering Digital Hate, o organizație nonprofit care urmărește dezinformarea din timpul războiului. Fie că este vorba de un bebeluș deepfake sau de o imagine reală a unui bebeluș dintr-un alt conflict, impactul emoțional asupra privitorului este același. Cu cât imaginea este mai abominabilă, cu atât utilizatorul are mai multe șanse să o rețină și să o distribuie, răspândind astfel dezinformarea în continuare. „Oamenilor li se spune în acest moment: Uită-te la această fotografie cu un bebeluș”, a spus Ahmed. „Dezinformarea este concepută pentru a te face să te implici în ea”. Conținutul generat de AI, la fel de înșelător, a început să se răspândească după ce Rusia a invadat Ucraina în 2022. Un videoclip modificat părea să arate că președintele ucrainean Volodymyr Zelenskyy ordonă ucrainenilor să se predea. Astfel de afirmații au continuat să circule până săptămâna trecută, arătând cât de persistentă poate fi dezinformarea chiar și atunci când este ușor demontată. Fiecare nou conflict sau sezon electoral oferă noi oportunități pentru cei care vând dezinformare de a demonstra cele mai recente avansuri ale IA. Acest lucru îi face pe mulți experți în IA și oameni de știință politici să avertizeze cu privire la riscurile anului viitor, când mai multe țări vor organiza alegeri importante, printre care SUA, India, Pakistan, Ucraina, Taiwan, Indonezia și Mexic. Riscul ca IA și social media să fie folosite pentru a răspândi minciuni printre alegătorii americani a alarmat legislatorii din ambele partide din Washington. În cadrul unei audieri recente privind pericolele tehnologiei deepfake, reprezentantul SUA Gerry Connolly, democrat din Virginia, a declarat că SUA trebuie să investească în dezvoltarea uneltelor de IA concepute pentru a contracara alte IA-uri. „Ca națiune, trebuie să facem acest lucru corect”, a spus Connolly. În întreaga lume, mai multe startup-uri tehnologice lucrează la programe noi care pot detecta deepfake-uri, pot atașa marcaje de apă imaginilor pentru a-și dovedi originea sau pot scana textul pentru a verifica orice afirmații false care ar putea fi introduse de AI. „Următoarea etapă a IA va fi: Cum putem verifica conținutul care există acolo? Cum poți detecta dezinformarea, cum poți analiza textul pentru a determina dacă este de încredere?” a spus Maria Amelie, cofondatoare a Factiverse, o companie norvegiană care a creat un program AI care poate scana conținutul pentru a depista inexactități sau părți introduse cu tendință de alte programe AI. Astfel de programe ar fi de interes imediat pentru educatori, jurnaliști, analiști financiari și alții interesați să elimine falsurile, plagiatul sau frauda. Programe similare sunt concepute pentru a detecta fotografii sau videoclipuri falsificate. Deși această tehnologie arată promițătoare, cei care folosesc IA pentru a minți sunt adesea cu un pas înainte, potrivit lui David Doermann, un informatician care a condus un efort la Defense Advanced Research Projects Agency pentru a răspunde amenințărilor la adresa securității naționale reprezentate de imaginile manipulate de AI. Doermann, care este acum profesor la University at Buffalo, a declarat că pentru a răspunde eficient provocărilor politice și sociale generate de dezinformarea cu ajutorul IA, este nevoie atât de o tehnologie mai bună, cât și de reguli mai bune, standarde voluntare ale industriei și investiții extinse în programe de alfabetizare digitală pentru a ajuta utilizatorii de internet să descopere modalități de a distinge adevărul de fantezie. „De fiecare dată când lansăm o unealtă care detectează asta, adversarii noștri pot folosi IA pentru a acoperi aceste probe”, a spus Doermann. „Detectarea și încercarea de a elimina astfel de conținut nu mai reprezintă soluția. Avem nevoie de o soluție mult mai mare”.