Dintre toate puterile înfricoșătoare ale internetului, abilitatea de a păcăli pe cei nevăzuți ar putea fi cea mai înspăimântătoare. Clickbait, fotografiile fotografiate și știrile false sunt unele dintre cele mai grave infractoare, dar în ultimii ani s-a observat și ascensiunea unui nou instrument potențial periculos, cunoscut sub numele de inteligență artificială profundă (AI).
Termenul deepfake se referă la video și audio falsificate, generate de computer, greu de diferențiat de conținut autentic, nealterat. Este să filmați ce este Photoshop pentru imagini.
Cum funcționează AI-ul profund?
Instrumentul se bazează pe ceea ce este cunoscut sub numele de rețele adversare generative (GANs), o tehnică inventată în 2014 de Ian Goodfellow, doctor în doctorat. student care lucrează acum la Apple, a informat Popular Mechanics.
Algoritmul GAN implică două API-uri separate, una care generează conținut - să zicem, fotografii ale oamenilor - și un adversar care încearcă să ghicească dacă imaginile sunt reale sau false, potrivit Vox. AI-ul generator începe aproape fără idee despre cum arată oamenii, ceea ce înseamnă că partenerul său poate distinge cu ușurință fotografiile adevărate de cele false. Însă, în timp, fiecare tip de AI se îmbunătățește progresiv și, în cele din urmă, AI generatoare începe să producă conținut care să arate perfect ca viața.
Exemple profunde
GAN-urile sunt instrumente impresionante și nu sunt întotdeauna utilizate în scopuri rău intenționate. În 2018, un tablou generat de GAN imitând stilul olandez „Old Master” al artiștilor precum Rembrandt van Rijn din secolul al 17-lea a vândut la casa de licitații Christie pentru un incredibil de 432.500 de dolari.
În același an, deepfakes s-au ridicat la o proeminență larg răspândită, în principal printr-un utilizator Reddit care a fost denumit „deepfakes”, a raportat Vice. Tehnica GAN era adesea folosită pentru a plasa fețele unor celebrități celebre - inclusiv Gal Gadot, Maisie Williams și Taylor Swift - pe corpurile actrițelor de film pornografic.
Alte GAN-uri au învățat să ia o singură imagine a unei persoane și să creeze fotografii sau videoclipuri alternative destul de realiste ale acelei persoane. În 2019, un deepfake ar putea genera filme înfiorătoare, dar realiste, despre Mona Lisa vorbind, mișcând și zâmbind în diferite poziții.
Deepfakes pot modifica și conținutul audio. După cum a raportat The Verge la începutul acestui an, tehnica poate împărți cuvinte noi într-un videoclip al unei persoane care vorbește, făcând să pară că a spus ceva ce nu și-a propus niciodată.
Ușurătatea cu care poate fi utilizat noul instrument are ramificări înfricoșătoare. Dacă cineva, oriunde poate face filme realiste care arată o celebritate sau un politician vorbind, mișcând și spunând cuvinte pe care nu le-au spus niciodată, telespectatorii sunt nevoiți să devină mai atenți de conținutul de pe internet. Ca exemplu, ascultă avertismentul președintelui Obama împotriva unui viitor distopic „efed-up” în acest videoclip de la Buzzfeed, creat folosind deepfake de realizatorul Jordan Peele.