Articolul acesta (Can YOU spot the deepfake from the real person? Cyber expert warns AI images pose national security risk – as 15 tell-tale signs to look out for are revealed) de pe „Mail Online” are dreptate: „Deepfake AI” are potențialul de a pune în pericol omenirea, aşa cum a avertizat şi un expert în securitate cibernetică.
Termenul „deepfake” („fals profund” în limba engleză) a fost inventat în 2017, când un utilizator Reddit a postat videoclipuri porno manipulate pe forum. Videoclipurile au schimbat fețele unor celebrități precum Gal Gadot, Taylor Swift și Scarlett Johansson cu cele ale vedetelor porno. Un deepfake folosește un subset de Inteligență Artificială (AI) numit „deep learning” („învăţare profundă”) pentru a construi o mass-media manipulată. Cea mai obișnuită metodă utilizează „rețele neuronale profunde”, „algoritmi de codificare”, un videoclip de bază în care doriți să introduceți chipul altcuiva și o colecție de videoclipuri ale țintei dvs.
Inteligenţa Artificială de învățare profundă studiază datele în diferite condiții și găsește caracteristici comune între ambii subiecți înainte de a proiecta chipul-ţintă pe persoana din videoclipul de bază.
Generative Adversarial Networks (GAN) este o altă modalitate de a face „deepfake”. GAN-urile folosesc doi algoritmi de învățare automată (ML) cu roluri duble. Primul algoritm creează falsuri, iar al doilea le detectează. Procesul se finalizează atunci când al doilea model ML nu poate găsi inconsecvențe. Precizia GAN-urilor depinde de volumul de date. De aceea, vedeţi atât de multe falsuri profunde ale politicienilor, celebrităților și vedetelor de film pentru adulți, deoarece adesea există o mulțime de mijloace media disponibile cu acele personalităţi, pentru a antrena algoritmul de învățare automată.
Dr. Tim Stevens, directorul Grupului de Cercetare în Securitate Cibernetică de la King’s College din Londra, a declarat că „deepfake”-ul Inteligenţei Artificiale poate crea imagini și videoclipuri hiperrealiste ale oamenilor, având potențialul de a submina instituțiile democratice și securitatea națională.
Dacă l-ați văzut pe Tom Cruise cântând la chitară pe TikTok, pe Barack Obama numindu-l pe Donald Trump un „gunoi” sau pe Mark Zuckerberg lăudându-se că deține controlul asupra „miliardelor de date furate ale oamenilor”, probabil ați mai văzut un deepfake.
Exemplu de deepfake poate fi văzut în videoclipul din 2018 de mai jos, în care un Obama fals îl înjură pe preşedintele american în exerciţiu din acel moment, Donald Trump.
Din 2008, cercetam si cautam adevarul in domenii precum istoria, religia sau metafizica. Am publicat peste 15.000 de articole; munca este imensa, dar si costurile aferente sunt foarte mari. Publicitatea Google Adsense nu acopera toate costurile, iar pentru a continua munca si proiectul, avem nevoie de ajutorul vostru. Orice donatie conteaza, indiferent de suma. Toti banii stransi se vor duce catre acest proiect, dar si pentru cercetarea unor subiecte controversate din istorie, inclusiv cercetari genealogice. Va multumim din suflet!
DONATI prin PAYPAL:
DONATI prin CONT BANCAR (ING BANK):
- Cont LEI: RO53INGB0000999917643869
- Titular: ASOCIATIA GENIA - GENEALOGIE SI ISTORIE CUI:51669957
- Email: contact@genia.ro
- Nr.inregistrare Min.Justitiei: 1036/A/2025
Un comentariu la „Mai putem deosebi adevărul de minciună? „Deepfake”-ul Inteligenţei Artificiale falsifică masiv fotografii şi videoclipuri pe Internet”