Media Market Report 2025page nr.98
Mesterséges intelligencia a médiapiacon
A deepfake puszta létezése óvatosságra int és bizalmatlanságot szül
A hétköznapokban egyre nagyobb az esélye, hogy valaki hamisított tartalmakkal találkozzon, legyen az egy gyanús telefonüzenet, egy közösségi médiás videó vagy akár egy álláshirdetéshez mellékelt referenciavideó. A társadalom fokozatosan szembesül azzal, hogy a digitális tartalmakban többé nem lehet kritikátlanul megbízni. Ráadásul a deepfake felismerése nem egyszerű: az emberek átlagosan csak az esetek felében-harmadában tudják helyesen megítélni egy videóról vagy képről, hogy valódi vagy hamis – azaz vizuális ítélőképességünk elmarad a legújabb hamisítások megtévesztő képességétől.*229*
Egy 2024-ben az Egyesült Királyságban végzett reprezentatív felmérés szerint a megkérdezettek több mint 90 százaléka tart attól, hogy a deepfake tartalmak terjedése növeli az online gyűlöletkeltésnek, a gyerekekkel szembeni visszaéléseknek, az információs káosznak és a közvélemény manipulálásának a veszélyét.*230* A kutatásokban feltárt félelmek között szerepel a személyes képmással való visszaélés, illetve a rágalmazó vagy hamis tartalmak megjelenése, és sokan attól is tartanak, hogy a bűnözők és propagandisták egyre kifinomultabb eszközt kapnak a kezükbe. Az Alan Turing Institute 2024-es kutatása szerint a britek a dezinformáció és a pornográfia terjedésétől is tartanak a deepfake jelenséggel összefüggésben.*231*
A félelem és óvatosság mindazonáltal jóval elterjedtebb, mint a tényleges személyes érintettség: az említett brit felmérés résztvevőinek csak a 15 százaléka találkozott már kifejezetten káros (pl. pornográf vagy csaló) deepfake tartalommal ‒ vagyis a technológia és a lehetséges negatív következmények híre sokkal többekhez eljutott, mint ahányan meg is tapasztalták a veszélyeket. Miközben az uralkodó társadalmi attitűd inkább a deepfake tartalmak kockázataira fókuszál*232*, elsősorban a fiatalabb korosztályokhoz tartozó felhasználók között akadnak, akik fantáziát látnak a kreatív vagy jóindulatú felhasználásokban.*233*
Összességében kijelenthető, hogy 2024-ben a közvélemény inkább óvatos és bizalmatlan volt a deepfake technológiával szemben, ami azt jelzi, hogy már e technológia puszta létezése is képes megingatni a tartalmak hitelességébe vetett bizalmat. A szakirodalom ezt a jelenséget nevezi a „hazugok jutalmának” (liar’s dividend*234*): a valódi tartalmak (kép- és hangfelvételek) hitelességét is könnyebb kétségbe vonni azzal, hogy „biztosan deepfake”, ha valóban léteznek deepfake tartalmak is. Ez tovább mélyítheti a bizalmi válságot a nyilvánosságban.
A deepfake tartalmak megjelenésével párhuzamosan az ezek felismerésére és a visszaélések megelőzésére szolgáló technológiák intenzív fejlesztése is megkezdődött. Számos egyetem, technológiai óriáscég és startup dolgozik olyan algoritmusokon, amelyek képesek automatikusan azonosítani a manipulált médiaanyagokat. Léteznek már nyilvánosan elérhető deepfake-felismerő weboldalak és alkalmazások is, a Deepware elnevezésű online szolgáltatásba például bárki feltölthet egy gyanús videót, és a rendszer elemzést készít arról, hogy találhatók-e benne MI által generált arcok.*235* Létezik böngészőbővítmény (DeepfakeProof) is, amely valós időben átvizsgálja a megnyitott weblap képeit, és figyelmeztetést küld, ha MI által generált vagy deepfake képet észlel.
Nagyobb szervezeteknek is több vállalkozás kínál API-alapon integrálható deepfake-felismerő megoldásokat (ilyen pl. a Reality Defender platform), és a technológiai óriáscégek is tettek lépéseket: a Google DeepMind kifejlesztette a SynthID nevű vízjelező rendszert, amely láthatatlan digitális jelölést ágyaz az MI által generált képekbe/hangokba, megkönnyítve ezzel a későbbi azonosításukat.
Bár a detektálóalgoritmusok egyre fejlettebbek, hatékonyságuk egyelőre vegyes képet mutat. Laboratóriumi körülmények között néhány megoldás lenyűgöző pontosságot ért el: például az Intel FakeCatcher rendszere a videókban az emberi arcbőr fiziológiai jeleit (pl. a bőr színének a vérkeringés hatására bekövetkező mikrováltozásait) vizsgálva állítólag 96 százalékos pontossággal képes valós időben kiszűrni a deepfake felvételeket.*236*
Valós környezetben ugyanakkor az eddig forgalomba került deepfake-felismerő megoldások eredményessége jóval szerényebb: egy független tesztben a legjobb mesterségesintelligencia-alapú detektálómodellek is csak 84 százalékos pontosságot értek el. Az Egyesült Államok számvevőszékének (GAO) 2024-ben publikált technológiai elemzése is arra a következtetésre jutott, hogy az elérhető deepfake-felismerő technológiák korlátozott hatékonyságúak a gyakorlatban, különösen a nagy platformokon.*237*
Ráadásul a deepfake tartalmak készítői is követik a detektorok fejlesztését, és egyre kifinomultabb módszerekkel igyekeznek kijátszani azokat. Az így kialakuló „fegyverkezési versenyben” minden új detektálási trükkre idővel új deepfake-megoldás érkezik, amely éppen az adott szűrőt hivatott átverni.
[A nyitókép forrása: Shutterstock.com/2431635551 (új ablakban nyílik)]