Media Market Report 2025page nr.98 

Mesterséges intelligencia a médiapiacon

A deepfake puszta létezése óvatosságra int és bizalmatlanságot szül

A hétköznapokban egyre nagyobb az esélye, hogy valaki hamisított tartalmakkal találkozzon, legyen az egy gyanús telefonüzenet, egy közösségi médiás videó vagy akár egy álláshirdetéshez mellékelt referenciavideó. A társadalom fokozatosan szembesül azzal, hogy a digitális tartalmakban többé nem lehet kritikátlanul megbízni. Ráadásul a deepfake felismerése nem egyszerű: az emberek átlagosan csak az esetek felében-harmadában tudják helyesen megítélni egy videóról vagy képről, hogy valódi vagy hamis – azaz vizuális ítélőképességünk elmarad a legújabb hamisítások megtévesztő képességétől.*229*

Egy 2024-ben az Egyesült Királyságban végzett reprezentatív felmérés szerint a megkérdezettek több mint 90 százaléka tart attól, hogy a deepfake tartalmak terjedése növeli az online gyűlöletkeltésnek, a gyerekekkel szembeni visszaéléseknek, az információs káosznak és a közvélemény manipulálásának a veszélyét.*230* A kutatásokban feltárt félelmek között szerepel a személyes képmással való visszaélés, illetve a rágalmazó vagy hamis tartalmak megjelenése, és sokan attól is tartanak, hogy a bűnözők és propagandisták egyre kifinomultabb eszközt kapnak a kezükbe. Az Alan Turing Institute 2024-es kutatása szerint a britek a dezinformáció és a pornográfia terjedésétől is tartanak a deepfake jelenséggel összefüggésben.*231*

A félelem és óvatosság mindazonáltal jóval elterjedtebb, mint a tényleges személyes érintettség: az említett brit felmérés résztvevőinek csak a 15 százaléka találkozott már kifejezetten káros (pl. pornográf vagy csaló) deepfake tartalommal ‒ vagyis a technológia és a lehetséges negatív következmények híre sokkal többekhez eljutott, mint ahányan meg is tapasztalták a veszélyeket. Miközben az uralkodó társadalmi attitűd inkább a deepfake tartalmak kockázataira fókuszál*232*, elsősorban a fiatalabb korosztályokhoz tartozó felhasználók között akadnak, akik fantáziát látnak a kreatív vagy jóindulatú felhasználásokban.*233*

Összességében kijelenthető, hogy 2024-ben a közvélemény inkább óvatos és bizalmatlan volt a deepfake technológiával szemben, ami azt jelzi, hogy már e technológia puszta létezése is képes megingatni a tartalmak hitelességébe vetett bizalmat. A szakirodalom ezt a jelenséget nevezi a „hazugok jutalmának” (liar’s dividend*234*): a valódi tartalmak (kép- és hangfelvételek) hitelességét is könnyebb kétségbe vonni azzal, hogy „biztosan deepfake”, ha valóban léteznek deepfake tartalmak is. Ez tovább mélyítheti a bizalmi válságot a nyilvánosságban.

A deepfake tartalmak megjelenésével párhuzamosan az ezek felismerésére és a visszaélések megelőzésére szolgáló technológiák intenzív fejlesztése is megkezdődött. Számos egyetem, technológiai óriáscég és startup dolgozik olyan algoritmusokon, amelyek képesek automatikusan azonosítani a manipulált médiaanyagokat. Léteznek már nyilvánosan elérhető deepfake-felismerő weboldalak és alkalmazások is, a Deepware elnevezésű online szolgáltatásba például bárki feltölthet egy gyanús videót, és a rendszer elemzést készít arról, hogy találhatók-e benne MI által generált arcok.*235* Létezik böngészőbővítmény (DeepfakeProof) is, amely valós időben átvizsgálja a megnyitott weblap képeit, és figyelmeztetést küld, ha MI által generált vagy deepfake képet észlel.

Nagyobb szervezeteknek is több vállalkozás kínál API-alapon integrálható deepfake-felismerő megoldásokat (ilyen pl. a Reality Defender platform), és a technológiai óriáscégek is tettek lépéseket: a Google DeepMind kifejlesztette a SynthID nevű vízjelező rendszert, amely láthatatlan digitális jelölést ágyaz az MI által generált képekbe/hangokba, megkönnyítve ezzel a későbbi azonosításukat.

Bár a detektálóalgoritmusok egyre fejlettebbek, hatékonyságuk egyelőre vegyes képet mutat. Laboratóriumi körülmények között néhány megoldás lenyűgöző pontosságot ért el: például az Intel FakeCatcher rendszere a videókban az emberi arcbőr fiziológiai jeleit (pl. a bőr színének a vérkeringés hatására bekövetkező mikrováltozásait) vizsgálva állítólag 96 százalékos pontossággal képes valós időben kiszűrni a deepfake felvételeket.*236* 

Valós környezetben ugyanakkor az eddig forgalomba került deepfake-felismerő megoldások eredményessége jóval szerényebb: egy független tesztben a legjobb mesterségesintelligencia-alapú detektálómodellek is csak 84 százalékos pontosságot értek el. Az Egyesült Államok számvevőszékének (GAO) 2024-ben publikált technológiai elemzése is arra a következtetésre jutott, hogy az elérhető deepfake-felismerő technológiák korlátozott hatékonyságúak a gyakorlatban, különösen a nagy platformokon.*237*

Ráadásul a deepfake tartalmak készítői is követik a detektorok fejlesztését, és egyre kifinomultabb módszerekkel igyekeznek kijátszani azokat. Az így kialakuló „fegyverkezési versenyben” minden új detektálási trükkre idővel új deepfake-megoldás érkezik, amely éppen az adott szűrőt hivatott átverni.

[A nyitókép forrása: Shutterstock.com/2431635551 (új ablakban nyílik)]

Footnotes

  1. Spiralytics: 70 deepfake-statisztika 2024-ből, amelyet ismerni kell (angol nyelvű oldal, új ablakban nyílik)

  2. A deepfake mögött: 8% gyártja, 90% aggódik – a deepfake iránti nyilvános érdeklődés és deepfake-tartalmak érzékelésének felmérése az Egyesült Királyságban (angol nyelvű PDF-dokumentum, új ablakban nyílik)

  3. A deepfake mögött: 8% gyártja, 90% aggódik – a deepfake iránti nyilvános érdeklődés és deepfake-tartalmak érzékelésének felmérése az Egyesült Királyságban (angol nyelvű PDF-dokumentum, új ablakban nyílik)

  4. Egyesült Államok Kormányzati Számvevőszék (GAO): Tudomány és technológia a reflektorfényben: küzdelem a deepfake-tartalmak ellen (angol nyelvű oldal, új ablakban nyílik)

  5. Pew Research Center: Mit mondanak az adatok az amerikaiak mesterséges intelligenciáról alkotott véleményéről? (angol nyelvű oldal, új ablakban nyílik)

  6. Yale Egyetem: A hazugok osztaléka: A politikusok hivatkozhatnak-e a téves információkra, hogy elkerüljék a felelősségre vonást? (angol nyelvű oldal, új ablakban nyílik)

  7. Expert Insights: A 8 legjobb deepfake-felismerő megoldás (angol nyelvű oldal, új ablakban nyílik)

  8. Siliconangle.com: Az Intel FakeCatcher 96%-os pontossággal észleli a deepfake-tartalmakat (angol nyelvű oldal, új ablakban nyílik)

  9. Egyesült Államok Kormányzati Számvevőszék (GAO): Tudomány és technológia a reflektorfényben: küzdelem a deepfake-tartalmak ellen (angol nyelvű oldal, új ablakban nyílik)