Дипфейк

Матеріал з Вікіпедії — вільної енциклопедії.
(Перенаправлено з Діпфейк)
Перейти до навігації Перейти до пошуку
Жіноче обличчя, згенероване комп'ютером на основі реальних фото

Дипфе́йк[1] або діпфе́йк[2][3](англ. deepfake; конкатенація слів deep learning («глибоке навчання») та fake («підробка»)[4]) — методика синтезу зображення людини, яка базується на штучному інтелекті. Використовують для поєднання і накладення одних зображень та відео на інші зображення або відеоролики.

Дипфейк можна використати для створення фальшивих порнографічних відео із селебриті або для помсти.[5] Дипфейкова порнографія з'явилася в Інтернеті 2017 року, зокрема на Reddit,[6] і була заборонена сайтами, зокрема, Reddit, Twitter і Pornhub.[7][8][9] Дипфейк використовують для створення підроблених новин і зловмисних обманів.[10][11]

Непорнографічні дипфейк-ролики можна легко знайти на популярних вебсайтах потокового відео, таких як YouTube або Vimeo. Популярна програма для дипфейку FakeApp[12] використовує TensorFlow[13].

Методи виявлення жестів та перетворення початкового відео на відео з особою, схожою на цільову особу, представлені 2016 року, дозволяють обчислення в режимі реального часу підробних мімічних виразів у наявному 2D-відео[14].

Порнографія

[ред. | ред. код]

Восени 2017 року анонімний користувач Reddit під псевдонімом «Deepfakes» опублікував в інтернеті кілька порнографічних відео. Першим, яке привернуло увагу, було дипфейкове відео з Дейзі Рідлі. Це один з найвідоміших дипфейкових фільмів, обговорюваний у низці статей. Інші — це симуляція сексу з акторками Галь Гадот, Еммою Вотсон, Кеті Перрі, Тейлор Свіфт або Скарлетт Йоганссон. Сцени не були реальними, а створені штучним інтелектом, про що й було невдовзі повідомлено. З часом спільнота Reddit виправила безліч помилок у фальшивих відео, тому все важче відрізнити підробку від справжнього матеріалу. Як дані тренувань для програмного забезпечення, користувачі Reddit використовували записи зі сексуальних фільмів та відповідної акторки. Про феномен дипфейку вперше повідомлено в грудні 2017 року в науково-технічному розділі журналу Vice, що спричинило багато повідомлень в інших ЗМІ[15][16].

У Великій Британії виробників дипфейків можуть притягти до відповідальності за переслідування, але існують заклики оголосити дипфейки окремим злочином[17].

Політика

[ред. | ред. код]
Дипфейкове відео: Володимир Путін нібито застерігає американців від втручання у вибори та збільшення політичного розриву з Росією

Дипфейки використовували для підміни відомих політиків на відеопорталах або чат-кімнатах. Наприклад, обличчя президента Аргентини Маурісіо Макрі замінили обличчям Адольфа Гітлера, а обличчя Ангели Меркель — Дональда Трампа.[18][19] У квітні 2018 року Джордан Піл (Jordan Peele) та Йона Перетті (Jonah Peretti) створили дипфейк із зображенням Барака Обами як публічне попередження про небезпеку дипфейків.[20]

Центр протидії дезінформації заявив у лютому 2022 року про те, що технологія дипфейку може бути використана в інформаційно-психологічній операції в ході російського вторгнення в Україну для створення несправжнього відео з заявою про капітуляцю Володимира Зеленського.[21]

24 червня 2022 року мер Берліна Франциска Ґіффай протягом 15 хвилин спілкувалася у відеорежимі з чоловіком, який назвався міським головою Києва Віталієм Кличком. За словами прессекретаря, спочатку бесіда не викликала жодних підозр, попри те, що співрозмовник розмовляв російською (насправді Віталій Кличко добре володіє німецькою)[22].

Програми

[ред. | ред. код]

У січні 2018 року випущено настільну програму FakeApp. Застосунок дозволяє користувачам легко створювати та обмінюватися відео зі зміненим обличчям. Застосунок використовує для створення фальшивого відео штучну нейронну мережу, обчислювальну потужність графічного процесора та 3-4 ГБ пам'яті. Для отримання детальної інформації програмі потрібно багато візуальних матеріалів з зображеннями людини, обличчя якої потрібно вставити, щоб, використовуючи алгоритм глибокого навчання на основі відеопослідовностей та зображень, дізнатись, які аспекти зображення слід замінити. Застосунок використовує програмний каркас для штучного інтелекту TensorFlow від Google, який, серед іншого, вже використовувався для програми DeepDream. Основними цілями подібних фальшивих секс-відео є знаменитості, але деякі звичайні люди також постраждали.[23][24][25] У серпні 2018 року дослідники з Університету Каліфорнії, Берклі опублікували статтю, в якій представлено застосунок, який, використовуючи штучний інтелект, «змушує» на відео людину танцювати так, як це робить танцівник на іншому відео[26][27].

Критика

[ред. | ред. код]
Дипфейкове фото, що зображає типову американку

Зловживання

[ред. | ред. код]

Aargauer Zeitung(інші мови) стверджує, що маніпуляція фотознімками та відео з використанням штучного інтелекту може стати небезпечним масовим явищем. Проте фальсифікація зображень та відео виникла задовго до програмного забезпечення для редагування відео та зображень; новиною в цьому випадку є реалістичність.[18] Також можна дипфейки можна використати для цільових обманів, для помсти тощо[28].

Вплив на довіру та автентичність

[ред. | ред. код]

Інший ефект дипфейку полягає в тому, що більше не можна розпізнати, чи є матеріал підробним, чи справжнім. Дослідник штучного інтелекту Алекс Шампандар (Alex Champandard) сказав, що всі мають знати, які ризики несе ця технологія, і що проблема не є технічною, а, найпевніше, пов'язана з довірою до інформації та журналістики. Первинним є те, що людство може потрапити в епоху, коли буде неможливо визначити, чи відповідає істині те, що показують у ЗМІ[18].

Реакція в інтернеті

[ред. | ред. код]

Деякі вебсайти, такі як Твіттер і Gfycat[en], оголосили про видалення дипфейкового вмісту та блокування його видавців. Раніше платформа чатів Discord заблокувала канал чату з підробленими порновідео знаменитостей. Порнографічний вебсайт Pornhub також планує блокувати такий вміст, однак повідомляється, що сайт не виконував заборону.[29][30] На Reddit ситуація спочатку залишалася незрозумілою, доки 7 лютого 2018 року відповідний субреддіт не був призупинений через порушення політики «недобровільної порнографії»[16][31][32][33].

Шахрайство

[ред. | ред. код]

Дипфейк фішинг — це новий вид фішингових атак через засоби відео та аудіокомунікацій.[34] Цей вид атак набув популярності під час коронавірусного локдауну.[джерело?]

Методи виявлення

[ред. | ред. код]

Дипфейкові відео можна виявити за відсутністю фізіологічних сигналів, притаманних людині: дихання, кліпання очима, пульсу.[35] DARPA 2016 року розпочало проєкт MediFor (англ. Media Forensics, криміналістичний аналіз медіа), метою якого є розробка технологій для автоматичного оцінювання цілісності зображення чи відео та інтеграція їх у платформу для обміну криміналістичними матеріалами між кінцевими користувачами. У разі успіху, платформа MediFor автоматично виявлятиме маніпуляції, надаватиме детальну інформацію про те, як ці маніпуляції виконано, а також оцінюватиме загальну цілісність візуальних матеріалів, щоб полегшити рішення щодо використання будь-якого сумнівного зображення чи відео[36].

AI Foundation розробляє програмне забезпечення для перевірки справжності медіа. Дослідники запрошують користувачів надсилати їм матеріали, які є фейками для навчання штучного інтелекту[37].

Див. також

[ред. | ред. код]

Примітки

[ред. | ред. код]
  1. Дипфейк — веселий тренд чи правопорушення? (укр.). ain. 06 жовтня, 2023.
  2. Технологія діпфейку стане найсучаснішою інформаційною зброєю – Associated Press. Радіо Свобода (укр.). Архів оригіналу за 18 лютого 2022. Процитовано 18 лютого 2022.
  3. ua.korrespondent
  4. Brandon, John (16 лютого 2018). Terrifying high-tech porn: Creepy 'deepfake' videos are on the rise. Fox News (амер.). Архів оригіналу за 15 червня 2018. Процитовано 20 лютого 2018.
  5. What Are Deepfakes & Why the Future of Porn is Terrifying. Highsnobiety (амер.). 20 лютого 2018. Архів оригіналу за 14 липня 2021. Процитовано 20 лютого 2018.
  6. Roettgers, Janko (21 лютого 2018). Porn Producers Offer to Help Hollywood Take Down Deepfake Videos. Variety (амер.). Архів оригіналу за 10 червня 2019. Процитовано 28 лютого 2018.
  7. It took us less than 30 seconds to find banned 'deepfake' AI smut on the internet (англ.). Архів оригіналу за 10 квітня 2019. Процитовано 20 лютого 2018.
  8. Kharpal, Arjun (8 лютого 2018). Reddit, Pornhub ban videos that use A.I. to superimpose a person's face over an X-rated actor. CNBC. Архів оригіналу за 10 квітня 2019. Процитовано 20 лютого 2018.
  9. PornHub, Twitter Ban 'Deepfake' AI-Modified Porn. PCMAG (англ.). Архів оригіналу за 10 квітня 2019. Процитовано 20 лютого 2018.
  10. Experts fear face swapping tech could start an international showdown. The Outline (англ.). Архів оригіналу за 16 січня 2020. Процитовано 28 лютого 2018.
  11. Roose, Kevin (4 березня 2018). Here Come the Fake Videos, Too. The New York Times (амер.). ISSN 0362-4331. Архів оригіналу за 18 червня 2019. Процитовано 24 березня 2018.
  12. FakeApp: Finally, a Program that Will Let You Seamlessly Put Donald Trump in Porn!. Reason.com (англ.). 25 січня 2018. Архів оригіналу за 22 березня 2018. Процитовано 24 березня 2018.
  13. I’m using AI to face-swap Elon Musk and Jeff Bezos, and I’m really bad at it. The Verge. Архів оригіналу за 24 березня 2018. Процитовано 24 березня 2018.
  14. Thies, Justus (2016). Face2Face: Real-time Face Capture and Reenactment of RGB Videos. Proc. Computer Vision and Pattern Recognition (CVPR), IEEE. Архів оригіналу за 26 лютого 2018. Процитовано 24 лютого 2018.
  15. AI-Assisted Fake Porn Is Here and We’re All Fucked, Motherboard, 11 грудня 2017, архів оригіналу за 5 травня 2019, процитовано 12 листопада 2018
  16. а б Markus Böhm (7 лютого 2018), "Deepfakes": Firmen gehen gegen gefälschte Promi-Pornos vor, Spiegel Online, архів оригіналу за 23 вересня 2019, процитовано 12 листопада 2018
  17. Call for upskirting bill to include 'deepfake' pornography ban (англ.). The Guardian. Архів оригіналу за 21 червня 2018. Процитовано 12 листопада 2018.
  18. а б в Wenn Merkel plötzlich Trumps Gesicht trägt: die gefährliche Manipulation von Bildern und Videos. az Aargauer Zeitung. 3 лютого 2018. Архів оригіналу за 13 квітня 2019. Процитовано 12 листопада 2018.
  19. Patrick Gensing. Deepfakes: Auf dem Weg in eine alternative Realität?. Архів оригіналу за 11 жовтня 2018. Процитовано 12 листопада 2018.
  20. Romano, Aja (18 квітня 2018). Jordan Peele’s simulated Obama PSA is a double-edged warning against fake news. Vox. Архів оригіналу за 11 червня 2019. Процитовано 10 вересня 2018.
  21. Росія може поширювати фальшиву «заяву про капітуляцію» Зеленського – Центр стратегічних досліджень. www.ukrinform.ua (укр.). Архів оригіналу за 2 березня 2022. Процитовано 2 березня 2022.
  22. Дивні запитання та розмова російською: мер Берліна поговорила з несправжнім Кличком. ТСН.ua (укр.). 25 червня 2022. Процитовано 25 червня 2022.
  23. Britta Bauchmüller, "Fake-App": Mit diesem Programm kann jeder im Porno landen – ob er will oder nicht!, Berliner-Kurier.de, архів оригіналу за 28 серпня 2019, процитовано 12 листопада 2018
  24. Eike Kühl (26 січня 2018), Künstliche Intelligenz: Auf Fake News folgt Fake Porn, Die Zeit, ISSN 0044-2070, архів оригіналу за 24 травня 2019, процитовано 12 листопада 2018
  25. heise online, Deepfakes: Neuronale Netzwerke erschaffen Fake-Porn und Hitler-Parodien, архів оригіналу за 12 грудня 2019, процитовано 12 листопада 2018
  26. Farquhar, Peter (27 серпня 2018). An AI program will soon be here to help your deepfake dancing - just don't call it deepfake. Business Insider Australia (англ.). Архів оригіналу за 10 квітня 2019. Процитовано 27 серпня 2018.
  27. Deepfakes for dancing: you can now use AI to fake those dance moves you always wanted. The Verge. Архів оригіналу за 17 травня 2019. Процитовано 27 серпня 2018.
  28. Künstliche Intelligenz: Selfies sind eine gute Quelle, Die Zeit, 26 січня 2018, ISSN 0044-2070, архів оригіналу за 25 травня 2019, процитовано 12 листопада 2018
  29. Pornhub hasn't been actively enforcing its deepfake ban. Engadget (амер.). Архів оригіналу за 10 квітня 2019. Процитовано 21 квітня 2018.
  30. Pornhub Banned Deepfake Celebrity Sex Videos, But The Site Is Still Full Of Them. BuzzFeed (англ.). Архів оригіналу за 20 червня 2018. Процитовано 21 квітня 2018.
  31. barbara.wimmer, Deepfakes: Reddit löscht Forum für künstlich generierte Fake-Pornos, архів оригіналу за 8 лютого 2018, процитовано 12 листопада 2018
  32. heise online. Deepfakes: Auch Reddit verbannt Fake-Porn. Архів оригіналу за 10 квітня 2019. Процитовано 12 листопада 2018.
  33. Reddit verbannt Deepfake-Pornos. Архів оригіналу за 10 квітня 2019. Процитовано 12 листопада 2018.
  34. Stupp, Catherine (30 серпня 2019). Fraudsters Used AI to Mimic CEO’s Voice in Unusual Cybercrime Case. Wall Street Journal (амер.). ISSN 0099-9660. Процитовано 24 грудня 2022.
  35. Yuezun Li, Ming-Ching Chang and Siwei Lyu. In Ictu Oculi: Exposing AI Generated Fake Face Videos by Detecting Eye Blinking (PDF). Архів оригіналу (PDF) за 13 листопада 2018. Процитовано 12 листопада 2018.
  36. Media Forensics (MediFor). Архів оригіналу за 29 жовтня 2020. Процитовано 12 листопада 2018.
  37. Responsibility. www.aifoundation.com. Архів оригіналу за 12 січня 2019. Процитовано 12 січня 2019.

Посилання

[ред. | ред. код]