Lt304888.ru

Туристические услуги

Deepfake

08-08-2023

Дипфейк (англ. deepfake от deep learning «глубинное обучение» + fake «подделка»)[1] — методика синтеза изображения или голоса, основанная на искусственном интеллекте.

Мето́дика си́нтеза изображе́ния используется для соединения и наложения существующих изображений и видео на исходные изображения или видеоролики. В подавляющем большинстве случаев для создания таких видео используют генеративно-состязательные нейросети (GAN). Одна часть алгоритма учится на реальных фотографиях определённого объекта и создаёт изображение, буквально «состязаясь» со второй частью алгоритма, пока та не начнёт путать копию с оригиналом[2].

История

Дипфейк используют для замены определённых элементов изображения на желаемые образы, в частности для создания фальшивых порнографических видео со знаменитостями или для порно-мести[3]. Среди всех видео с применением данной технологии порно-дипфейки составляют 96 %, причём 99 % из них делаются с участием популярных актрис и певиц[4]. Дипфейк-порнография появилась в Интернете в 2017 году, в частности на Reddit[5], и была запрещена многими сайтами, включая сам Reddit, Twitter и Pornhub[6][7][8][9]. Технология дипфейк также может быть использована для создания поддельных новостей и вредоносных обманов[10][11].

Дипфейк-ролики можно легко найти на популярных сайтах потокового видео, таких как YouTube или Vimeo. Популярной программой является FakeApp[12], использующая TensorFlow[13].

Методы выявления движения и превращения в целевое видео, которое похоже на целевой образ, были представлены в 2016 году и позволяют создавать поддельные мимические изображения в существующем 2D-видео в режиме реального времени[14] . 1 сентября 2020 года компания Microsoft анонсировала свою новую разработку — Microsoft Video Authenticator, программное обеспечение, которое позволяет определить вмешательство в видео[15].

Технология дипфейк использовалась в музейном пространстве: например, в Музее Сальвадора Дали во Флориде в честь 115-летия известного художника была организована специальная выставка Dalí Lives («Дали жив»). По словам кураторов проекта, на этом мероприятии «искусство встречает искусственный интеллект». Они использовали сгенерированный искусственным интеллектом прототип художника, который общался с посетителями музея, рассказывал им истории о своих картинах и жизни, а также делал селфи и присылал фотографии на почту посетителей[16].

В 2020 году британский телеканал Channel 4 выпустил фейковое рождественское поздравление от королевы Елизаветы II с использованием технологии дипфейк[17]. Руководство телеканала объяснило произошедшее предупреждением о том, что с помощью данной технологии можно вводить людей в заблуждение, но некоторые люди всё равно осудили действия телеканала[18][19].

Центр противодействия дезинформации Украины заявил в феврале 2022 года о том, что дипфейк может быть использован в информационно-психологической операции в ходе российского вторжения на Украину для создания ложного видео с заявлением о капитуляции Владимира Зеленского[20].

Применение

Дипфейки используется для создания фильмов, для замены лица одного актёра на другого. Используют для «оживления» умерших людей — создание видео с помощью фотографии и образца голоса.

Также используют дипфейки для видеосвязи, для сдачи экзаменов, для обмана или для шутки в видеочатах, для создания шуточных роликов с известными людьми.

Голосовые дипфейки

Используя модифицированный алгоритм преобразования текста в речь и обработку компьютером аудиозаписей речи того или иного человека, возможно «подделать» голос этого человека. Так создаются голосовые дипфейки. С помощью этой технологии возможно адаптировать голоса актёров при локализации фильмов, создавать естественную речь для людей, утративших возможность говорить, начитывать аудиокниги для детей голосами родителей, подстраивать речь под определённый акцент, создавать реалистичные видеоаватары — личности для голосовых ассистентов. Впрочем, эта технология может также использоваться и злоумышленниками для обмана, дискредитации или дезинформации[21][22][23][24].

См. также

Примечания

  1. Terrifying high-tech porn: Creepy 'deepfake' videos are on the rise (англ.), Fox News (16 February 2018). Архивировано 15 июня 2018 года. Дата обращения: 25 апреля 2019.
  2. Архивировано 2 сентября 2019 года.
  3. Архивировано 14 июля 2021 года. Дата обращения: 25 апреля 2019.
  4. Архивировано 25 декабря 2020 года.
  5. Архивировано 10 июня 2019 года. Дата обращения: 25 апреля 2019.
  6. Архивировано 20 декабря 2019 года. (англ.)
  7. Архивировано 10 апреля 2019 года. Дата обращения: 25 апреля 2019.
  8. Архивировано 10 апреля 2019 года. Дата обращения: 25 апреля 2019.
  9. Архивировано 10 апреля 2019 года. Дата обращения: 25 апреля 2019.
  10. Архивировано 16 января 2020 года.
  11. Архивировано 18 июня 2019 года. Дата обращения: 25 апреля 2019.
  12. FakeApp: Finally, a Program that Will Let You Seamlessly Put Donald Trump in Porn! (англ.), Reason.com (25 January 2018). Архивировано 22 марта 2018 года. Дата обращения: 25 апреля 2019.
  13. Архивировано 24 марта 2018 года. Дата обращения: 25 апреля 2019.
  14. Face2Face: Real-time Face Capture and Reenactment of RGB Videos. Proc. Computer Vision and Pattern Recognition (CVPR), IEEE. Дата обращения: 24 февраля 2018. Архивировано 26 февраля 2018 года.
  15. Архивировано 24 декабря 2020 года.
  16. Архивировано 2 сентября 2019 года.
  17. Архивировано 27 апреля 2022 года.
  18. Архивировано 30 июля 2022 года.
  19. Королевский фейк: британцев возмутило видео с фальшивой Елизаветой II | «Смотрим»
  20. Архивировано 2 марта 2022 года.
  21. Не обмануть лишь Станиславского: Что такое дипфейк-аудио и зачем нам оно.
  22. Не верь ушам своим: Голосовые дипфейки.
  23. Кто занимается дипфейк-аудио и зачем это нужно.
  24. Дипфейки вокруг нас: Как учёные нашли способ распознать поддельный голос.

Литература

Deepfake.

© 2020–2023 lt304888.ru, Россия, Волжский, ул. Больничная 49, +7 (8443) 85-29-01