Будущее фейк-новостей

Новое поколение инструментов для обработки видео и звука позволяет создавать реалистичные новостные кадры, например, теперь хорошо известную фальшивую речь Обамы

Проект Университета Вашингтон использовал звук одной из речей Обамы для того, чтобы анимировать его лицо в совершенно другом видео

В эпоху Photoshop, фильтров и социальных сетей многие из нас привыкли видеть отредактированные изображения – люди на них стройнее и красивее, или, как в случае со Snapchat, могут даже стать щенками.

Тем не менее, есть новое поколение инструментов для обработки видео и аудио позволяет создавать реалистичные видеокадры, на которых политики и общественные деятели говорят то, что не говорили на самом деле. Трамп заявляет о своей любви к водным видам спорта. Хиллари Клинтон описывает похищенных детей, которых держит в своём винном погребе. Том Круз, наконец, признаётся в том, что мы все время подозревали… что он — Брони. Всё это стало возможным благодаря достижениям в области искусственного интеллекта и компьютерной графики.

Это — будущее фейк новостей. Мы уже давно не верим всему, что читаем, но скоро нам придётся подвергать сомнению все, что мы видим и слышим.

На данный момент существует несколько исследовательских групп, которые работают над захватом и синтезом различных визуальных и аудио элементов человеческого поведения.

Программное обеспечение, разработанное в Стэнфордском университете, способно манипулировать видеозаписями таким образом, что общественный деятель на экране в режиме реального времени повторяет то, что говорит другой человек за кадром. Face2Face захватывает выражения лица этого человека, а затем переносит эти движения непосредственно на лицо персонажа в оригинальном видео. Исследовательская группа продемонстрировала свою технологию путём видеороликов с «участием» Джорджа Буша, Владимира Путина и Дональда Трампа.

Face2Face позволяет манипулировать знаменитостями и политиками, буквально вкладывая слова в их уста.

Сам по себе Face2Face — забавная игрушка для создания мемов и развлекательных ночных ток-шоу. Однако, с добавлением синтезированного голоса, он становится более убедительным — цифровая марионетка не только выглядит как политик, но она также может говорить как политик.

Исследовательская группа в Университете штата Алабама в Бирмингеме работает над симуляцией голоса. Имея всего 3-5 минут записи голоса жертвы — записанном в прямом эфире или вырезанном из видео на YouTube — злоумышленник может создать синтезированный голос, который может обмануть людей и биометрические системы безопасности, используемые некоторыми банками и смартфонами. Затем злоумышленник может говорить в микрофон, и программное обеспечение преобразует его слова в голос жертвы.

Канадский стартап Lyrebird разработал аналогичные возможности, которые, по его словам, могут быть использованы для превращения текста в аудиокниги, которые «прочтут» известные люди или персонажи видеоигр.

Хотя данная технология может приносить пользу, голосовой морфинг может сочетаться с технологией  визуального морфинга для создания убедительных поддельных выступлений общественных деятелей.

Просто взгляните на результат проекта Synthesising Obama Университета Вашингтона, в котором исследователи использовали одну из речей Обамы и с помощью неё анимировали его лицо в совершенно другом видео с невероятной точностью (благодаря обучению нейронной сети с помощью бесчисленных часов видео), и вы поймёте, насколько коварны могут быть эти фальсификации.

Помимо поддельных новостей есть много других последствий, считает Нитеш Саксена, адъюнкт-профессор и директор по исследованиям Университета Алабамы в отделе компьютерных наук Бирмингема. «Вы можете оставить поддельные голосовые сообщения от лица чьей-то мамы. Или оскорблять кого-то и публиковать аудио-образцы в Интернете».

Эти технологии ещё не идеальны. Мимика в видео может показаться немного искажённой или неестественной, а голоса могут звучать немного роботизированно.

Но со временем они смогут точно копировать речь или внешний вид человека — до такой степени, что людям может быть очень сложно обнаружить подделку.

Учитывая уменьшение доверия к средствам массовой информации и необузданное распространение фальсификаций через социальные сети, для новостных организаций станет ещё более важным изучать контент, который выглядит и звучит как реальная запись.

Теперь «реальные» видео будут снабжаться особыми знаками, позволяющими установить время и место её создания, присутствовавших людей и даже соответствие погодных условий.

Люди также должны будут обращать внимание на освещение и тени в видео, независимо от того, являются ли все элементы, присутствующие в кадре, правильными, и отлично ли синхронизируется звук — говорит Мэнди Дженкинс из компании Storyful, которая специализируется на проверке новостного контента.

Поддельный контент может быть отсеян новостными агентствами, но в качестве любительской записи в социальных сетях он может разойтись очень широко и вызвать общественный, политический или дипломатический скандал. Представьте, что на такой записи Трамп объявляет войну Северной Корее, например.

«Если кто-то похож на Трампа и говорит, как Трамп, корейцы подумают, что это и есть Трамп» — говорит Саксена.

«Мы уже видим, что люди верят смонтированным и отредактированным аудио и видеозаписям» — добавляет Дженкинс — «а у данной технологии есть потенциал, чтобы сделать ситуацию ещё хуже».

Оригинал: The Guardian  Автор: Оливия Солон

Источник материала
Настоящий материал самостоятельно опубликован в нашем сообществе пользователем admin на основании действующей редакции Пользовательского Соглашения. Если вы считаете, что такая публикация нарушает ваши авторские и/или смежные права, вам необходимо сообщить об этом администрации сайта на EMAIL abuse@newru.org с указанием адреса (URL) страницы, содержащей спорный материал. Нарушение будет в кратчайшие сроки устранено, виновные наказаны.

You may also like...


Комментарии