Новости раздела

Фейковые аудио и видео могут повлиять на выборы в разных странах в 2024 году

Фейковые аудио и видео могут повлиять на выборы в разных странах в 2024 году
Фото: Екатерина Петрова / Создано с помощью нейросети Kandinsky

Согласно исследованию Центра противодействия цифровой ненависти, компании, занимающиеся клонированием голосов, мало что делают для предотвращения использования своей технологии в дезинформационных целях в предвыборных гонках в этом году. Центр протестировал шесть различных сервисов клонирования голосов: Invideo AI, Veed, ElevenLabs, Speechify, Descript и PlayHT. Исследователи попытались создать фальшивые аудио с голосами восьми известных политиков, генерируя по пять ложных заявлений для каждого из них.

В 193 из 240 случаев сервисы успешно создали убедительные аудиозаписи с фальшивыми заявлениями. Один из сервисов даже предложил улучшенный сценарий для дезинформации. Например, было создано фальшивое аудио с голосом премьер-министра Великобритании Риши Сунака, извиняющегося за использование предвыборных средств для личных нужд.

Наихудшие результаты показали сервисы Speechify и PlayHT, которые не заблокировали ни одно из 40 запросов на создание фальшивых голосов. Descript, Invideo AI и Veed требуют загрузки аудио, где человек произносит нужную фразу, но это ограничение легко обходится с помощью другого сервиса, который сначала генерирует фальшивое аудио.

Федеральная комиссия по связи (FCC) запретила робозвонки, это было сделано в рамках борьбы с робозвонками, а не из-за проблемы с фальшивками и дипфейками. Екатерина Петрова / Создано с помощью нейросети Kandinsky

Единственным сервисом, который частично блокировал создание фальшивых голосов, оказался ElevenLabs. В 25 из 40 случаев он отклонил запросы на создание клона голоса известных политиков. Однако даже этот сервис создал 14 ложных заявлений для политиков из ЕС, которые, вероятно, еще не добавлены в их список запрещенных клонов.

Наихудшие результаты продемонстрировал Invideo AI, который не только не заблокировал ни одного запроса, но и самостоятельно улучшил сценарий дезинформации. Исследователи обнаружили, что сервис автоматически дополнял сценарии, создавая собственные ложные заявления. Например, фальшивое аудио с голосом Джо Байдена, предупреждающим о бомбовых угрозах на избирательных участках, было дополнено AI до полноценного видео.

Уже зафиксированы случаи использования фальшивого Байдена в незаконных робозвонках, чтобы распространить ложные публичные заявления в районах, где ожидается острая борьба на выборах. Хотя Федеральная комиссия по связи (FCC) запретила такие звонки, это было сделано в рамках борьбы с робозвонками, а не из-за проблемы с фальшивками и дипфейками.


Подписывайтесь на телеграм-канал, группу «ВКонтакте» и страницу в «Одноклассниках» «Реального времени». Ежедневные видео на RUTUBE, «Дзене» и ютьюб-каналах «Спорт», «Общество и культура», «Бизнес и технологии».

Екатерина Петрова

Подписывайтесь на телеграм-канал, группу «ВКонтакте» и страницу в «Одноклассниках» «Реального времени». Ежедневные видео на Rutube, «Дзене» и Youtube.

ТехнологииITМедиа

Новости партнеров