Новости раздела

Статья за дипфейк: «Предложение, безусловно, интересно, но достаточно преждевременно»

Эксперты оценили предложение ввести уголовную ответственность за использование технологий дипфейков в преступных целях

В Госдуму на этой неделе собираются внести законопроект об уголовной ответственности за использование технологий дипфейков в преступных целях. За это может грозить штраф до 1,5 млн рублей и лишение свободы сроком до 7 лет в зависимости от статьи УК. По словам экспертов, инициатива является преждевременной и ее реализация может повлечь за собой большое количество уголовных дел за «абсолютно шуточные истории». Что еще говорят участники рынка об инициативе — в материале «Реального времени».

Есть много примеров, когда люди остаются без всего из-за подделок их голоса

Инициатором законопроекта выступил глава Комитета по труду, социальной политике и делам ветеранов Ярослав Нилов. Он предложил ввести в ряд статей Уголовного кодекса РФ, такие как «Клевета», «Кража», «Мошенничество», «Вымогательство» и «Причинение имущественного ущерба путем обмана или злоупотребления доверием», дополнительный квалифицирующий признак — «совершение преступления с использованием изображения или голоса (в том числе фальсифицированных или искусственно созданных) и биометрических данных». Речь об использовании технологии дипфейка, «цифровых масок» и т. д.

В зависимости от статьи, по которой было совершено преступление с использованием дипфейков, виновному будет грозить штраф до 1,5 млн рублей или в размере иного дохода за период до двух лет, либо же лишение свободы на срок до семи лет.

— Есть много примеров, когда люди остаются без всего из-за подделок их голоса. Поэтому в УК предлагается предусмотреть современные реалии, — пояснил автор инициативы и напомнил случай во время прямой линии Владимира Путина, когда вопрос президенту страны задал его дипфейк, который представился «студентом СПбГУ».

«Шутнику может грозить уголовное наказание, а это не совсем то, что нужно для развития современных технологий»

Как сообщил «Реальному времени» Алексей Лукацкий, бизнес-консультант по информационной безопасности Positive Technologies, наказывать за дипфейки пока рано.

— Данное предложение, безусловно, интересно, но, на мой взгляд, оно достаточно преждевременно. Дело в том, что пока у нас не очень развиты технологии дипфейков, и в целом очень сложно отделить игрушку, связанную с применением искусственного интеллекта в шуточных целях, и применение его с неким злым умыслом, — сообщил он.

По его словам, инициатива может иметь не самые приятные последствия:

— Есть вероятность, что неточное определение, которое будет указано в Уголовном кодексе, может повлечь за собой неоправданное количество большого числа уголовных дел за, казалось бы, абсолютно шуточные истории, которые достаточно часто встречаются в интернете, когда тому или иному, может быть, известному человеку заменяют лицо либо голос и так далее. Если этот человек посчитает, что его права ущемлены, то шутнику может грозить уголовное наказание, а это, наверное, не совсем то, что нужно для развития современных технологий.

«Есть вероятность, что неточное определение, которое будет указано в Уголовном кодексе, может повлечь за собой неоправданное количество большого числа уголовных дел за, казалось бы, абсолютно шуточные истории». Динар Фатыхов / realnoevremya.ru

С начала 2024 года в России стали фиксироваться случаи мошеннических схем с применением технологий дипфейков

Тем не менее, как заявили изданию в пресс-службе Angara Security, регулирование применения технологий создания дипфейков необходимо с точки зрения информационной безопасности. В феврале аналитики компании выявили существенный прирост — на 45% — сообщений с предложением озвучить «рекламу» или «фильм». Их распространяют через Telegram, Habr или спам-звонки. Авторы предлагают заработать на «большом проекте», а затем просят указывать имена или ставят условие, что записанный аудиофайл должен быть похожим на телефонный звонок. За участие в подобных проектах предлагают гонорар от 300 до 5 000 рублей

— В результате сбора голосовых данных кибепреступники получили возможность усовершенствовать тактики фишинговых атак на частных лиц и бизнес, для которых используются аудио- и видеофейки, — сделали вывод аналитики компании.

В целом с начала 2024 года в России стали фиксироваться случаи мошеннических схем, в которых применяются в совокупности техники социальной инженерии и дипфейк.

— Цель такой атаки заключается в том, чтобы получить денежные средства от сотрудников компании, которые получают сообщения от фейкового аккаунта руководителя в Telegram. Например, в январе в отношении одной из компаний применялась подобная техника. Сначала были украдены несколько аккаунтов пользователей Telegram, затем были получены аудиофайлы (голосовые сообщения). Эти данные использовались для генерации поддельных записей, в которых мошенники от имени владельца аккаунта вымогали денежные средства у пользователей, которые состояли вместе с ним в различных чатах и рабочих группах, — рассказали в Angara Security.

В феврале аналитики компании выявили существенный прирост — на 45% — сообщений с предложением озвучить «рекламу» или «фильм». Их распространяют через Telegram, Habr или спам-звонки. Реальное время / realnoevremya.ru

Также дипфейки могут применяться в видеосвязи — например, преступники использовали технологии аудио- и видеофейка, чтобы от имени «доверенных» лиц убедить сотрудника перевести крупную сумму денег.

— Ожидаем, что тренд на такого рода атаки будет только набирать обороты с развитием технологий ИИ. Поэтому крайне важно сформировать методы и способы распознавания фейковых материалов и решать вопрос на уровне законодательства, чтобы снизить риски для кибербезопасности обычных пользователей цифровых сервисов и бизнеса, — подытожили эксперты.

Статические дипфейки выявить можно, а вот динамические — гораздо сложнее

Выявить преступления с использованием дипфейков со стопроцентной вероятностью сейчас невозможно, пояснил Алексей Лукацкий.

— Существуют достаточно дорогостоящие технологии, которые могут отчасти выявлять и блокировать дипфейки. Как правило, статические. Выявлять динамические дипфейки гораздо сложнее. И тем более это сложно делать по мере развития технологий искусственного интеллекта, которые начинают объединять различные модальности, объединять голос, видео и движение губ, и мимику лица. В этом случае, конечно же, обнаружить со стопроцентной вероятностью будет вообще невозможно. А как следствие, здесь также возможны перекосы и перегибы с точки зрения уголовного преследования, — выразил мнение эксперт.

В Angara Security уточнили, что для выявления следов работы ИИ, в том числе аудио- и видеофейков, начали разрабатываться инструменты по выявлению фейков:

— Например, российский проект «Зефир», представленный летом прошлого года, способный обнаруживать искусственно созданные (аудио-, видеофейки) с высокой вероятностью. Создание новых инструментов и наработок позволит в ближайшем будущем упростить выявление и распространение таких материалов.

Ограничения будут, но рынок выживет

По мнению компании, регулирование дипфейков при производстве рекламы, маркетинговых материалов потребует решить вопрос с маркировкой контента, созданного ИИ. Напомним, такой закон сейчас разрабатывается в Госдуме. Как сообщил член Комитета Госдумы по информполитике Антон Немкин, депутаты изучают законодательный опыт других стран по поводу маркировки и консультируются с экспертами. По мнению парламентария, в настоящий момент человеку становится сложно отличать реальное от нереального.

— А если рассматривать отдаленную перспективу, то развитие ИИ-сервисов без необходимого контроля несет опасность появления огромных массивов не только никем не проверенных текстов, но и даже полностью выдуманных фактов, цифр и данных, — сказал он.

По мнению компании, регулирование дипфейков при производстве рекламы, маркетинговых материалов потребует решить вопрос с маркировкой контента, созданного ИИ. Максим Платонов / realnoevremya.ru

При этом в Angara Security видят перспективы преследования преступников, которые используют дипфейки для мошенничества в мессенджерах:

— Так, например, ЦБ отмечает рост хищений средств граждан из банков через Систему быстрых платежей, которую стали использовать мошенники, в том числе с применением дипфейк-технологий. Так, в первом квартале 2024 года через СБП было похищено 1,13 млрд руб., в то время как год назад — чуть более 550 млн руб. Поэтому ожидаем, что регулирование отрасли положительно повлияет на регулирование легального рынка ИИ-контента и борьбу с киберпреступностью.

Что касается рынка информационных технологий, то он выживет «абсолютно в любых условиях», считает Алексей Лукацкий.

— Безусловно, будут какие-то ограничения, в том числе в различные лицензионные соглашения включат соответствующие отказы от ответственности. Разумеется, стоимость за такого рода технологии, как генерации видеоизображений, так и детекта такого рода дипфейков, вырастет, — заключил бизнес-консультант по информационной безопасности Positive Technologies.

Дарья Пинегина

Подписывайтесь на телеграм-канал, группу «ВКонтакте» и страницу в «Одноклассниках» «Реального времени». Ежедневные видео на Rutube, «Дзене» и Youtube.

Технологии Татарстан

Новости партнеров