Новости раздела

«Сделано с помощью ИИ»: нужна ли метка для искусственного интеллекта?

В Госдуме задумались, как обезопасить страну от вредоносного контента, созданного нейросетями

«Сделано с помощью ИИ»: нужна ли метка для искусственного интеллекта?
Фото: Радиф Кашапов

Несет ли искусственный интеллект угрозу появления огромного массива непроверенной информации, и как фильтровать контент, созданный ИИ, — задумались депутаты Госдумы. Спасения от потенциальной угрозы пока нет. Возможно, Россия пойдет по пути западных стран, обязав технологических гигантов самостоятельно маркировать созданный нейросетями контент. В целом делать это надо, согласились эксперты, но аккуратно, чтобы не затормозить развитие передовых технологий. Что думают о законодательной инициативе министр цифрового развития и его виртуальный помощник АйратAI, созданный на основе ChatGPT, — в материале «Реального времени».

Искусственный интеллект немного ограничат

В Госдуме приступили к разработке законопроекта о маркировке созданного нейросетью контента. Идею еще год назад озвучили в Российском технологическом университете. Как сообщил член комитета Госдумы по информполитике Антон Немкин, депутаты изучают законодательный опыт других стран по поводу маркировки и консультируются с экспертами. По мнению парламентария, в настоящий момент человеку становится сложно отличать реальное от нереального.

— Если рассматривать отдаленную перспективу, то развитие ИИ-сервисов без необходимого контроля несет опасность появления огромных массивов не только никем не проверенных текстов, но и даже полностью выдуманных фактов, цифр и данных, — цитирует его РИА «Новости».

Депутат заявил, что поначалу следует обязать российские ИИ-сервисы автоматически маркировать любые сгенерированные тексты. Это связано с тем, что пока непонятно, как распознавать степень участия машины и искусственного интеллекта в материале.

По пути технологических лидеров

По этому пути уже пошли в США. В июле 2023 года Белый дом объявил о соглашении с крупнейшими американскими технологическими компаниями о внедрении дополнительных мер безопасности в области ИИ. Среди ключевых мер — разработка системы водяных знаков для идентификации контента, созданного с помощью ИИ, что является частью борьбы с дезинформацией и другими рисками, связанными с этой быстро развивающейся технологией.

Cемь крупнейших компаний в области ИИ — Amazon, Anthropic, Google, Inflection, Meta (признана экстремистской и запрещена в РФ), Microsoft и OpenAI — добровольно приняли на себя дополнительные обязательства. В рамках соглашения американские техногиганты должны разработать и внедрить систему водяных знаков для визуального и аудиоконтента.

Американская корпорация Meta уже сообщила, что маркировать ИИ-контент будут в принадлежащих компании приложениях Facebook*, Threads и Instagram*. Ставить пометку «Сделано с помощью ИИ» смогут как пользователи, так и сама компания, если обнаружит признаки работы нейросетей. Ранее Meta запрещала ролики со сгенерированными людьми, если они в видео делали что-то, чего не делали в жизни.

С 18 марта авторы контента на YouTube обязаны помечать свои видеоролики, созданные при помощи искусственного интеллекта. Требование касается только реалистичного контента, который может ввести в заблуждение. Платформа не требует от авторов помечать явно нереалистичный контент, созданный при помощи ИИ. К нему относятся анимация, регулировка цвета или светофильтры, спецэффекты, фильтры красоты или другие визуальные улучшения.

«Важно тщательно проработать детали»

— В условиях быстрого развития ИТ-технологий, в том числе искусственного интеллекта и нейросетей, вопрос о маркировке контента, созданного нейросетями, становится все более актуальным. С одной стороны, маркировка такого контента может способствовать прозрачности и повышению доверия пользователей. Она позволит им легко определять, создан ли контент человеком или искусственным интеллектом. Это особенно важно в контексте обеспокоенности по поводу манипуляций в социальных сетях и других онлайн-платформах, — отметил министр цифрового развития Татарстана Айрат Хайруллин.

«С другой стороны, важно также учитывать потенциальные вызовы и риски, связанные с маркировкой, — добавляет министр. — Например, что произойдет с контентом, созданным совместно человеком и нейросетью? Как будет определяться, что является достаточным вкладом человека, чтобы контент не считался созданным нейросетью? Будет ли маркировка применяться к контенту, созданному для личных целей, или только к контенту, связанному с коммерческими целями?».

Глава Минцифры Татарстана считает, что законопроект о маркировке контента, созданного нейросетями, может быть полезным, но важно тщательно прорабатывать детали его реализации, чтобы не ставить излишние барьеры перед инновациями и научным прогрессом.

Сам Айрат Хайруллин считает технологию искусственного интеллекта, скорее, помощником, нежели угрозой для людей. В феврале прошлого года министр представил бесплатный чат-бот на базе искусственного интеллекта под названием АйратAI. По словам министра, он создан в помощь студентам и школьникам — для получения подсказок или поиска теоретической информации; журналистам или создателям контента — для создания контент-плана, подсказки идеи статей или написания пресс-релизов; программистам — для поисков ошибок в коде; всем тем, кому нужен совет в поиске интересной книги, фильма или выставки.

«Я не имею личного мнения, но могу сказать»

Мы поинтересовались у АйратAI, что он думает о маркировке созданного нейросетями контента.

— Я не имею личного мнения, но могу сказать, что закон о маркировке контента, созданного нейросетями, может быть важным шагом для регулирования такого контента и защиты интересов потребителей. Это может помочь обеспечить прозрачность происхождения контента и предотвратить его злоупотребление. Однако, как и в случае любых законодательных инициатив, важно учитывать потенциальные последствия и балансировать интересы различных сторон.

Сегодня маркировка контента, созданного нейросетями, в основном проводится в странах, где приняты законы и правила в области искусственного интеллекта и автоматизированного контента, рассказал АйратAI. Например, такие меры могут приниматься в США, Европейском союзе, Японии, Южной Корее и других странах, которые располагают развитой технологической инфраструктурой и работают над регулированием использования искусственного интеллекта в различных областях.

Проникновение нейросетей в России АйратAI оценивает как быстрое и успешное. «С каждым годом все больше компаний в России начинают использовать нейронные сети в различных областях, таких как медицина, финансы, технологии, маркетинг и другие. Это позволяет им автоматизировать процессы, повысить эффективность и качество своей работы», — отметил бот.

Искусственный интеллект может потенциально представлять угрозу для людей, если он используется неправильно или неэтично, согласился виртуальный помощник министра. «Например, автономные системы AI военного назначения могут привести к увеличению военных конфликтов и потерям жизней. Также существует опасность использования AI для массового контроля и наблюдения, что может угрожать приватности и свободе граждан», — привел он пример.

«Однако при правильном использовании искусственный интеллект может принести огромные выгоды людям, помогая решать сложные проблемы в медицине, науке, бизнесе и других областях. Важно разрабатывать и использовать AI с соблюдением этических норм и законов, чтобы минимизировать потенциальные угрозы и максимизировать пользу для общества», — резюмировал он.

Технологический предприниматель, инвестор и сооснователь компании «Технократия» Булат Ганиев считает, что подобная маркировка — верное решение.

— Я хорошо отношусь к идее того, что площадки должны «тегировать» контент, созданный искусственным интеллектом. Происхождение контента — вещь принципиальная. Контент сейчас это не только развлечение, но и инструмент влияния. Если в случае с человеком есть субъект, несущий ответственность, то с контентом от ИИ дело обстоит сложнее. И в конечном счете это более честный подход и по отношению к потребителям. Возможно, для кого-то будет принципиальным потреблять контент, который создается именно людьми, — считает Булат Ганиев.

«Заманчиво, но малореализуемо»

«Маркировка созданного нейросетью контента выглядит заманчиво, но практически малореализуемо, — считает Василь Закиев, сооснователь компании «Спутник», экс-руководитель проектов бизнес-инкубатора казанского и челнинского ИТ-парков. — Уже сейчас профессионально созданный ИИ контент не отличим от реального, а мы находимся на самой ранней стадии развития технологии».

— Обязательное присвоение меток всему ИИ-созданному контенту может негативно сказаться на его восприятии, подразумевая его потенциальную недостоверность и уменьшая интеграцию ИИ в креативные и научные области. Это может затормозить развитие и внедрение передовых технологий, — считает Василь Закиев.

«Вместо дорогих и лобовых ограничений правительству лучше сосредоточить усилия на повышении общественной осведомленности о возможностях и рисках ИИ, способствуя ответственности разработчиков ИИ-технологий. Это поможет достичь сбалансированного подхода к инновациям и безопасности, избегая негативного влияния на технологическое развитие», — предлагает предприниматель.

Его комментарий, в частности, был создан с использованием ИИ, добавил Василь. «Стал ли он от этого хуже? Не думаю, — отметил Закиев. — Иллюстрация в Instagram (признана экстремистской и запрещена в РФ) не становится хуже от использования фильтров».

*Деятельность ресурсов признана экстремистской и запрещена в России.

Юлия Гараева
ТехнологииIT Татарстан

Новости партнеров