Сегодня на встрече с депутатами обсуждали законопроект об искусственном интеллекте. И, как это часто бывает, разговор быстро свёлся к визуальному контенту: дипфейкам, фейковым видео и ИИ-генерированным изображениям. Именно эти примеры чаще всего звучат в новостях, они эмоционально цепляют, и кажутся самым очевидным «злом» ИИ.
Да, угрозы реальны. Более 3500 случаев злоупотребления ИИ только в 2024 году. Поддельные голоса, лица, фейки с публичными людьми, в том числе женщинами. Но в основном это приходит извне. И тут встаёт честный вопрос: как мы собираемся это контролировать? Как будет выглядеть взаимодействие с Meta или Telegram?
НО! Главные риски — это не картинка, а алгоритм. ИИ, который без объяснения отказывает в приёме на работу. Кредитный скоринг, не прошедший этическую проверку. Медицинская рекомендация, сгенерированная без лицензии. Тысячи ИИ-комментариев, создающих иллюзию общественного мнения. Это те процессы, где ИИ уже меняет структуру социальных решений.
Мы говорим о маркировке — но что конкретно маркировать и кто будет этим заниматься? Соцсети уже внедрили теги “сгенерировано ИИ”. Если человек скачал изображение из Midjourney и залил его в Telegram — кто должен это отметить? И как? А если баннер рекламный, и нейросеть только убрала фон — это уже считается ИИ-контентом? Где граница? И кто её определяет?
И если уж мы говорим про метки — давайте честно: это не главное. Давайте лучше обсудим куда более важную и сложную тему — регулирование авторского права на контент, созданный с помощью ИИ.
Сегодня десятки тысяч дизайнеров, иллюстраторов, фотографов и даже журналистов уже используют нейросети в работе. Где проходит грань между автором и алгоритмом? Кому принадлежат права на изображение, сгенерированное по описанию? Кто несёт ответственность, если в картинке — элементы чужой работы? Можно ли вообще запатентовать или защитить ИИ-контент?
Без ответов на эти вопросы обсуждать «маркировку» — всё равно что обсуждать ярлык на книге, не решив, кто её автор.
Более того, прозвучали предложения о наказании вплоть до конфискации имущества и 15 суток административного ареста. Некоторые предложили ввести даже уголовное наказание. Это вызвало у многих вполне закономерную реакцию: а где границы? где критерии? За что именно будет наказываться человек? За публикацию дипфейка? А если это шутка, фильтр, реклама, а не злой умысел? Будут ли наказания различаться для подростка, эксперта, блогера, бизнесмена? Как отличить опасный deepfake от ироничного ролика?
Мы ведь пока не определили даже базовых категорий риска. Ни в тексте законопроекта, ни в публичном обсуждении нет чёткой системы: какие действия с ИИ считаются низкоопасными (например, мемы), какие — среднеопасными (манипуляции в рекламе), а какие — высокоопасными (вмешательство в выборы, подделка официальных заявлений, шантаж).
Если мы заранее не обозначим эту шкалу рисков, не пропишем градацию ответственности, есть опасность, что правоприменение будет работать по принципу “кому как повезёт”. Один получит предупреждение, другой — арест. Один — штраф, другой — уголовное дело. Причём не за то, что нанёс вред, а за то, что оказался под рукой.
И ещё один важный вопрос, о котором почти не говорили: почему мы начинаем с наказания? Почему логика сразу ведёт к конфискации, аресту, уголовной ответственности? А где система предупреждений, разъяснений, профилактики?
Если человек использует ИИ-изображение в TikTok, даже не зная, что это нарушает что-то — он сразу преступник? А если школьник сгенерировал ролик в приложении с фильтром — его уже нужно судить?
В мире, где технологии меняются быстрее законов, первыми должны быть обучение и просвещение, а не дубинка. Сначала объяснить: «вот так можно», «вот так — опасно», «если нарушишь — будет ответственность». А не наоборот: сделать закон непонятным, а потом ловить тех, кто не понял.
Даже в дорожном движении есть знаки, зебры, предупреждающие табло, а уже потом — штраф. Почему в сфере ИИ мы хотим сразу сажать, не дав человеку шанса понять, что он вообще нарушил?
@pulatov_kh