👾 Искусственный интеллект в играх. К чему приведет этот тандем?
23 апреля в ситуационном центре Роскомнадзора прошел круглый стол «Правовое регулирование видеоигровой индустрии и внутриигрового контента в контексте проекта Федерального закона «О деятельности по разработке и распространению видеоигр на территории Российской Федерации».
О проблемах регулирования ИИ в компьютерных играх рассказал Виктор Наумов, доктор юридических наук, главный научный сотрудник сектора информационного права и международной информационной безопасности ИГП РАН, профессор кафедры информационного права и цифровых технологий Университета имени О.Е. Кутафина, партнер юрфирмы Nextons, руководитель проекта «Сохраненная культура».
Собрали главное:
➡️ Применение искусственного интеллекта (ИИ) в играх в условиях развитых технологий и повышения их привлекательности будет создавать большие риски, чем в подавляющем большинстве других сфер – у игр всегда много пользователей.
➡️ ИИ активно помогает в разработке игр, но его использование сопряжено и с правовыми рисками. Например, недопустимо, чтобы поведенческие характеристики и другая чувствительная информация игрока использовалась для формирования сценария игры.
➡️ В результате геополитического противостояния возникает тенденция негативно-ориентированного машинного обучения. Нужно понять, кто обучает персонажей, на какой системе ценностей и установок и какое в итоге поведение игроки реализуют. Задача государства – понять, как это контролировать.
Что делать в этих реалиях?
✅ Включить в законодательство обязательную междисциплинарную экспертизу применения ИИ. Особенно в правоотношениях с участием несовершеннолетних. Игры с ИИ, ориентированные на многомиллионную аудиторию и имеющие сложные сценарии, нужно сначала тестировать, а уже потом выпускать.
✅ Ввести нормы по ограничению использования ИИ в компьютерных играх для детей и правовые нормы, связанные с защитой их творческих навыков, которые мы рискуем потерять, постоянно используя генеративный искусственный интеллект. Предусмотреть право человека и гражданина на отказ от использования ИИ в избранных сферах.
✅ Определить ответы на главный нерешенный сейчас вопрос – кто и за что несет юридическую ответственность в сфере ИИ.
✅ Ограничить пропаганду ИИ («одушевление», «очеловечивание» технического), вести контрпропаганду и поддерживать саморегулирование отрасли с реальными шагами по самоограничению игроков.