Использование ИИ при совершении преступления – отягчающее вину обстоятельство
Нет никаких сомнений в том, что, став неотъемлемой частью нашей жизни, ИИ потребует все больших изменений в законодательстве.
Вот уже законодатели предлагают изменения в статью 63 УК РФ и хотят признать использование искусственного интеллекта в криминальных целях отягчающим обстоятельством.
К примеру, недавно видел в сети, как человек записал голос девушки, загрузил его в ИИ и создал голосовое сообщение от имени девушки с просьбой прислать деньги. Затем отправил голосовое сообщение ее подруге. И та скинула. А если к этому добавить еще и то, что мошенники изучают информацию о своих жертвах и их родных из открытых источников (чаще всего из соцсетей), то вероятность попасться на это повышается в разы.
Что делать?
Если вам приходит голосовое или текстовое сообщение с просьбой прислать деньги или иной материальной просьбой, с просьбой сообщить какие-то личные данные, лучше перезвоните человеку на сотовую связь (не мессенджер), чтобы убедиться, что это именно он прислал сообщение.
При звонках с незнакомых номеров из «Управления всеми управлениям…» или «ФСБ», не обсуждать никакие договоры, пароли, платежи, Госуслуги и все, что касается ваших личных данных. Вообще ни с кем. Просто положите трубку и не поднимайте при повторных звонках. Если это государственный орган, они найдут верифицируемый способ с вами связаться.
Не переходите по сомнительным ссылкам. В одном из чатов, в которых я состою, один адвокат написал «если эти ссылки мошенники, то и хорошо, что не перешел, а если не мошенники, то и не надо на бесполезные вещи тратить время». Абсолютно согласен.
Очевидно, что с каждым годом борьба с мошенничеством с использованием дипфейков будет все сложнее. Это потребует много разных изменений. Какие изменения в законодательстве, по вашему мнению, уже актуальны в связи с незаконным использованием возможностей ИИ?