ЕС договорился запретить ИИ-инструменты для интимных deepfake, созданных без согласия
Европейские переговорщики согласовали запрет на приложения и системы искусственного интеллекта, которые создают сексуализированные изображения людей без их согласия. Для ИИ-компаний это означает новые ограничения, а для пользователей — попытку закрыть одну из самых опасных зон генеративного ИИ.
Страны ЕС и переговорщики Европарламента договорились запретить ИИ-инструменты, которые используются для создания сексуализированных deepfake без согласия изображенного человека. Об этом сообщает AFP со ссылкой на кипрское председательство в Совете ЕС.
Речь идет о приложениях и системах, способных генерировать, изменять или воспроизводить интимные изображения реальных людей без их разрешения. В европейской дискуссии такие сервисы часто называют nudification apps — инструментами, которые позволяют «раздевать» человека на фото или создавать фальшивые сексуализированные изображения.
Новая норма должна стать частью изменений к европейскому закону об искусственном интеллекте. Формально это еще не означает, что запрет уже вступил в силу для всех компаний: согласованный текст должен пройти дальнейшее утверждение в рамках законодательной процедуры ЕС.
Поводом для ускорения регулирования стали скандалы вокруг генерации сексуализированных deepfake, в том числе с участием несовершеннолетних и публичных женщин. Европейские политики утверждают, что такие инструменты создают масштабный риск для частной жизни, репутации, безопасности и психологического состояния жертв.
В марте Европарламент уже поддержал запрет таких ИИ-приложений. Тогда немецкие СМИ писали, что Брюссель хочет закрыть правовой пробел: сам факт распространения интимных материалов без согласия уже признается формой кибернасилия, но отдельные ИИ-системы, которые позволяют быстро создавать такие изображения, требовали прямого запрета.
Теперь речь идет о политическом компромиссе между Европарламентом и Советом ЕС. По данным The Next Web, пакет также меняет сроки применения части норм AI Act: обязанности для некоторых высокорисковых ИИ-систем могут быть перенесены на декабрь 2027 года, а для систем, встроенных в регулируемые продукты, — на август 2028 года.
Для бизнеса это важный сигнал. ЕС не только вводит общие правила для искусственного интеллекта, но и отдельно запрещает конкретные вредные применения технологии. Под удар могут попасть сервисы, которые строят продукт вокруг генерации интимных изображений без согласия, а также платформы, которые не внедряют достаточные защитные механизмы.
Для пользователей практическое значение еще шире. Deepfake уже стал не только политической или развлекательной проблемой, а инструментом травли, шантажа, репутационных атак и цифрового насилия. Особенно уязвимы женщины, подростки, публичные лица и люди, чьи изображения легко найти в соцсетях.
Украинские пользователи работают с теми же глобальными ИИ-сервисами и соцсетями, что и жители ЕС. Если европейские правила заставят платформы блокировать опасные функции и быстрее удалять такие материалы, это может повлиять на стандарты защиты пользователей далеко за пределами Евросоюза.
Для компаний, которые создают или внедряют ИИ-продукты, новый курс ЕС означает необходимость заранее думать о мерах предосторожности: фильтрах, ограничениях на загрузку чужих изображений, механизмах жалоб, маркировке сгенерированного контента и ответственности за вредные функции.
Главный вывод: в Европе ИИ-регулирование переходит от общих разговоров о рисках к запрету конкретных инструментов. Генеративный ИИ остается быстро растущим рынком, но сервисы, которые монетизируют создание интимных deepfake без согласия, в ЕС хотят вывести за пределы закона.
По материалам: AFP/The Star, The Next Web, ZDF, The Verge