В Евросоюзе вступили в силу новые требования к разработчикам ИИ

С 2 августа в Европейском союзе начали действовать новые требования к прозрачности искусственного интеллекта (ИИ) общего назначения — таких как ChatGPT и Gemini. Теперь разработчики обязаны раскрывать, на каких данных обучались их модели и какие меры безопасности применяются.
По новым правилам, разработчики ИИ обязаны раскрывать принципы работы своих моделей и данные, использованные для их обучения. Самые продвинутые модели, считающиеся потенциальными источниками рисков для общественности, обязаны документировать принимаемые меры безопасности. Нововведения направлены в том числе на защиту интеллектуальной собственности и прав авторов и владельцев контента, пишет Deutsche Welle.
Со 2 августа граждане Евросоюза могут подавать в суд против ИИ-систем в случае нарушения новых правил.
Контроль за соблюдением требований будет осуществлять недавно созданный европейский надзорный орган — European AI Office. Он начнёт проверку новых моделей с августа 2026 года, а тех, что вышли до 2 августа 2025 года, — с августа 2027 года. По прогнозам экспертов, сумма возможных штрафов за несоблюдение норм может достигать 14,75 млн евро, что эквивалентно 3% от годового объёма рынка ИИ-услуг.
ИИ — не игрушка: ЕС регулирует искусственный интеллект
Первый в мире международный закон об ИИ был внедрен в Европейском союзе. 13 марта 2024 года его одобрил Европарламент, а 21 мая документ был утверждён министрами стран-членов ЕС. Цель нового закона — защита фундаментальных прав, демократии, верховенства закона и экологической устойчивости от высокорискованного искусственного интеллекта.
2 февраля, после переходного периода, первые правила использования ИИ в Евросоюзе вступили в силу. В частности, было запрещено использовать искусственный интеллект:
- для создания социального рейтинга граждан стран ЕС (такая технология уже используется в Китае)
- для распознавания эмоций на рабочих местах или в образовательных учреждениях.
- для манипулирования поведением людей, особенно если речь идёт об уязвимых группах населения. Пример — роботизированные звонки с использованием ИИ, которые могут использоваться для обмана пожилых людей. Как утверждала в том числе молдавская полиция, в некоторых случаях обмана по схеме «родственник попал в ДТП» мошенники использовали дипфейк — смоделированную ИИ речь якобы попавших в ДТП родных.
Распознавание искусственным интеллектом лиц людей в общественных местах с помощью камер видеонаблюдения в ЕС также в принципе запрещено, однако из этого правила сделано исключение для правоохранительных органов при расследовании преступлений, связанных с торговлей людьми и терроризмом.
Читайте также:
- «Матрёшка» нацелилась на Майю Санду — кремлеботы усилили атаки с помощью ИИ
- Эстония устанавливает заграждение на границе с Россией
- Вилла за €10 млн: как сын Матвиенко живёт в Италии и уводит активы в Сан-Марино
nokta