Ця сторінка доступна рідною мовою. Перейти на українську

Различные правила для разных уровней риска в рамках первого Закона об искусственном интеллекте

Ускорение диджитализации приносит много преимуществ обществу. С целью укрепления своего цифрового суверенитета и установления соответствующих стандартов, ЕС в рамках его Цифровой стратегии имеет целью регулировать искусственный интеллект (ИИ), чтобы обеспечить лучшие условия для разработки и использования этой инновационной технологии.

Еще в мае текущего года Совет ЕС одобрил Закон об искусственном интеллекте (далее - Закон), направленный на гармонизацию правил в отношении искусственного интеллекта. Данное флагманское законодательство придерживается подхода, основанного на оценке рисков, что означает, что чем выше риск причинения вреда обществу, тем строже правила. Он является первым в своем роде в мире и может установить глобальный стандарт регулирования ИИ.

В нем говорится о том, что системы искусственного интеллекта, которые можно использовать в различных приложениях, анализируются и классифицируются в соответствии с риском, который они представляют для пользователей. Различные уровни риска будут означать больший или меньший уровень регулирования.

Поэтому новые правила устанавливают обязательства для провайдеров и пользователей в зависимости от уровня риска от искусственного интеллекта. Хотя многие системы искусственного интеллекта представляют минимальный риск, их нужно оценить.

Итак, соответствующий Закон классифицирует виды искусственного интеллекта по неприемлемой и высокой степени риска.

Системы искусственного интеллекта с неприемлемым риском - это системы, которые считаются угрозой для людей и будут запрещены. К ним относятся:

  • Когнитивно-поведенческие манипуляции с людьми или определенными уязвимыми группами: например, игрушки, активируемые голосом, которые поощряют опасное поведение детей;

  • Социальный балл: классификация людей на основе поведения, социально-экономического статуса или личностных характеристик;

  • Биометрическая идентификация и категоризация людей;

  • Системы биометрической идентификации в режиме реального времени и удаленные, такие как распознавание лиц.

Некоторые исключения могут быть разрешены для правоохранительных целей. Системы дистанционной биометрической идентификации "в режиме реального времени" будут разрешены в ограниченном количестве серьезных случаев, тогда как системы дистанционной биометрической идентификации, где идентификация происходит после значительной задержки, будут допущены к судебному преследованию тяжких преступлений и только после одобрения судом.

Системы искусственного интеллекта, которые негативно влияют на безопасность или основные права, будут считаться высокорискованными и будут разделены на две категории:

1) Системы искусственного интеллекта, которые используются в продуктах, подпадающих под законодательство ЕС о безопасности продукции. Сюда входят игрушки, авиация, автомобили, медицинское оборудование и подъемные механизмы.

2) системы искусственного интеллекта, попадающие в конкретные сферы, которые должны быть зарегистрированы в базе данных ЕС:

  • Управление и эксплуатация критической инфраструктуры;

  • Образование и профессиональная подготовка;

  • Занятость, управление работниками и доступ к самозанятости;

  • Доступ к основным частным услугам, государственным услугам и льготам по пользованию ими;

  • Охрана права;

  • Управление миграцией, предоставление убежища и пограничный контроль;

  • Юридическое сопровождение в толковании и применении Закона.

Все системы искусственного интеллекта с высоким уровнем риска будут оценены перед выпуском на рынок, а также в течение всего их жизненного цикла. Законом предусмотрено право подавать жалобы на системы искусственного интеллекта в определенные национальные органы.

Практическая реализация Закона состоится через 24 месяца после вступления в силу, но некоторые части будут применяться раньше:

  • Запрет систем искусственного интеллекта, создающих неприемлемые риски, будет действовать через шесть месяцев после вступления в силу;

  • Кодексы практики будут применяться через девять месяцев после вступления в силу;

  • Правила в отношении систем искусственного интеллекта общего назначения, которые должны соответствовать требованиям прозрачности, начнут действовать через 12 месяцев после вступления в силу.

Системы повышенного риска будут иметь больше времени для выполнения требований, поскольку обязательства по ним начнут действовать через 36 месяцев после вступления в силу Закона.

Вся информация для твоей компании - теперь в едином продукте LIGA360. Увеличивай скорость выявления бизнес-рисков: правовых, регуляторных, санкционных, репутационных, судебных, финансовых, договорных. Закажи презентацию прямо сегодня

Подпишитесь на рассылку
Получайте по понедельникам weekly-digest о ключевых событиях бизнеса
Оставьте комментарий
Войдите, чтобы оставить комментарий
Войти
На эту тему