Ускорение диджитализации приносит много преимуществ обществу. С целью укрепления своего цифрового суверенитета и установления соответствующих стандартов, ЕС в рамках его Цифровой стратегии имеет целью регулировать искусственный интеллект (ИИ), чтобы обеспечить лучшие условия для разработки и использования этой инновационной технологии.
Еще в мае текущего года Совет ЕС одобрил Закон об искусственном интеллекте (далее - Закон), направленный на гармонизацию правил в отношении искусственного интеллекта. Данное флагманское законодательство придерживается подхода, основанного на оценке рисков, что означает, что чем выше риск причинения вреда обществу, тем строже правила. Он является первым в своем роде в мире и может установить глобальный стандарт регулирования ИИ.
В нем говорится о том, что системы искусственного интеллекта, которые можно использовать в различных приложениях, анализируются и классифицируются в соответствии с риском, который они представляют для пользователей. Различные уровни риска будут означать больший или меньший уровень регулирования.
Поэтому новые правила устанавливают обязательства для провайдеров и пользователей в зависимости от уровня риска от искусственного интеллекта. Хотя многие системы искусственного интеллекта представляют минимальный риск, их нужно оценить.
Итак, соответствующий Закон классифицирует виды искусственного интеллекта по неприемлемой и высокой степени риска.
Системы искусственного интеллекта с неприемлемым риском - это системы, которые считаются угрозой для людей и будут запрещены. К ним относятся:
Когнитивно-поведенческие манипуляции с людьми или определенными уязвимыми группами: например, игрушки, активируемые голосом, которые поощряют опасное поведение детей;
Социальный балл: классификация людей на основе поведения, социально-экономического статуса или личностных характеристик;
Биометрическая идентификация и категоризация людей;
Системы биометрической идентификации в режиме реального времени и удаленные, такие как распознавание лиц.
Некоторые исключения могут быть разрешены для правоохранительных целей. Системы дистанционной биометрической идентификации "в режиме реального времени" будут разрешены в ограниченном количестве серьезных случаев, тогда как системы дистанционной биометрической идентификации, где идентификация происходит после значительной задержки, будут допущены к судебному преследованию тяжких преступлений и только после одобрения судом.
Системы искусственного интеллекта, которые негативно влияют на безопасность или основные права, будут считаться высокорискованными и будут разделены на две категории:
1) Системы искусственного интеллекта, которые используются в продуктах, подпадающих под законодательство ЕС о безопасности продукции. Сюда входят игрушки, авиация, автомобили, медицинское оборудование и подъемные механизмы.
2) системы искусственного интеллекта, попадающие в конкретные сферы, которые должны быть зарегистрированы в базе данных ЕС:
Управление и эксплуатация критической инфраструктуры;
Образование и профессиональная подготовка;
Занятость, управление работниками и доступ к самозанятости;
Доступ к основным частным услугам, государственным услугам и льготам по пользованию ими;
Охрана права;
Управление миграцией, предоставление убежища и пограничный контроль;
Юридическое сопровождение в толковании и применении Закона.
Все системы искусственного интеллекта с высоким уровнем риска будут оценены перед выпуском на рынок, а также в течение всего их жизненного цикла. Законом предусмотрено право подавать жалобы на системы искусственного интеллекта в определенные национальные органы.
Практическая реализация Закона состоится через 24 месяца после вступления в силу, но некоторые части будут применяться раньше:
Запрет систем искусственного интеллекта, создающих неприемлемые риски, будет действовать через шесть месяцев после вступления в силу;
Кодексы практики будут применяться через девять месяцев после вступления в силу;
Правила в отношении систем искусственного интеллекта общего назначения, которые должны соответствовать требованиям прозрачности, начнут действовать через 12 месяцев после вступления в силу.
Системы повышенного риска будут иметь больше времени для выполнения требований, поскольку обязательства по ним начнут действовать через 36 месяцев после вступления в силу Закона.
Вся информация для твоей компании - теперь в едином продукте LIGA360. Увеличивай скорость выявления бизнес-рисков: правовых, регуляторных, санкционных, репутационных, судебных, финансовых, договорных. Закажи презентацию прямо сегодня.