Ця сторінка доступна рідною мовою. Перейти на українську

Вступил в силу Европейский закон об искусственном интеллекте. Об основных требованиях и обязательствах при использовании искусственного интеллекта

Предложенный Европейской Комиссией в апреле 2021 года и одобренный Европейским парламентом и Советом ЕС в декабре 2023 года, Закон об искусственном интеллекте вступил в силу в ЕС.  

Данный Закон предоставляет разработчикам и развертывателям систем четкие требования и обязательства по конкретному использованию искусственного интеллекта, одновременно уменьшая административное и финансовое бремя для бизнеса.  

Обязательства, предусмотренные соответствующим Законом могут касаться как поставщиков (например, разработчика инструмента для проверки резюме), так и развертывателей систем искусственного интеллекта (например, банка, который покупает этот инструмент проверки).  

Существуют определенные исключения из регулирования. Деятельность, связанная с исследованиями, разработками и созданием прототипов, которые проводятся до выпуска системы искусственного интеллекта на рынок, не подпадают под действие этих правил. Кроме того, системы искусственного интеллекта, предназначенные исключительно для военных, оборонных целей или целей национальной безопасности, также освобождаются от регулирования, независимо от типа организации, осуществляющей эту деятельность.    

Закон об искусственном интеллекте вводит единую структуру для всех стран ЕС, основанную на дальновидном определении искусственного интеллекта и подходе, основанном на оценке рисков: 

  • Минимальный риск: большинство систем искусственного интеллекта, таких как спам-фильтры и видеоигры с поддержкой искусственного интеллекта, не сталкиваются с обязательствами в соответствии с Законом об искусственном интеллекте, но компании могут добровольно принять дополнительные кодексы поведения.   

  • Специфический риск прозрачности: такие системы, как чат-боты, должны четко информировать пользователей о том, что они взаимодействуют с машиной, тогда как определенный контент, созданный искусственным интеллектом, должен быть обозначен как таковой.   

  • Высокий риск: системы искусственного интеллекта с высоким риском, такие как медицинское программное обеспечение на основе искусственного интеллекта или системы искусственного интеллекта, используемые для подбора персонала, должны соответствовать строгим требованиям, включая системы снижения рисков, высокое качество наборов данных, четкую информацию о пользователях, человеческий надзор и тому подобное. 

  • Неприемлемый риск: например, системы искусственного интеллекта, которые позволяют правительствам или компаниям "оценивать социальные показатели", считаются явной угрозой основным правам людей и поэтому запрещены. Такими особенно вредными применениями искусственного интеллекта являются:  

  • Эксплуатация уязвимостей лиц, манипулирование и использование подсознательных приемов; 

  • Социальный скоринг для государственных и частных целей;  

  • Индивидуальная предиктивная полиция, основанная исключительно на профилировании людей;  

  • Нецеленаправленное скрейпинг Интернета или камер видеонаблюдения для получения изображений лица для создания или расширения баз данных; 

  • Распознавание эмоций на рабочем месте и в учебных заведениях, за исключением медицинских причин или соображений безопасности (например, мониторинг уровня усталости пилота);  

  • Биометрическая категоризация физических лиц для определения или определения их расы, политических взглядов, членства в профсоюзах, религиозных или философских убеждений или сексуальной ориентации. Маркировка или фильтрация наборов данных и категоризация данных в сфере правоохранительных органов по-прежнему будут возможны;  

  • Дистанционная биометрическая идентификация в режиме реального времени в общедоступных местах правоохранительными органами, за узкими исключениями. 

Измени подход к информационной безопасности в своей компании. Комплексно отслеживай всю необходимую информацию в одном продукте LIGA360. Закажи презентацию сегодня

Классификация рисков основывается на целевом назначении системы искусственного интеллекта, в соответствии с действующим законодательством ЕС о безопасности продукции. Это означает, что классификация зависит от функции, которую выполняет система искусственного интеллекта, а также от конкретной цели и способов, для которых используется система.  

Системы искусственного интеллекта можно отнести к категории высокого риска в двух случаях: 

  • Если система искусственного интеллекта встроена как компонент безопасности в продукты, на которые распространяется действующее законодательство ЕС о безопасности продукции, или является самой такой продукцией. Это может быть, например, медицинское программное обеспечение на основе искусственного интеллекта.  

  • Если система искусственного интеллекта предназначена для использования в условиях высокого риска в соответствии с Законом об искусственном интеллекте. Нормы Закона включают примеры использования искусственного интеллекта в таких сферах, как образование, трудоустройство, правоохранительные органы или миграция. 

Что касается защиты основных прав и избежания дискриминации, то по сообщениям Европейской комиссии, на уровне ЕС и государств-членов существует человекоориентированный подход к искусственному интеллекту, обеспечивающий соответствие приложений искусственного интеллекта законодательству об основных правах.  

Интегрируя требования к подотчетности и прозрачности в разработку систем искусственного интеллекта с высоким уровнем риска и совершенствуя возможности правоприменения, авторы данного закона могут гарантировать, что эти системы изначально разработаны с учетом соблюдения законодательства. В случае выявления нарушений такие требования позволят национальным органам власти иметь доступ к информации, необходимой для расследования того, соответствовало ли использование искусственного интеллекта законодательству ЕС. 

Кроме того, Закон об искусственном интеллекте требует, чтобы определенные развертыватели систем искусственного интеллекта с высоким риском проводили оценку воздействия на основные права.  

Закон об искусственном интеллекте устанавливает двухуровневую систему управления, где национальные органы власти отвечают за надзор и соблюдение правил для систем искусственного интеллекта, тогда как уровень ЕС отвечает за управление моделями искусственного интеллекта общего назначения.  

Для обеспечения согласованности и сотрудничества во всем ЕС будет создан Европейский совет по искусственному интеллекту (AI Board), в состав которого войдут представители государств-членов, со специализированными подгруппами для национальных регуляторов и других компетентных органов. 

Офис искусственного интеллекта, исполнительный орган Европейской Комиссии для Закона об искусственном интеллекте, будет предоставлять стратегические указания Совету по искусственному интеллекту.  

Кроме того, Закон об искусственном интеллекте учреждает два консультативных органа для предоставления экспертного вклада: Научную группу и Консультативный форум. Эти органы будут предоставлять ценную информацию от заинтересованных сторон и междисциплинарных научных сообществ, информируя о принятии решений и обеспечивая сбалансированный подход к разработке искусственного интеллекта. 

Нова LIGA360 змінює все! Единый продукт для всей компании. Выявляет правовые, партнерские, финансовые, санкционные, репутационные риски. Помогает принимать аргументированные решения, используя силу информации на 360. Закажи презентацию для своей компании

Подпишитесь на рассылку
Получайте по понедельникам weekly-digest о ключевых событиях бизнеса
Оставьте комментарий
Войдите, чтобы оставить комментарий
Войти
На эту тему