
Законодатели Европейского Союза, разрабатывающие правила применения искусственного интеллекта, рассматривают возможность штрафов в размере до 4% от глобального годового оборота (или 20 миллионов евро, если больше) за набор запрещенных сценариев использования, согласно просочившемуся проекту регулирование ИИ, о котором ранее сообщал Politico, как ожидается, будет официально обнародовано на следующей неделе.
План по регулированию ИИ был на карте некоторое время. Еще в феврале 2020 года Европейская комиссия опубликовала официальный документ, в котором излагаются планы по регулированию так называемых «высокорисковых» приложений искусственного интеллекта.
В то время законодатели ЕС играли с отраслевым фокусом, предусматривая определенные секторы, такие как энергетика и найм. как векторы риска. Однако этот подход, похоже, был переосмыслен согласно просочившемуся проекту, который не ограничивает обсуждение рисков ИИ конкретными отраслями или секторами.
Вместо этого основное внимание уделяется требованиям соответствия для приложений ИИ с высоким уровнем риска, где бы они ни возникали ( однако использование оружия / в военных целях специально исключено, поскольку такие варианты использования выходят за рамки договоров ЕС). Хотя из этого проекта не совсем ясно, как именно будет определяться «высокий риск».
Общая цель Комиссии состоит в том, чтобы повысить общественное доверие к ИИ с помощью системы сдержек и противовесов, основанной на «ценностях ЕС». чтобы стимулировать распространение так называемого «заслуживающего доверия» и «ориентированного на человека» ИИ. Таким образом, даже создатели приложений ИИ, которые не считаются «высокорисковыми», по-прежнему будут поощряться к принятию кодексов поведения – «для содействия добровольному применению обязательных требований, применимых к системам ИИ с высоким уровнем риска», как заявляет Комиссия. [19659002] Еще одна часть постановления касается мер по поддержке развития ИИ в блоке – подталкивая государства-члены к созданию нормативных схем «песочницы», в которых стартапам и МСП может быть назначена поддержка в разработке и тестировании систем ИИ перед их выводом на рынок. [19659002] Компетентные органы «должны быть наделены полномочиями осуществлять свои дискреционные полномочия и рычаги пропорциональности в отношении проектов искусственного интеллекта субъектов, участвующих в песочнице, при полном сохранении надзорных и корректирующих полномочий органов власти», – отмечается в проекте.
Что такое высокий риск AI ?
Согласно запланированным правилам, те, кто намеревается применить искусственный интеллект, должны будут определить, подходит ли конкретный вариант использования i «высокий риск» и, следовательно, нужно ли им проводить обязательную предпродажную оценку соответствия или нет.
«Классификация ИИ-системы как высокорисковой должна основываться на ее предполагаемом назначении, что должно относиться к использование, для которого предназначена система ИИ, включая конкретный контекст и условия использования и – и определяться в два этапа с учетом того, может ли оно причинить определенный вред, и, если да, серьезность возможного вреда и вероятность его возникновения, »Содержится одно изложение в проекте.
« Классификация системы искусственного интеллекта как системы высокого риска для целей настоящего Регламента не обязательно означает, что система как таковая или продукт в целом будет обязательно рассматриваться как «высокий уровень риска». -риск »в соответствии с критериями отраслевого законодательства», – также уточняется текст.
Примеры «вреда», связанного с системами искусственного интеллекта высокого риска, перечислены в проекте, включая: «травма или смерть человека, ущерб имущества, системные неблагоприятные воздействия на общество в целом, значительные сбои в предоставлении основных услуг для обычного ведения критически важной экономической и социальной деятельности, неблагоприятное воздействие на финансовые, образовательные или профессиональные возможности людей, неблагоприятное воздействие на доступ к государственным услугам и любой форме государственной помощи, и неблагоприятное воздействие на [European] основные права ».
Также обсуждаются несколько примеров приложений с высокой степенью риска, включая системы найма; системы, обеспечивающие доступ к образовательным или профессиональным учебным заведениям; системы диспетчеризации экстренных служб; оценка кредитоспособности; системы, участвующие в определении распределения льгот, финансируемых налогоплательщиками; системы принятия решений, применяемые в отношении предотвращения, раскрытия и судебного преследования преступлений; и системы принятия решений, используемые для оказания помощи судьям.
До тех пор, пока соблюдаются требования соответствия, такие как создание системы управления рисками и проведение послепродажного надзора, в том числе через систему управления качеством, таким системам не будет запрещено пользоваться рынок ЕС в соответствии с законодательным планом.
Другие требования включают в себя в области безопасности и обеспечения стабильной точности работы ИИ – с условием сообщать «о любых серьезных инцидентах или любых сбоях в работе системы ИИ, которые представляют собой нарушение обязательств »перед надзорным органом не позднее, чем через 15 дней после того, как стало известно об этом.
« Системы искусственного интеллекта с высоким риском могут быть размещены на рынке Союза или иным образом введены в эксплуатацию при соблюдении обязательных требований », – текст примечания.
«Обязательные требования, касающиеся систем искусственного интеллекта высокого риска, размещаемых или иным образом вводимых в эксплуатацию на рынке Союза, должны выполняться с учетом предполагаемых требований. Задача системы искусственного интеллекта и система управления рисками, устанавливаемая поставщиком.
«Среди прочего, меры управления рисками, определенные поставщиком, должны основываться на должном учете эффектов и возможных взаимодействий, возникающих в результате комбинированное применение обязательных требований и учет общепризнанного уровня техники, в том числе отраженного в соответствующих гармонизированных стандартах или общих спецификациях ».