ЕС планирует ввести правила искусственного интеллекта, основанные на оценке риска, чтобы установить штрафы до 4% от мирового оборота за просочившийся черновик | Предприниматель

ЕС планирует ввести правила искусственного интеллекта, основанные на оценке риска, чтобы установить штрафы до 4% от мирового оборота за просочившийся черновик

Законодатели Европейского Союза, разрабатывающие правила применения искусственного интеллекта, рассматривают возможность штрафов в размере до 4% от глобального годового оборота (или 20 миллионов евро, если больше) за набор запрещенных сценариев использования, согласно просочившемуся проекту регулирование ИИ, о котором ранее сообщал Politico, как ожидается, будет официально обнародовано на следующей неделе.

План по регулированию ИИ был на карте некоторое время. Еще в феврале 2020 года Европейская комиссия опубликовала официальный документ, в котором излагаются планы по регулированию так называемых «высокорисковых» приложений искусственного интеллекта.

В то время законодатели ЕС играли с отраслевым фокусом, предусматривая определенные секторы, такие как энергетика и найм. как векторы риска. Однако этот подход, похоже, был переосмыслен согласно просочившемуся проекту, который не ограничивает обсуждение рисков ИИ конкретными отраслями или секторами.

Вместо этого основное внимание уделяется требованиям соответствия для приложений ИИ с высоким уровнем риска, где бы они ни возникали ( однако использование оружия / в военных целях специально исключено, поскольку такие варианты использования выходят за рамки договоров ЕС). Хотя из этого проекта не совсем ясно, как именно будет определяться «высокий риск».

Общая цель Комиссии состоит в том, чтобы повысить общественное доверие к ИИ с помощью системы сдержек и противовесов, основанной на «ценностях ЕС». чтобы стимулировать распространение так называемого «заслуживающего доверия» и «ориентированного на человека» ИИ. Таким образом, даже создатели приложений ИИ, которые не считаются «высокорисковыми», по-прежнему будут поощряться к принятию кодексов поведения – «для содействия добровольному применению обязательных требований, применимых к системам ИИ с высоким уровнем риска», как заявляет Комиссия. [19659002] Еще одна часть постановления касается мер по поддержке развития ИИ в блоке – подталкивая государства-члены к созданию нормативных схем «песочницы», в которых стартапам и МСП может быть назначена поддержка в разработке и тестировании систем ИИ перед их выводом на рынок. [19659002] Компетентные органы «должны быть наделены полномочиями осуществлять свои дискреционные полномочия и рычаги пропорциональности в отношении проектов искусственного интеллекта субъектов, участвующих в песочнице, при полном сохранении надзорных и корректирующих полномочий органов власти», – отмечается в проекте.

Что такое высокий риск AI ?

Согласно запланированным правилам, те, кто намеревается применить искусственный интеллект, должны будут определить, подходит ли конкретный вариант использования i «высокий риск» и, следовательно, нужно ли им проводить обязательную предпродажную оценку соответствия или нет.

«Классификация ИИ-системы как высокорисковой должна основываться на ее предполагаемом назначении, что должно относиться к использование, для которого предназначена система ИИ, включая конкретный контекст и условия использования и – и определяться в два этапа с учетом того, может ли оно причинить определенный вред, и, если да, серьезность возможного вреда и вероятность его возникновения, »Содержится одно изложение в проекте.

« Классификация системы искусственного интеллекта как системы высокого риска для целей настоящего Регламента не обязательно означает, что система как таковая или продукт в целом будет обязательно рассматриваться как «высокий уровень риска». -риск »в соответствии с критериями отраслевого законодательства», – также уточняется текст.

Примеры «вреда», связанного с системами искусственного интеллекта высокого риска, перечислены в проекте, включая: «травма или смерть человека, ущерб имущества, системные неблагоприятные воздействия на общество в целом, значительные сбои в предоставлении основных услуг для обычного ведения критически важной экономической и социальной деятельности, неблагоприятное воздействие на финансовые, образовательные или профессиональные возможности людей, неблагоприятное воздействие на доступ к государственным услугам и любой форме государственной помощи, и неблагоприятное воздействие на [European] основные права ».

Также обсуждаются несколько примеров приложений с высокой степенью риска, включая системы найма; системы, обеспечивающие доступ к образовательным или профессиональным учебным заведениям; системы диспетчеризации экстренных служб; оценка кредитоспособности; системы, участвующие в определении распределения льгот, финансируемых налогоплательщиками; системы принятия решений, применяемые в отношении предотвращения, раскрытия и судебного преследования преступлений; и системы принятия решений, используемые для оказания помощи судьям.

До тех пор, пока соблюдаются требования соответствия, такие как создание системы управления рисками и проведение послепродажного надзора, в том числе через систему управления качеством, таким системам не будет запрещено пользоваться рынок ЕС в соответствии с законодательным планом.

Другие требования включают в себя в области безопасности и обеспечения стабильной точности работы ИИ – с условием сообщать «о любых серьезных инцидентах или любых сбоях в работе системы ИИ, которые представляют собой нарушение обязательств »перед надзорным органом не позднее, чем через 15 дней после того, как стало известно об этом.

« Системы искусственного интеллекта с высоким риском могут быть размещены на рынке Союза или иным образом введены в эксплуатацию при соблюдении обязательных требований », – текст примечания.

«Обязательные требования, касающиеся систем искусственного интеллекта высокого риска, размещаемых или иным образом вводимых в эксплуатацию на рынке Союза, должны выполняться с учетом предполагаемых требований. Задача системы искусственного интеллекта и система управления рисками, устанавливаемая поставщиком.

«Среди прочего, меры управления рисками, определенные поставщиком, должны основываться на должном учете эффектов и возможных взаимодействий, возникающих в результате комбинированное применение обязательных требований и учет общепризнанного уровня техники, в том числе отраженного в соответствующих гармонизированных стандартах или общих спецификациях ».

Европа разрабатывает план по расширению повторного использования данных и регулированию ИИ« высокого риска »[19659020] Запрещенные методы и биометрия

Определенные «методы» ИИ перечислены как запрещенные в соответствии со статьей 4 планируемого закона в соответствии с этим просочившимся проектом, включая (коммерческое) применение систем массового наблюдения и общих систем социальной оценки, которые могут привести к дискриминация.

Системы искусственного интеллекта, которые предназначены для манипулирования человеческим поведением, решениями или мнениями во вредных целях (например, с помощью пользовательских интерфейсов с темным рисунком), также перечислены как запрещенные в соответствии со статьей 4; как и системы, которые используют персональные данные для генерации прогнозов, чтобы (во вред) нацеливаться на уязвимости людей или групп людей.

Случайный читатель может предположить, что нормативные акты предлагают сразу запретить такие практики, как поведенческая реклама, основанная на об отслеживании людей – также известных бизнес-моделях таких компаний, как Facebook и Google. Однако это предполагает, что гиганты рекламных технологий согласятся с тем, что их инструменты пагубно влияют на пользователей.

Напротив, их стратегия обхода нормативных требований основана на утверждении прямо противоположного; отсюда и разговоры Facebook о «релевантной» рекламе. Таким образом, текст (в том виде, в каком он написан) выглядит так, как будто он будет рецептом для (еще) более затяжных юридических баталий, чтобы попытаться заставить закон ЕС придерживаться против корыстных интерпретаций технологических гигантов.

Рациональное решение для запрещенного. Практика подытожена в более раннем изложении проекта, в котором говорится: «Следует признать, что искусственный интеллект может позволить новые манипулятивные, вызывающие привыкание, социальный контроль и неизбирательные методы наблюдения, которые особенно вредны и должны быть запрещены как противоречащие ценностям Союза уважение человеческого достоинства, свободы, демократии, верховенства закона и уважения прав человека ».

Примечательно, что Комиссия уклонилась от предложения запретить использование распознавания лиц в общественных местах – поскольку она, очевидно, рассматривала, согласно просочившемуся черновику в начале прошлого года, до того, как прошлогодняя Белая книга избежала запрета.

В просочившемся черновике «удаленная биометрическая идентификация» в общественных местах выделена для «более строгого соблюдения Процедуры оценки соответствия с участием нотифицированного органа »- также известные как« процедура авторизации, направленная на устранение конкретных рисков, связанных с использованием технологии »и включающая обязательную оценку воздействия на защиту данных – по сравнению с большинством других приложений ИИ высокого риска (которые разрешено выполнять требования посредством самооценки).

«Кроме того, санкционирующий орган должен учитывать в своей оценке вероятность и серьезность ущерба, причиненного неточностями системы, используемой для данной цели, в частности, в отношении возраста, этнической принадлежности, секс или инвалидность », – говорится в проекте. «Следует дополнительно рассмотреть влияние на общество, учитывая, в частности, демократическое и гражданское участие, а также методологию, необходимость и соразмерность включения лиц в справочную базу данных».

Системы искусственного интеллекта, «которые могут в первую очередь привести к неблагоприятным последствиям. для личной безопасности »также должны пройти эту более высокую планку участия регулирующих органов в рамках процесса соответствия.

Предусмотренная система оценки соответствия для всех ИИ с высоким риском находится в стадии разработки, при этом в проекте отмечается:« Уместно, чтобы Система искусственного интеллекта проходит новую оценку соответствия всякий раз, когда происходит изменение, которое может повлиять на соответствие системы требованиям настоящего Регламента, или когда намеченная цель системы изменяется ».

« Для систем искусственного интеллекта, которые продолжают «учиться» после установки на рынок или введенные в эксплуатацию (т. е. они автоматически адаптируют то, как выполняются функции), изменяют алгоритм и производительность, которые не были заранее определены и оценка в момент оценки соответствия приведет к новому соответствию
оценка системы искусственного интеллекта », – добавляет он.

Приманкой для компаний, соответствующих требованиям, является наличие знака« CE », который поможет им завоевать доверие пользователей и беспрепятственный доступ к единому рынку блока.

«Системы искусственного интеллекта с высоким риском должны иметь маркировку CE, чтобы указать на их соответствие настоящему Регламенту, чтобы они могли свободно перемещаться в пределах Союза», – отмечается в тексте, добавляя, что: «Государства-члены не должны создавать препятствий для размещения на рынке или ввод в эксплуатацию систем искусственного интеллекта, которые соответствуют требованиям, изложенным в этом Регламенте ».

Законодатели ЕС присматриваются к правилам, основанным на оценке риска для ИИ, согласно просочившейся белой книге

Прозрачность для ботов и дипфейков

а также стремясь объявить некоторые практики вне закона и установить систему общеевропейских правил для безопасного вывода на рынок систем искусственного интеллекта с высоким уровнем риска, при этом ожидается, что поставщики будут проводить (в основном самостоятельно) оценку и выполнять обязательства по соблюдению (например, в отношении качества данных – наборы, используемые для тренировки м одель; делопроизводство / документация; человеческий надзор; прозрачность; точности) до выпуска такого продукта на рынок и проведения постоянного послепродажного наблюдения – предлагаемые правила направлены на снижение риска использования ИИ для обмана людей.

Это достигается путем предложения «согласованных правил прозрачности» для систем ИИ. предназначены для взаимодействия с физическими лицами (голосовые ИИ / чат-боты и т. д.); а также для систем искусственного интеллекта, используемых для создания изображений, аудио или видео контента или манипулирования ими (также известных как дипфейки).

«Некоторые системы искусственного интеллекта, предназначенные для взаимодействия с физическими лицами или для создания контента, могут представлять определенные риски выдачи себя за другое лицо или обмана независимо от того, соответствуют ли они критериям как с высоким риском, так и без него. Поэтому при определенных обстоятельствах использование этих систем должно регулироваться конкретными обязательствами по обеспечению прозрачности без ущерба для требований и обязательств для систем искусственного интеллекта с высоким уровнем риска », – говорится в тексте.

« В частности, следует уведомлять физических лиц о том, что они взаимодействуют с системой ИИ, если это не очевидно из обстоятельств и контекста использования. Более того, пользователи, которые используют систему искусственного интеллекта для создания или обработки изображений, аудио или видео контента, который в значительной степени напоминает существующих людей, места или события и может ошибочно показаться разумному человеку аутентичным, должны раскрыть, что контент был создан искусственно или манипулируют путем маркировки продукции искусственного интеллекта соответствующим образом и раскрытия ее искусственного происхождения.

«Это обязательство по маркировке не должно применяться, когда использование такого контента необходимо в целях обеспечения общественной безопасности или для осуществления законного права или свободы человек, например, для сатиры, пародии или свободы искусства и науки и при соблюдении соответствующих гарантий прав и свобод третьих лиц ».

Законодатели ЕС говорят, что пора пойти дальше в борьбе с дезинформацией

А как насчет правоприменения?

Хотя предложенный режим ИИ еще не был официально обнародован Комиссией, поэтому детали могут измениться до следующей недели. k – главный вопросительный знак нависает над тем, как можно эффективно контролировать целый новый уровень соответствия в отношении конкретных приложений (часто сложного) искусственного интеллекта и обеспечивать соблюдение любых нарушений, особенно с учетом текущих слабостей в обеспечении соблюдения режима защиты данных ЕС (который начался применяется еще в 2018 году).

Таким образом, хотя поставщики ИИ с высоким уровнем риска должны взять на себя ответственность за вывод своей системы / систем на рынок (и, следовательно, за соблюдение всех различных условий, которые также включают регистрацию систем ИИ с высоким уровнем риска в базе данных ЕС, которую Комиссия намеревается поддерживать), это предложение оставляет обеспечение соблюдения в руках государств-членов, которые будут нести ответственность за назначение одного или нескольких национальных компетентных органов для надзора за применением режима надзора.

Мы видели, как эта история разыгрывается с Общим регламентом защиты данных. Сама Комиссия признала, что обеспечение соблюдения GDPR не применяется последовательно и не энергично во всем блоке, поэтому главный вопрос заключается в том, как эти новые правила искусственного интеллекта избежать такой же судьбы, связанной с покупками на форумах?

Двухлетний обзор GDPR указывает на отсутствие «энергичности». обеспечение соблюдения

«Государства-члены должны принять все необходимые меры для обеспечения выполнения положений настоящего Регламента, в том числе путем установления эффективных, соразмерных и сдерживающих наказаний за их нарушение. В отношении определенных конкретных нарушений государства-члены должны принимать во внимание пределы и критерии, изложенные в этом Регламенте », – говорится в проекте.

Комиссия действительно добавляет предостережение – о возможном вмешательстве в случае, если правоприменение государства-члена не доставлять. Но в ближайшем будущем нет никаких перспектив другого подхода к правоприменению, предполагающего, что, скорее всего, появятся те же самые старые ловушки.

«Поскольку цель настоящего Регламента, а именно создание условий для экосистемы доверия в отношении размещения на рынке, размещение для обслуживания и использования искусственного интеллекта в Союзе, государства-члены не могут в достаточной степени реализовать его, а, скорее, из-за масштаба или эффекта действия, который может быть лучше достигнут на уровне Союза, Союз может принять меры в соответствии с принцип субсидиарности, изложенный в статье 5 Договора о Европейском союзе », является опорой Комиссии на случай будущих сбоев правоприменения.

План надзора за ИИ включает создание зеркальной организации, аналогичной Европейской защите данных GDPR. Правление, которое будет называться Европейским советом по искусственному интеллекту, которое также будет поддерживать применение постановления, выпуская соответствующие рекомендации и заключения для законодателей ЕС, например, вокруг списка запрещенных методов ИИ и систем высокого риска.

Понимание большого толчка Европы по переписыванию цифрового свода правил

Европа устанавливает правила поведения для своего плана повторного использования данных

Вы можете оставить комментарий, или ссылку на Ваш сайт.