Европа разрабатывает план по расширению повторного использования данных и регулированию ИИ« высокого риска »[19659020] Запрещенные методы и биометрия
Определенные «методы» ИИ перечислены как запрещенные в соответствии со статьей 4 планируемого закона в соответствии с этим просочившимся проектом, включая (коммерческое) применение систем массового наблюдения и общих систем социальной оценки, которые могут привести к дискриминация.
Системы искусственного интеллекта, которые предназначены для манипулирования человеческим поведением, решениями или мнениями во вредных целях (например, с помощью пользовательских интерфейсов с темным рисунком), также перечислены как запрещенные в соответствии со статьей 4; как и системы, которые используют персональные данные для генерации прогнозов, чтобы (во вред) нацеливаться на уязвимости людей или групп людей.
Случайный читатель может предположить, что нормативные акты предлагают сразу запретить такие практики, как поведенческая реклама, основанная на об отслеживании людей – также известных бизнес-моделях таких компаний, как Facebook и Google. Однако это предполагает, что гиганты рекламных технологий согласятся с тем, что их инструменты пагубно влияют на пользователей.
Напротив, их стратегия обхода нормативных требований основана на утверждении прямо противоположного; отсюда и разговоры Facebook о «релевантной» рекламе. Таким образом, текст (в том виде, в каком он написан) выглядит так, как будто он будет рецептом для (еще) более затяжных юридических баталий, чтобы попытаться заставить закон ЕС придерживаться против корыстных интерпретаций технологических гигантов.
Рациональное решение для запрещенного. Практика подытожена в более раннем изложении проекта, в котором говорится: «Следует признать, что искусственный интеллект может позволить новые манипулятивные, вызывающие привыкание, социальный контроль и неизбирательные методы наблюдения, которые особенно вредны и должны быть запрещены как противоречащие ценностям Союза уважение человеческого достоинства, свободы, демократии, верховенства закона и уважения прав человека ».
Примечательно, что Комиссия уклонилась от предложения запретить использование распознавания лиц в общественных местах – поскольку она, очевидно, рассматривала, согласно просочившемуся черновику в начале прошлого года, до того, как прошлогодняя Белая книга избежала запрета.
В просочившемся черновике «удаленная биометрическая идентификация» в общественных местах выделена для «более строгого соблюдения Процедуры оценки соответствия с участием нотифицированного органа »- также известные как« процедура авторизации, направленная на устранение конкретных рисков, связанных с использованием технологии »и включающая обязательную оценку воздействия на защиту данных – по сравнению с большинством других приложений ИИ высокого риска (которые разрешено выполнять требования посредством самооценки).
«Кроме того, санкционирующий орган должен учитывать в своей оценке вероятность и серьезность ущерба, причиненного неточностями системы, используемой для данной цели, в частности, в отношении возраста, этнической принадлежности, секс или инвалидность », – говорится в проекте. «Следует дополнительно рассмотреть влияние на общество, учитывая, в частности, демократическое и гражданское участие, а также методологию, необходимость и соразмерность включения лиц в справочную базу данных».
Системы искусственного интеллекта, «которые могут в первую очередь привести к неблагоприятным последствиям. для личной безопасности »также должны пройти эту более высокую планку участия регулирующих органов в рамках процесса соответствия.
Предусмотренная система оценки соответствия для всех ИИ с высоким риском находится в стадии разработки, при этом в проекте отмечается:« Уместно, чтобы Система искусственного интеллекта проходит новую оценку соответствия всякий раз, когда происходит изменение, которое может повлиять на соответствие системы требованиям настоящего Регламента, или когда намеченная цель системы изменяется ».
« Для систем искусственного интеллекта, которые продолжают «учиться» после установки на рынок или введенные в эксплуатацию (т. е. они автоматически адаптируют то, как выполняются функции), изменяют алгоритм и производительность, которые не были заранее определены и оценка в момент оценки соответствия приведет к новому соответствию
оценка системы искусственного интеллекта », – добавляет он.
Приманкой для компаний, соответствующих требованиям, является наличие знака« CE », который поможет им завоевать доверие пользователей и беспрепятственный доступ к единому рынку блока.
«Системы искусственного интеллекта с высоким риском должны иметь маркировку CE, чтобы указать на их соответствие настоящему Регламенту, чтобы они могли свободно перемещаться в пределах Союза», – отмечается в тексте, добавляя, что: «Государства-члены не должны создавать препятствий для размещения на рынке или ввод в эксплуатацию систем искусственного интеллекта, которые соответствуют требованиям, изложенным в этом Регламенте ».
Законодатели ЕС присматриваются к правилам, основанным на оценке риска для ИИ, согласно просочившейся белой книге
Прозрачность для ботов и дипфейков
а также стремясь объявить некоторые практики вне закона и установить систему общеевропейских правил для безопасного вывода на рынок систем искусственного интеллекта с высоким уровнем риска, при этом ожидается, что поставщики будут проводить (в основном самостоятельно) оценку и выполнять обязательства по соблюдению (например, в отношении качества данных – наборы, используемые для тренировки м одель; делопроизводство / документация; человеческий надзор; прозрачность; точности) до выпуска такого продукта на рынок и проведения постоянного послепродажного наблюдения – предлагаемые правила направлены на снижение риска использования ИИ для обмана людей.
Это достигается путем предложения «согласованных правил прозрачности» для систем ИИ. предназначены для взаимодействия с физическими лицами (голосовые ИИ / чат-боты и т. д.); а также для систем искусственного интеллекта, используемых для создания изображений, аудио или видео контента или манипулирования ими (также известных как дипфейки).
«Некоторые системы искусственного интеллекта, предназначенные для взаимодействия с физическими лицами или для создания контента, могут представлять определенные риски выдачи себя за другое лицо или обмана независимо от того, соответствуют ли они критериям как с высоким риском, так и без него. Поэтому при определенных обстоятельствах использование этих систем должно регулироваться конкретными обязательствами по обеспечению прозрачности без ущерба для требований и обязательств для систем искусственного интеллекта с высоким уровнем риска », – говорится в тексте.
« В частности, следует уведомлять физических лиц о том, что они взаимодействуют с системой ИИ, если это не очевидно из обстоятельств и контекста использования. Более того, пользователи, которые используют систему искусственного интеллекта для создания или обработки изображений, аудио или видео контента, который в значительной степени напоминает существующих людей, места или события и может ошибочно показаться разумному человеку аутентичным, должны раскрыть, что контент был создан искусственно или манипулируют путем маркировки продукции искусственного интеллекта соответствующим образом и раскрытия ее искусственного происхождения.
«Это обязательство по маркировке не должно применяться, когда использование такого контента необходимо в целях обеспечения общественной безопасности или для осуществления законного права или свободы человек, например, для сатиры, пародии или свободы искусства и науки и при соблюдении соответствующих гарантий прав и свобод третьих лиц ».
Законодатели ЕС говорят, что пора пойти дальше в борьбе с дезинформацией
А как насчет правоприменения?
Хотя предложенный режим ИИ еще не был официально обнародован Комиссией, поэтому детали могут измениться до следующей недели. k – главный вопросительный знак нависает над тем, как можно эффективно контролировать целый новый уровень соответствия в отношении конкретных приложений (часто сложного) искусственного интеллекта и обеспечивать соблюдение любых нарушений, особенно с учетом текущих слабостей в обеспечении соблюдения режима защиты данных ЕС (который начался применяется еще в 2018 году).
Таким образом, хотя поставщики ИИ с высоким уровнем риска должны взять на себя ответственность за вывод своей системы / систем на рынок (и, следовательно, за соблюдение всех различных условий, которые также включают регистрацию систем ИИ с высоким уровнем риска в базе данных ЕС, которую Комиссия намеревается поддерживать), это предложение оставляет обеспечение соблюдения в руках государств-членов, которые будут нести ответственность за назначение одного или нескольких национальных компетентных органов для надзора за применением режима надзора.
Мы видели, как эта история разыгрывается с Общим регламентом защиты данных. Сама Комиссия признала, что обеспечение соблюдения GDPR не применяется последовательно и не энергично во всем блоке, поэтому главный вопрос заключается в том, как эти новые правила искусственного интеллекта избежать такой же судьбы, связанной с покупками на форумах?
Двухлетний обзор GDPR указывает на отсутствие «энергичности». обеспечение соблюдения
«Государства-члены должны принять все необходимые меры для обеспечения выполнения положений настоящего Регламента, в том числе путем установления эффективных, соразмерных и сдерживающих наказаний за их нарушение. В отношении определенных конкретных нарушений государства-члены должны принимать во внимание пределы и критерии, изложенные в этом Регламенте », – говорится в проекте.
Комиссия действительно добавляет предостережение – о возможном вмешательстве в случае, если правоприменение государства-члена не доставлять. Но в ближайшем будущем нет никаких перспектив другого подхода к правоприменению, предполагающего, что, скорее всего, появятся те же самые старые ловушки.
«Поскольку цель настоящего Регламента, а именно создание условий для экосистемы доверия в отношении размещения на рынке, размещение для обслуживания и использования искусственного интеллекта в Союзе, государства-члены не могут в достаточной степени реализовать его, а, скорее, из-за масштаба или эффекта действия, который может быть лучше достигнут на уровне Союза, Союз может принять меры в соответствии с принцип субсидиарности, изложенный в статье 5 Договора о Европейском союзе », является опорой Комиссии на случай будущих сбоев правоприменения.
План надзора за ИИ включает создание зеркальной организации, аналогичной Европейской защите данных GDPR. Правление, которое будет называться Европейским советом по искусственному интеллекту, которое также будет поддерживать применение постановления, выпуская соответствующие рекомендации и заключения для законодателей ЕС, например, вокруг списка запрещенных методов ИИ и систем высокого риска.
Понимание большого толчка Европы по переписыванию цифрового свода правил
Европа устанавливает правила поведения для своего плана повторного использования данных