Центр регулирования ИИ
870 subscribers
29 photos
14 files
174 links
Download Telegram
🌍 Верховный комиссар ООН по правам человека (Office of the United Nations High Commissioner for Human Rights) Мишель Бешлет (Michelle Bachelet) озвучила опасения о влиянии некоторых технологий, использующих алгоритмы ИИ, на права человека и призвала:
1️⃣ запретить использование технологий ИИ, которые "не могут быть использованы в соответствии с международным правом прав человека...." и ввести мораторий в отношении технологий ИИ, "... которые несут риск реализации прав человека" ("Expressly ban AI applications that cannot be operated in compliance with international human rights law and impose moratoriums on the sale and use of AI systems that carry a high risk for the enjoyment of human rights");
2️⃣ ввести мораторий на использование систем распознавания лиц в общественных местах ("Impose a moratorium on the use of remote biometric recognition technologies in public spaces").

Предлагаемые запреты не носят абсолютный характер:
1️⃣ в первом случае делается оговорка, что такие запреты можно не применять, когда в работе и применении таких технологий учтены и внедрены механизмы защиты прав человека ("unless and until adequate safeguards to protect human rights are in place");
2️⃣ во втором случае также уточняется, что для не применения моратория как минимум уполномоченные органы должны обеспечить защиту персональных данных, максимально точную работу таких систем и минимизировать риски дискриминации + имплементировать рекомендации, которые были ранее озвучены в докладе Верховного комиссара № A/HRC/44/24, 2020 (53 (j) (i - v)) (см. стр. 18 здесь) ("at least until the authorities responsible can demonstrate compliance with privacy and data protection standards and the absence of significant accuracy issues and discriminatory impacts, and until all the recommendations set out in A/HRC/44/24, paragraph 53 (j) (i–v), are implemented").

Текст доклада можно посмотреть здесь.
Система подотчетности ИИ (СП США).pdf
578.5 KB
🇺🇸📃 В июне Счетная палата США выпустила доклад под названием «Искусственный интеллект: система подотчетности для федеральных агентств и иных организаций».

Целью разработки данного документа является обеспечение подотчетности и ответственного применения технологий ИИ федеральными агентствами и иными организациями, участвующими в проектировании, разработке, развертывании и мониторинге систем на основе алгоритмов.

Разработанная система подотчетности ИИ базируется на четырех взаимодополняющих элементах, которые затрагивают:
1️⃣ Управление
2️⃣ Данные
3️⃣ Производительность
4️⃣ Мониторинг

Каждому из элементов посвящен отдельный раздел, который включает в себя перечень вопросов, необходимых к рассмотрению организациям, аудиторам и сторонними экспертами, а также процедуры аудита и типы доказательств.

Мы хотим поделиться с вами переводом краткого содержания документа.

С полной версией документа можно ознакомиться по ссылке.
🇪🇺 В ЕС опубликованы два документа, демонстрирующие, в числе прочих, планируемую позицию ЕС в отношении ИИ как минимум до 2030 года.

1️⃣ Предлагаемая программа развития до 2030 года "Путь к Цифровому Десятилетию" ("Path to a Digital Decade"). В целевых показателях программы предусмотрено, что к 2030 году не меньше 75% всего европейского бизнеса должно внедрить в своей работе технологии ИИ, больших данных и облачных вычислений;
2️⃣ Мнение ("Opinion") Европейского комитета по общественным и экономическим (EESC) вопросам по цифровизации экономики с фокусом на человекоориентированный ИИ. Основные положения:
- в ближайшее время EESC представит свою позицию по готовящемуся регламенту по регулированию ИИ;
- EESC обратил особое внимание на использование ИИ в трудоустройстве и на рабочих местах. По-видимому, EESC будет настаивать, чтобы эти положения были максимально подробно регламентированы в будущем Artificial Intelligence Act:
Во-первых, всем работникам "надо гарантировать "достойные условия труда" (хотя "decent work must be guaranteed for all employees" можно перевести как и наличие хороших рабочих мест);
Во-вторых, при внедрении ИИ, которое может затронуть интересы работников, необходимо обеспечить участие этих работников и их представителей на самых ранних стадиях внедрения ИИ. Цель - голос работников должен учитываться, чтобы определиться, как именно использовать ИИ в рабочих процессах + работники должны заблаговременно подготовиться к цифровизации и приобрести новые квалификации;
- EESC призывает к разработке "адекватного регулирования, которое бы позволило компаниям утверждать справедливость, надёжность и безопасность их систем ИИ с учётом высочайшего уровня защиты интересов потребителей и работников" ("The EESC calls for an adequate framework to be developed to allow companies to assert the fairness, reliability and security of their artificial intelligence systems, taking into account the highest possible level of consumer and worker protection");
- при этом EESC пока воздерживается от дачи собственной дефиниции понятия "искусственный интеллект" для целей подготовки Artificial Intelligence Act.
Forwarded from База знаний AI
📖 Почитать на досуге: книга о том, как изменится мир благодаря ИИ к 2041 году

Ученый, венчурный инвестор, бывший президент Google China и экс-сотрудник Apple и Microsoft Кай-Фу Ли вместе с романистом Чэнем Цюфанем в книге AI 2041: Ten Visions for Our Future приводят 10 рассказов о возможных новых реалиях 2041 года.

Например, о появлении индустрии «перераспределения рабочих мест» из-за ИИ в Сан-Франциско, виртуальных компаньонах с совершенными навыками обработки естественного языка, которые предлагают близнецам-сиротам в Сеуле новые способы общения и т.д.

👉🏻 Читать книгу (англ.)

💬 Напишите в комментариях, какие еще книги об искусственном интеллекте читаете вы и готовы рекомендовать другим?
🇬🇧Court of Appeal вынес решение по апелляции в деле Thaler v Comptroler General of patents, trade marks and designs и ещё раз подтвердил, что по английскому праву ИИ не может быть изобретателем по смыслу Закона о патентах 1977 (Patents act 1977). Решение Высокого Суда (High Court), на которое была подана жалоба, осталось в силе.

Делимся текстом решения в апелляции по этому делу (см. здесь).
🇬🇧🇦🇪 ...а также подписан Меморандум о сотрудничестве с ОАЭ в сфере искусственного интеллекта (текст коммюнике здесь). Меморандум подразумевает обмен знаниями, взаимные инвестиции и разработку единых стандартов в сфере искусственного интеллекта.
🇪🇺🚁📊 Делимся обзором действующего регулирования ЕС в области беспилотной авиации. Автор в доступной и достаточно краткой форме рассказал суть многих важных вопросов (классификация, сертификация, разрешения на полёты и ограничения). Материал подойдёт тем, кому интересно узнать, как регулируют дронов за рубежом.
🇪🇺📄 Опубликованы два мнения (Opinion) Европейского социально - экономического комитета относительно регулирования ИИ.

1️⃣ Мнение о текущей редакции проекта Artificial Intelligence Act (AIA). Ниже часть позиции:

- предлагается новая дефиниция "систем ИИ":
"Artificial intelligence system' (AI system) means software that can, in an automated manner, for a given set of human-defined objectives, generate outputs such as content, predictions, recommendations or decisions, influencing the environment it interacts with"

- у комитета возникли возникли вопросу к классификации ИИ по "пирамиде" из ИИ высокого, среднего и небольшого риска. По мнению комитета, рекомендации по устранению среднего и высокого риска недостаточно эффективны.

- комитет также прокомментировал вопрос делегирования принятия решений искусственному интеллекту: в AIA не хватает идеи о том, что ИИ расширит возможности для принятия решений, а не заменит принятие решений человеком. По мнению комитета, сейчас в AIA есть презумпция, что как только требования к ИИ среднего и высокого риска будут выполнены, ИИ сможет в значительной степени заменить человеческое принятие решений.

В ответ на это комитет настоятельно рекомендует, чтобы AIA предусматривал, чтобы определенные решения оставались прерогативой людей, особенно в тех областях, где эти решения имеют моральный компонент и правовые последствия или влияние на общество (например, в судебной системе, правоохранительных органах, социальных службах, здравоохранении, в вопросах жилья, оказания финансовых услуг, трудовых отношений и образования).

- насчёт запрещённых кейсов использования ИИ:

а) манипулятивный ИИ. Чтобы запретить манипулирование людьми с целью навязывания им опасного поведения Комитет рекомендует изменить п 1(а) ст. 5:
(…) an AI system deployed, aimed at or used to materially distort a person's behaviour in a manner that causes or is likely to cause harm to that person's, another person's or group of persons' fundamental rights, including their physical or psychological health and safety, or to democracy and the rule of law"

Комитет рекомендует таким же образом изменить запрещенную практику использования уязвимостей в статье 5 (1) (b), чтобы включить в нее ущерб основным правам, включая физический или психологический ущерб.

б) социальный скоринг. Комитет рекомендует распространить запрет не только на гос органы, но и на частный сектор

в) распознавание эмоций (сейчас присвоен "низкий риск" в проекте AIA). Комитет против данной практики и считает её чрезвычайно инвазивной, не научной и нарушающей права человека. Комитет в целом занимает жёсткую позицию к биометрической идентификации и призывает ввести максимальные ограничения к использованию данной технологии.

- высокорисковый ИИ. Помимо прочего, Комитет предлагает включить в AIA пять требований из Руководства по этике надёжного ИИ (Ethics guidelines for trustworthy AI ("EGTAI"): (i) человеческое вмешательство, (ii) конфиденциальность, (iii) разнообразие, недискриминация и справедливость, (iv) объяснимость. и (v) экологическое и социальное благополучие
2️⃣ Мнение об использовании ИИ в машинном оборудовании (machinery). Речь идёт о пересмотре текста Директивы 2006/42/EC o машинном оборудовании.

- текущие предложения Еврокомиссии предусматривают отмену оценки соответствия "высокорискового" машинного оборудования силами самих производителей. То есть если хотя бы в 0,01% работы машинного оборудования используется ИИ, оборудование автоматически становится высокорисковым и его нужно полностью тестировать. Это большая проблема если а) ИИ, используемый в оборудовании, используется для аналитических/статистичtских целей и не влияет на работу оборудования и/или б) речь идёт о небольших выпусках станков/индивидуально произведённом оборудовании (так как расходы на оценку соответствия будут несопоставимыми). Комитет предлагает распространять на подобные случае действующие правила, позволяющие производителям самостоятельно оценивать соответствие машинного оборудования требованиям безопасности;

- что касается единых процедур тестирования и уведомления, EESC рекомендует ввести европейский сертификат для компаний, чтобы продемонстрировать надежность заслуживающих доверия систем искусственного интеллекта
🇪🇺📄 Сотрудники Еврокомиссии опубликовали доклад, в котором описали текущую статистику внедрения ИИ в Евросоюзе и планы, как планируется достичь 75% внедрения ИИ в европейском бизнесе к 2030 году. Поскольку документ большой, основные положения доклада опубликуем в нескольких сообщениях.
(1/2):
1) целевой показатель к 2030 году: 75% внедрения ИИ в бизнес. Текущий средний показатель по ЕС (данные 2020 года): ~25%
В части внедрения ИИ лидирует Чехия (40%).

2) какие шаги уже предприняты для "ИИзации":

2018 - Комиссия и страны - участники приняли "Скоординированный план по ИИ" (Coordinated Plan on AI). В соответствии с планом государства приняли собственные стратегии ИИ.

2021 - Комиссия обновила Скоординированый план и предложила проект AI Act. Меры в целом находят широкую поддержку среди заинтересованных участников.

3) текущие и дальнейшие шаги

- продвижение принципов этики ИИ ("trustworthy AI") и поддержка высокотехнологичного бизнеса в рамках программ Horizon Europe и Digital Europe (конкретные действия приведены в новом скоординированном плане)

- продвижение Европейской экосистемы передового опыта внедрения ИИ (European Ecosystem of Excellence for AI)
(2/2) в продолжение шагов по мерам внедрения ИИ в ЕС:
- продвижение Европейской экосистемы передового опыта внедрения ИИ (European Ecosystem of Excellence for AI) через ГЧП и НИОКР
- создание центров тестирования и экспериментирования в области ИИ (AI testing and experimentation facilities (TEFs). Центры будут направлены на поддержку вывода на европейский рынок инновационных решений в области здравоохранения, промышленности, сх и умных городов
- продвижение единой европейской платформы "AI on Demand" в качестве маркетплейса ИИ решений
- расширение сети цифровых хабов (European Digital Innovation Hubs) с расчётом минимум 1 хаб на государство - участника.
🌍 НАТО присоединяется к регулированию этики ИИ. В разрабатываемой стратегии Альянса по развитию и внедрению ИИ в области обороны и безопасности будут установлены этические стандарты. Основой этического регулирования ИИ НАТО называет принципы ответственности (accountability) и регулирования (governavility).
1️⃣🌍 ВЭФ опубликовал проект руководства по этичному использованию технологии распознавания лиц (прежде всего в работе гос органов). Работоспособность руководства проверяют в рамках пилотного проекта в Нидерландах
2️⃣🇺🇸 Опубликовано исследование Академического центра исследований высоких технологий (Advanced Technology Academic Research Center) о том, что большинство политик, руководств и принципов, выпущенных американскими гос органами и регламентирующих использование ИИ в США, противоречат и не соотносятся друг с другом
3️⃣🇹🇷Турецкое управление по вопросам защиты персональных данных (Turkish Personal Data Protection Authority) выпустило рекомендации по защите персональных данных в сфере ИИ
4️⃣ 🇨🇳В Китае правительство опубликовало принципы этики ИИ. Документ распространяется на максимально широкий круг акторов ИИ и предусматривает 6 принципов этики ИИ (человеческое благополучие, продвижение справедливости, контролируемость и надёжность, защита персональных данных, ответственность и развитие грамотности в области этики (improve ethical literacy). Полный текст документа (на китайском) доступен здесь.
5️⃣ 🇨🇱В Чили принимаются поправки в конституцию, защищающие человека от манипулятивного воздействия со стороны ИИ. Поправки подразумевают права на "неприкосновенность умственных процессов" (mental privacy), целостность личности (personal integrity), свободу мысли (free will of thought)
6️⃣ 🇪🇺Опрос CORDIS (европейский аналог Росстата): в целом порядка половины жителей ЕС поддерживают массовое использование беспилотников и считают эту меру "экологичной", но большинство беспокоятся за свои данные
Forwarded from База знаний AI
Евросоюз и США выработают общий подход к использованию ИИ, управлению данными и политике вокруг технологических платформ

Ранее в ходе первого заседания совета по торговле и технологиям, созданного США и ЕС, стороны пришли к выводу, что искусственный интеллект может положительно повлиять на жизнь граждан и экономики стран, но разработка, внедрение и использование технологии не по назначению угрожает базовым правам человека.

Стороны также выразили беспокойство эксплуатацией ИИ-технологий авторитарными режимами для создания систем социальной оценки с целью реализации масштабного социального контроля. В связи с этим TTC договорился перебалансировать глобальные цепочки поставок полупроводников, содействовать совместному экономическому росту, а также расширять сотрудничество в сфере новейших технологий.

🔗Источник: https://forklog.com/es-i-ssha-razrabotayut-obshhie-printsipy-iskusstvennogo-intellekta/

***
📎Ранее стало известно о сотрудничестве Великобритании и ОАЭ в области искусственного интеллекта. Меморандум, подписанный двумя странами, подразумевает обмен знаниями, а также совместные инвестиции и разработку единых стандартов в сфере искусственного интеллекта.
🇪🇺Европарламент принял резолюцию, призывающую, в частности, к запрету использования технологии биометрической идентификации, приводящего к массовой слежке. Резолюция носит декларативный характер, но отражает общую позицию Европарламента по данному вопросу.
Conclusions of the Hungarian CoE presidency__ (1).pdf
152.7 KB
5 октября состоялась конференция министров юстиции стран-участниц Совета Европы по применению высоких технологий (включая ИИ) в правосудии. Делимся итоговыми положениями (Conclusions), подводящим итоги мероприятия.
В документе содержатся ключевые выводы, к которым пришли участники конференции. Из них стоит отметить следующие:
1️⃣ В разработке правил для использования технологий в судебной системе будут учитываться мнения как CEPEJ, так и CAHAI ("Also DECLARES its commitment to continue supporting all ongoing initiatives and work to strengthen the dialogue and cooperation between the Council of Europe Member States on the use of digital tools in the field of justice, in particular within the framework of the European Commission for the Efficiency of Justice (CEPEJ) and also on the legal framework for the development, design and application of artificial intelligence in the Ad hoc Committee on Artificial Intelligence (CAHAI)")