Центр регулирования ИИ
874 subscribers
29 photos
14 files
174 links
Download Telegram
🇪🇺Комитет ЕС по регионам опубликовал таблицу предлагаемых ими поправок к AI Act.

Из интересного:
1 - планируется добавить оговорку о том, что дать окончательное определение системам ИИ нельзя и что всё нужно определять с учётом обстоятельств. Причина - обеспечить применение AI Act с прицелом на будущее технологическое развитие
2 - добавляются оговорки, что граждан, подвергшихся воздействию высокорисковых СИИ, необходимо максимально оперативно об этом уведомлять
3 - прямо прописывается запрет на дискриминацию по критериям пола, происхождения, религии, убеждений, наличия инвалидности, возраста, сексуальной ориентации + "других критериев"
4 - страны - участники вправе самостоятельно регулировать высокорисковые СИИ, если это требуют интересы общественной и государственной безопасности
Центр регулирования ИИ
Делимся новыми (приняты 31 декабря, вступают в силу с 1 марта 22 года) китайским правилами по рекомендательным алгоритмам.
📃🇨🇳1 марта в Китае вступили в силу Положения об управлении алгоритмическими рекомендациями в Интернете, подготовленные Управлением киберпространства Китая (Cyberspace Administration of China, CAC).
Данное Положение направлено на регулирование влияния Big Tech на формирование общественного мнения посредством использования алгоритмов в формировании рекомендаций в приложениях и на веб-сайтах.
В соответствии с данными Положениями технологическим компаниям предлагается «продвигать положительную энергию» и разрешать пользователям отказываться от персонализированных рекомендаций. В результате общественных обсуждений итоговая версия документа претерпела ряд изменений:
◦ Контроль исполнения Положений будет осуществлять Министерство промышленности и информационных технологий, Министерство общественной безопасности и Государственное управление по регулированию рынка ( SAMR). Управление киберпространства сохранит роль главного координатора.
◦ Предусмотрен запрет на формирование алгоритмических фейковых новостей. Новая статья 13 определяет лицензионное требование для поставщиков услуг для формирования алгоритмических рекомендаций, работающих в качестве новостных агрегаторов, и запрещает алгоритмическое создание поддельных новостей.
◦ Защита от дискриминации. Статья 10 направлена на усиление контроля за использование «дискриминационных или предвзятых пользовательских тегов» в алгоритмических рекомендательных системах.
◦ Документ предусматривает специальные гарантии для защиты пожилых людей в Интернете. Статья 19 требует, чтобы поставщики услуг уделяли особое внимание потребностям пожилых пользователей, в том числе в отношении предотвращения мошенничества.
Ознакомиться с переводом документа можно по ссылке, оригинал текста можете найти тут.
Forwarded from База знаний AI
ОАЭ разработали стратегию развития искусственного интеллекта до 2031 года

Она призвана автоматизировать работу госорганов, а также внедрить ИИ-системы в различные сектора экономики — транспорта, туризма, здравоохранения, образования и др.

Ключевые цели и задачи стратегии:
● укрепление позиций ОАЭ на мировом рынке ИИ-технологий;
● повышение конкурентоспособности сектора ИИ в ОАЭ;
● создание инновационного инкубатора для внедрения новых ИИ-технологий;
● внедрение ИИ в сферу обслуживания клиентов;
● подготовка перспективных специалистов для работы в данном направлении;
● привлечение зарубежных исследователей для разработки и внедрения инноваций в области ИИ;
● Проведение масштабных практических экспериментов с использованием ИИ.

Ожидаемые эффекты от принятия стратегии — значительное увеличение ВВП страны в ближайшие годы.

🔗Источник: https://alliance-dubai.net/nashi-uslugi/novosti-dubaya/rassylka-novostey-za-iyun-2019/oae-razrabotali-novuyu-strategiyu-razvitiya-iskusstvennogo-intellekta-k-2031-godu/

***
📎В сентябре 2021 года стало известно, что ОАЭ и Великобритания заключили меморандум о сотрудничестве в области искусственного интеллекта для совместных инвестиций и разработки единых стандартов в сфере ИИ.
🇬🇧 Делимся совместным докладом Банка Англии и Управления по финансовому мониторингу Англии о рисках использования ИИ в финансовой сфере.

Доклад - результат длительных консультаций английского фин регулятора с остальными гос органами, а также с бизнесом и учебными заведениями. В какой-то степени можно сказать, что позицию по ИИ обсуждали всем английским финансовым миром. Так что доклад в некоторой степени отражает, как английский финансовый сектор смотрит на развитие ИИ.

Судя по докладу, ИИ сам по себе проблемы редко создаёт, но опасен скорее многократным усугублением уже имеющихся проблем. При этом основную проблему видят в сложности технологий, а ключевой "must do" - работать над понятностью и объяснимостью ИИ.
Forwarded from НТИ Автонет (Veronica Korshikova)
🚗 В Японии планируют разрешить использование беспилотного транспорта без водителей

4 марта Правительство Японии выдвинуло на рассмотрение законопроект о пересмотре правил дорожного движения в стране для реализации услуг беспилотного управления автомобилем четвертого уровня.

Законопроект будет представлен во время текущей сессии японского парламента. Он призывает разрешить компаниям, предоставляющим услуги беспилотного пилотирования, дать возможность использовать четвертый уровень автономности, который не предполагает наличие водителя в транспортном средстве.

Также Правительство планирует ввести новые правила использования электрических самокатов и автоматизированных роботов-доставщиков, которые привлекают внимание как новые средства транспортировки и доставки.

Если законопроект будет принят, новые правила вступят в силу в течение года для роботов с автоматическим вождением и доставкой и в течение двух лет для электрических скутеров.
Forwarded from НТИ Автонет (Veronica Korshikova)
В Шотландии опубликовали окончательный отчет, содержащий рекомендации по безопасному и ответственному внедрению автоматизированных транспортных средств

Юридическая комиссия и Комиссия по законодательству Шотландии в своем докладе рекомендует принять новый Закон об автоматизированных транспортных средствах, который, по мнению комиссии, должен проводить четкое различие между функциями помощи водителю, такими как адаптивный круиз-контроль, и полностью автономными системами.

Предлагаемый закон будет предусматривать следующее:

Когда автомобиль уполномочен регулирующим органом как имеющий функции самостоятельного вождения и эти функции используются, человек за рулем больше не будет нести ответственность за то, как автомобиль едет. Вместо этого регулирующие санкции будут направлены на производителя или другой орган, ответственный за получение разрешения на использование на дорогах.

Человек на водительском сиденье будет называться «ответственным пользователем» и будет защищен от судебного преследования за несчастные случаи, произошедшие в результате вождения беспилотного автомобиля. Однако он сохранит ответственность за страхование, проверку грузов и обеспечение того, чтобы пассажиры были пристегнуты ремнями безопасности.

Некоторым транспортным средствам, например, используемым для общественного транспорта, может быть разрешено управлять самостоятельно без ответственного пользователя, а пассажиры просто классифицируются как пассажиры. В этом случае ответственность возьмет на себя лицензированный оператор.

Кроме того, Юридическая комиссия хочет, чтобы были введены новые меры безопасности и чтобы функции помощи водителю не рекламировались и позиционировались как "самостоятельное вождение". Ранее Тесла уже сталкивалась с критикой за брендинг своего набора таких функций и позиционируя их как «Автопилот».

Также в отчёте есть рекомендации в отношении данных.

Поскольку автономное транспортное средство генерирует огромное количество данных о местоположении, окружении, маршруте, системах и тд.
Рекомендуется, чтобы этими данными пользовались для понимания причин неисправности и определения ответственности при столкновении. В этом случае персоналу автопарка может потребоваться включить в свой штат аналитиков данных или аналитиков по кибербезопасности, обеспечивающих защиту данных от хакеров.
🌎📊Опубликован обновленный Индекс искусственного интеллекта 2022, подготовленный Стэндфордским университетом.

Стоит отметить, что в обновленном Индексе заметно больше внимания уделяется регулированию и этике ИИ по сравнению с предыдущими редакциями.

Среди ключевых выводов авторы выделяют:
☑️Возрастающую роль этики ИИ: с 2014 года число исследований по вопросам справедливости и прозрачности ИИ резко возросло: количество соответствующих публикаций на конференциях, посвященных этике ИИ, увеличилось в пять раз. Принципы справедливости и непредвзятости алгоритмов превратились из преимущественно академических занятий в устоявшуюся тему исследований с широким спектром практических последствий. Исследователи, представляющие сферу индустрии ИИ, за последние несколько лет сделали на 71% больше публикаций в годовом исчислении на конференциях, посвященных этике.

☑️Рост законодательного регулирования в области ИИ: анализ, проведенный в рамках создания Индекса ИИ, демонстрирует, что количество законопроектов в области ИИ, которые впоследствии были приняты в качестве законов, выросло с 1 (в 2016 году) до 18 (в 2021 году). Наибольшее количество законопроектов в области ИИ было принято в Испании, Великобритании и США: в 2021 году в каждой из этих стран было принято по 3 закона.

🏆Стоит отметить, что Россия является одним из лидеров по числу нормативных правовых актов в области ИИ, уступая в данном аспекте только США.

С полным текстом Индекса вы можете знакомиться по ссылке: https://aiindex.stanford.edu/wp-content/uploads/2022/03/2022-AI-Index-Report_Master.pdf
Forwarded from База знаний AI
Татарстан утвердил порядок внедрения ИИ в работу госорганов

В их числе — обезличивание персональных данных, открытость и прозрачность решений на базе ИИ, а также обеспечение доступности ИИ-сервисов. Кроме этого, прописано требование о защите информации при использовании ИИ.

Оповещать граждан обо всех случаях внедрения искусственного интеллекта в работу государственных структур будет Центр цифровой трансформации Татарстана.

🔗Источник: https://inkazan.ru/news/tech/21-04-2022/vlasti-tatarstana-nachnut-vnedryat-iskusstvennyy-intellekt-v-svoyu-rabotu

***
📃Текст постановления
🌍 После некоторого затишья мир вновь активно возвращается к вопросам регулирования и этики ИИ. За последние пару недель:

🇺🇸 в Калифорнии подготовили и начали обсуждать законопроект, регулирующий применение ИИ в трудовых отношениях. Причём если раньше, в законах тех же штатов Иллинойс и Нью-Йорк, речь шла просто о каких-то базовых правилах, не допускающих дискриминацию, то в этом случае уже планируют предусмотреть конкретные меры ответственности за необъективную работу ИИ

🇬🇧любопытно, но почти одновременно с этим было опубликовано исследование Лондонской школы экономики (London School of Economics), где выяснилось, что ИИ уже качественнее и беспристрастнее ведёт подбор персонала, нежели люди (и что проблема скорее в предвзятом отношении людей к работе ИИ)

🇰🇷в Южной Корее были выпущены Руководящие принципы в области ИИ

Документ носит рекомендательные характер для гос органов. Цель - обеспечить разработку искусственного интеллекта (ИИ) таким образом, чтобы не ущемлять человеческое достоинство и основные права человека. В принципах также содержится рекомендация премьер-министру и государственным учреждениям разработать законодательство и политику, чтобы разработчики ИИ соблюдали руководящие принципы.

🇯🇵 Япония принимает закон об экономической безопасности

В положениях закона интересуют два блока:
1) НИОКР в ИИ - ИИ прямо выделен в числе направлений научно-исследовательской деятельности, в рамках которых Правительство будет выделять финансирование и инициировать ГЧП проекты
2) полупроводники - полупроводники прямо выделены в качестве стратегического ресурса (наряду с редкоземельными металлами, батареями и лекарствами). Для стабильных поставок этих ресурсов Правительство Японии будет не только разрабатывать отдельные политики, но и предоставлять льготы поставщикам (а также будет закупаться ими впрок на случай будущего дефицита)

🇫🇷 Во Франции предлагают установить 3хлетнюю регуляторную песочницу для апробации технологий распознавания лиц

🇺🇸🇪🇺 По итогам заседания Совета по торговле и Технологиям США и ЕС договорились теснее координировать усилия в области НИОКР. Одним из ключевых результатов встречи также стало обязательство разработать «совместную дорожную карту по инструментам оценки и измерения для надежного ИИ и управления рисками». Также предлагается создание совместного центра/хранилища метрик и методологий для измерения достоверности ИИ и рисков ИИ
🇷🇺 А тем временем в России создана Комиссия по этике в сфере искусственного интеллекта

Комиссия станет площадкой для обмена опытом по вопросам, связанным с этикой искусственного интеллекта и координационным органом, обеспечивающим взаимодействие подписантов Кодекса этики в сфере ИИ
🇷🇺✍🏻 2 июня в Нижнем Новгороде на площадке ЦИПРа прошла торжественная церемония присоединения новых участников к Кодексу этики в сфере искусственного интеллекта при посредством подписания через платформу ГосКлюч. В церемонии приняли участие заместитель Заместитель Председателя Правительства Российской Федерации Дмитрий Чернышенко и Губернатор Нижегородской области Глеб Никитин.

Ведущим церемонии выступил Председатель Комиссии по реализации Кодекса этики в сфере ИИ Андрей Незнамов.

Дмитрий Чернышенко отметил, что «в прошлом году мы увидели прямой эффект от внедрения ИИ в 300 млрд рублей по отраслям нашей промышленности. Крайне важно, чтобы данная деятельность соответствовала очень строгим стандартам этики использования этих технологии».

К Кодексу присоединились 19 представителей нижегородского научного и бизнес-сообщества: Администрация города Нижнего Новгорода, ООО «Протон», ООО «АВМ Реалити», ННГУ им. Н.И. Лобачевского, ООО «НЕЙРО», «Артезио», «Лаборатория компьютерного зрения», ООО «ЭР-ТОП», АНО «Центр искусственного интеллекта «Горький», ООО «ЛАД Ай Ти», ООО «Интелливижн», ООО «Глобус-ИТ», ООО «Риверстарт», ГБОУ ВО НГИЭУ Княгининский университет, Волго-Вятский банк ПАО Сбербанк, ООО «Фокстанк Моторс», ООО «Мягкий сон», ООО ПКФ «Кварц», АО «Управляющая компания БХХ «Оргхим», ООО «Матллер».

Глеб Никитин подчеркнул, что «принятие такого значимого решения для общества и государства в Нижнем Новгороде является ярчайшим событием в развитии всей отечественной ИИ-отрасли. Устойчивое развитие предполагает саморегулирование и следование определенным идеологическим принципам».

Кроме того, Дмитрий Чернышенко сообщил, что в ближайшее время планируется присоединение новых участников к Кодексу этики в сфере ИИ на площадках других регионов: в Ханты-Мансийске и Иннополисе, на Дальнем Востоке.
⚡️🇷🇺Сбер и ДВФУ создадут Дальневосточный центр изучения правовых и этических аспектов ИИ и цифровых технологий

Меморандум об учреждении центра подписан на форуме ПМЭФ 2022.

Центр займётся широким спектром задач — от анализа регулирования ИИ в странах Азиатско-Тихоокеанского региона (АТР) до научного сотрудничества с ведущими институтами из этих стран.
🇨🇦 Парламент Канады принял в 1 чтении законопроект, устанавливающий (помимо прочего) базовые требования к разработке систем ИИ.

Законопроект устанавливает базовые требования для "высокорисковых систем ИИ" (хотя пока что ни в действующем праве Канады, ни в законопроекте нет критериев, что считать высокорисковыми системами). Но сами по себе положения носят весьма общий характер:

Суть:
1) "лицо, отвечающее" за систему ИИ, должно само определять, относить ли СИИ к высокорисковым системам. "Ответственным лицом" считается любой субъект, который отвечает за "создание, разработку, обеспечение доступности и работы СИИ"
2) если СИИ оказывается высокорисковой - надо идентифицировать возможные риски причинения вреда и небеспристрастности ИИ, принять меры по их устранению, а также обеспечить мониторинг соблюдения этих мер. Все предпринимаемые меры должны быть задокументированы
3) также для высокорисковых СИИ надо опубликовать на доступном языке описание, как работает ИИ и какие меры приняты для устранения рисков
4) если работа высокорисковых СИИ может привести к причинению вреда - необходимо уведомить об этом Минпром (или уполномоченного представителя Тайного совета (Queen’s Privy Council for Canada)

Законопроект также предусматривает создание новой должности - Комиссара по ИИ и данным (Artificial Intelligence Data Commissioner) - с достаточно широким спектром полномочий - от права запросить документацию по устранению рисков до выдачи приказов о запрете использовать высокорисковую СИИ в случае серьёзного риска причинения вреда
🌍 Делимся докладом Google и The Economist Group о развитии ИИ в странах Магриба и Ближнего Востока.

Доклад интересен не только обзором экономического эффекта от разработки и внедрения систем ИИ в этих странах. В нём также кратко рассматриваются стратегии развития ИИ, принятые в этом регионе на государственном уровне, а также обзор, какие (по мнению авторов доклада) есть проблемы с обеспечением этичности ИИ в этом регионе
🇰🇷 В Сеуле запускают опытную коммерческую эксплуатацию ВАТС (4 уровень автоматизации). Причём запускают в самом многолюдном и загруженном районе города. Сообщается, что первыми пассажирами беспилотного такси были министр землеустройства, инфраструктуры и транспорта Кореи и мэр Сеула
🇪🇺 Делимся докладом Еврокомиссии, посвящённым соблюдению прав ребёнка в при внедрении и использовании искусственного интеллекта.

Доклад очень разносторонний. В нём можно найти:
🌍 обзор, какие международные акты и инициативы, относящиеся к правам ребёнка и применимые к сфере ИИ, есть на уровне ООН, Юнисеф, Юнеско, ОЭСР, Совета Европы и ЕС
🧑‍🔬 анализ воздействия на детей рекомендательных систем, диалоговых систем и социальных роботов. Причём рассматриваются не только негативная, но и позитивная сторона вопроса
👥 обзор рисков в области этики и основных прав, связанных с внедрением таких систем. Причём учитываются не только позиции "взорослых" - учёных и чиновников - но и взгляд подрастающего поколения: были проведены воркшопы, где дети и подростки сами делились своим восприятием возможностей и рисков использования систем ИИ
✔️ в качестве заключения обозначены ключевые риски и методология их устранения
Также делимся небольшим докладом "Справедливое использование ИИ", подготовленным Ассоциацией банковских и финансовых услуг Великобритании (UK Finance) и юридической фирмой Herbert Smith Freehills

Доклад интересен (в числе прочего) тем, что рассматривает принцип справедливого ИИ ("fairness", "fair AI") с призмы английского права. В нём можно увидеть, какие уже действующие акты применимы по этому вопросу на различных уровнях
Сегодня начал работу X Петербургский международный юридический форум.

В 12:15 (мск) состоится сессия «Беспилотные транспортные средства: новации в регулировании».

Обсудим подготовку нормативно-правовой базы для внедрения автономного судовождения морского и речного транспорта; правовое регулирование в области беспилотного воздушного транспорта; какие еще шаги необходимо предпринять для выпуска беспилотных автомобилей на автомобильные дороги общего пользования и внедрение и развитие беспилотников на железной дороге.

👥Участвуют:
• Дмитрий Тер-Степанов, заместитель генерального директора — директор направления «Эффективное регулирование» организации «Цифровая экономика;
• Дмитрий Баканов, замглавы Минтранса РФ;
• Анатолий Дюбанов, директор департамента развития цифровой экономики Минэкономразвития РФ;
• Виталий Клюев, директор департамента государ ственной политики в области морского и речного транспорта Минтранса РФ;
• Антон Никифоров, руководитель отдела беспилотных авиационных систем АО «Почта России»;
• Артем Шейкин, член комитета Совета Федерации Федерального Собрания Российской Федерации по конституционному законодательству и государственному строительству.
• Михаил Кузнецов, заместитель начальника управления по надзору за исполнением законов на транспорте и в таможенной сфере Генпрокуратуры РФ.

🎤Модератор: Андрей Незнамов, управляющий директор — начальник центра регулирования AI ПАО «Сбер».

Трансляция по ссылке.