Центр регулирования ИИ
874 subscribers
29 photos
14 files
174 links
Download Telegram
🇬🇧 Делимся совместным докладом Банка Англии и Управления по финансовому мониторингу Англии о рисках использования ИИ в финансовой сфере.

Доклад - результат длительных консультаций английского фин регулятора с остальными гос органами, а также с бизнесом и учебными заведениями. В какой-то степени можно сказать, что позицию по ИИ обсуждали всем английским финансовым миром. Так что доклад в некоторой степени отражает, как английский финансовый сектор смотрит на развитие ИИ.

Судя по докладу, ИИ сам по себе проблемы редко создаёт, но опасен скорее многократным усугублением уже имеющихся проблем. При этом основную проблему видят в сложности технологий, а ключевой "must do" - работать над понятностью и объяснимостью ИИ.
Forwarded from НТИ Автонет (Veronica Korshikova)
🚗 В Японии планируют разрешить использование беспилотного транспорта без водителей

4 марта Правительство Японии выдвинуло на рассмотрение законопроект о пересмотре правил дорожного движения в стране для реализации услуг беспилотного управления автомобилем четвертого уровня.

Законопроект будет представлен во время текущей сессии японского парламента. Он призывает разрешить компаниям, предоставляющим услуги беспилотного пилотирования, дать возможность использовать четвертый уровень автономности, который не предполагает наличие водителя в транспортном средстве.

Также Правительство планирует ввести новые правила использования электрических самокатов и автоматизированных роботов-доставщиков, которые привлекают внимание как новые средства транспортировки и доставки.

Если законопроект будет принят, новые правила вступят в силу в течение года для роботов с автоматическим вождением и доставкой и в течение двух лет для электрических скутеров.
Forwarded from НТИ Автонет (Veronica Korshikova)
В Шотландии опубликовали окончательный отчет, содержащий рекомендации по безопасному и ответственному внедрению автоматизированных транспортных средств

Юридическая комиссия и Комиссия по законодательству Шотландии в своем докладе рекомендует принять новый Закон об автоматизированных транспортных средствах, который, по мнению комиссии, должен проводить четкое различие между функциями помощи водителю, такими как адаптивный круиз-контроль, и полностью автономными системами.

Предлагаемый закон будет предусматривать следующее:

Когда автомобиль уполномочен регулирующим органом как имеющий функции самостоятельного вождения и эти функции используются, человек за рулем больше не будет нести ответственность за то, как автомобиль едет. Вместо этого регулирующие санкции будут направлены на производителя или другой орган, ответственный за получение разрешения на использование на дорогах.

Человек на водительском сиденье будет называться «ответственным пользователем» и будет защищен от судебного преследования за несчастные случаи, произошедшие в результате вождения беспилотного автомобиля. Однако он сохранит ответственность за страхование, проверку грузов и обеспечение того, чтобы пассажиры были пристегнуты ремнями безопасности.

Некоторым транспортным средствам, например, используемым для общественного транспорта, может быть разрешено управлять самостоятельно без ответственного пользователя, а пассажиры просто классифицируются как пассажиры. В этом случае ответственность возьмет на себя лицензированный оператор.

Кроме того, Юридическая комиссия хочет, чтобы были введены новые меры безопасности и чтобы функции помощи водителю не рекламировались и позиционировались как "самостоятельное вождение". Ранее Тесла уже сталкивалась с критикой за брендинг своего набора таких функций и позиционируя их как «Автопилот».

Также в отчёте есть рекомендации в отношении данных.

Поскольку автономное транспортное средство генерирует огромное количество данных о местоположении, окружении, маршруте, системах и тд.
Рекомендуется, чтобы этими данными пользовались для понимания причин неисправности и определения ответственности при столкновении. В этом случае персоналу автопарка может потребоваться включить в свой штат аналитиков данных или аналитиков по кибербезопасности, обеспечивающих защиту данных от хакеров.
🌎📊Опубликован обновленный Индекс искусственного интеллекта 2022, подготовленный Стэндфордским университетом.

Стоит отметить, что в обновленном Индексе заметно больше внимания уделяется регулированию и этике ИИ по сравнению с предыдущими редакциями.

Среди ключевых выводов авторы выделяют:
☑️Возрастающую роль этики ИИ: с 2014 года число исследований по вопросам справедливости и прозрачности ИИ резко возросло: количество соответствующих публикаций на конференциях, посвященных этике ИИ, увеличилось в пять раз. Принципы справедливости и непредвзятости алгоритмов превратились из преимущественно академических занятий в устоявшуюся тему исследований с широким спектром практических последствий. Исследователи, представляющие сферу индустрии ИИ, за последние несколько лет сделали на 71% больше публикаций в годовом исчислении на конференциях, посвященных этике.

☑️Рост законодательного регулирования в области ИИ: анализ, проведенный в рамках создания Индекса ИИ, демонстрирует, что количество законопроектов в области ИИ, которые впоследствии были приняты в качестве законов, выросло с 1 (в 2016 году) до 18 (в 2021 году). Наибольшее количество законопроектов в области ИИ было принято в Испании, Великобритании и США: в 2021 году в каждой из этих стран было принято по 3 закона.

🏆Стоит отметить, что Россия является одним из лидеров по числу нормативных правовых актов в области ИИ, уступая в данном аспекте только США.

С полным текстом Индекса вы можете знакомиться по ссылке: https://aiindex.stanford.edu/wp-content/uploads/2022/03/2022-AI-Index-Report_Master.pdf
Forwarded from База знаний AI
Татарстан утвердил порядок внедрения ИИ в работу госорганов

В их числе — обезличивание персональных данных, открытость и прозрачность решений на базе ИИ, а также обеспечение доступности ИИ-сервисов. Кроме этого, прописано требование о защите информации при использовании ИИ.

Оповещать граждан обо всех случаях внедрения искусственного интеллекта в работу государственных структур будет Центр цифровой трансформации Татарстана.

🔗Источник: https://inkazan.ru/news/tech/21-04-2022/vlasti-tatarstana-nachnut-vnedryat-iskusstvennyy-intellekt-v-svoyu-rabotu

***
📃Текст постановления
🌍 После некоторого затишья мир вновь активно возвращается к вопросам регулирования и этики ИИ. За последние пару недель:

🇺🇸 в Калифорнии подготовили и начали обсуждать законопроект, регулирующий применение ИИ в трудовых отношениях. Причём если раньше, в законах тех же штатов Иллинойс и Нью-Йорк, речь шла просто о каких-то базовых правилах, не допускающих дискриминацию, то в этом случае уже планируют предусмотреть конкретные меры ответственности за необъективную работу ИИ

🇬🇧любопытно, но почти одновременно с этим было опубликовано исследование Лондонской школы экономики (London School of Economics), где выяснилось, что ИИ уже качественнее и беспристрастнее ведёт подбор персонала, нежели люди (и что проблема скорее в предвзятом отношении людей к работе ИИ)

🇰🇷в Южной Корее были выпущены Руководящие принципы в области ИИ

Документ носит рекомендательные характер для гос органов. Цель - обеспечить разработку искусственного интеллекта (ИИ) таким образом, чтобы не ущемлять человеческое достоинство и основные права человека. В принципах также содержится рекомендация премьер-министру и государственным учреждениям разработать законодательство и политику, чтобы разработчики ИИ соблюдали руководящие принципы.

🇯🇵 Япония принимает закон об экономической безопасности

В положениях закона интересуют два блока:
1) НИОКР в ИИ - ИИ прямо выделен в числе направлений научно-исследовательской деятельности, в рамках которых Правительство будет выделять финансирование и инициировать ГЧП проекты
2) полупроводники - полупроводники прямо выделены в качестве стратегического ресурса (наряду с редкоземельными металлами, батареями и лекарствами). Для стабильных поставок этих ресурсов Правительство Японии будет не только разрабатывать отдельные политики, но и предоставлять льготы поставщикам (а также будет закупаться ими впрок на случай будущего дефицита)

🇫🇷 Во Франции предлагают установить 3хлетнюю регуляторную песочницу для апробации технологий распознавания лиц

🇺🇸🇪🇺 По итогам заседания Совета по торговле и Технологиям США и ЕС договорились теснее координировать усилия в области НИОКР. Одним из ключевых результатов встречи также стало обязательство разработать «совместную дорожную карту по инструментам оценки и измерения для надежного ИИ и управления рисками». Также предлагается создание совместного центра/хранилища метрик и методологий для измерения достоверности ИИ и рисков ИИ
🇷🇺 А тем временем в России создана Комиссия по этике в сфере искусственного интеллекта

Комиссия станет площадкой для обмена опытом по вопросам, связанным с этикой искусственного интеллекта и координационным органом, обеспечивающим взаимодействие подписантов Кодекса этики в сфере ИИ
🇷🇺✍🏻 2 июня в Нижнем Новгороде на площадке ЦИПРа прошла торжественная церемония присоединения новых участников к Кодексу этики в сфере искусственного интеллекта при посредством подписания через платформу ГосКлюч. В церемонии приняли участие заместитель Заместитель Председателя Правительства Российской Федерации Дмитрий Чернышенко и Губернатор Нижегородской области Глеб Никитин.

Ведущим церемонии выступил Председатель Комиссии по реализации Кодекса этики в сфере ИИ Андрей Незнамов.

Дмитрий Чернышенко отметил, что «в прошлом году мы увидели прямой эффект от внедрения ИИ в 300 млрд рублей по отраслям нашей промышленности. Крайне важно, чтобы данная деятельность соответствовала очень строгим стандартам этики использования этих технологии».

К Кодексу присоединились 19 представителей нижегородского научного и бизнес-сообщества: Администрация города Нижнего Новгорода, ООО «Протон», ООО «АВМ Реалити», ННГУ им. Н.И. Лобачевского, ООО «НЕЙРО», «Артезио», «Лаборатория компьютерного зрения», ООО «ЭР-ТОП», АНО «Центр искусственного интеллекта «Горький», ООО «ЛАД Ай Ти», ООО «Интелливижн», ООО «Глобус-ИТ», ООО «Риверстарт», ГБОУ ВО НГИЭУ Княгининский университет, Волго-Вятский банк ПАО Сбербанк, ООО «Фокстанк Моторс», ООО «Мягкий сон», ООО ПКФ «Кварц», АО «Управляющая компания БХХ «Оргхим», ООО «Матллер».

Глеб Никитин подчеркнул, что «принятие такого значимого решения для общества и государства в Нижнем Новгороде является ярчайшим событием в развитии всей отечественной ИИ-отрасли. Устойчивое развитие предполагает саморегулирование и следование определенным идеологическим принципам».

Кроме того, Дмитрий Чернышенко сообщил, что в ближайшее время планируется присоединение новых участников к Кодексу этики в сфере ИИ на площадках других регионов: в Ханты-Мансийске и Иннополисе, на Дальнем Востоке.
⚡️🇷🇺Сбер и ДВФУ создадут Дальневосточный центр изучения правовых и этических аспектов ИИ и цифровых технологий

Меморандум об учреждении центра подписан на форуме ПМЭФ 2022.

Центр займётся широким спектром задач — от анализа регулирования ИИ в странах Азиатско-Тихоокеанского региона (АТР) до научного сотрудничества с ведущими институтами из этих стран.
🇨🇦 Парламент Канады принял в 1 чтении законопроект, устанавливающий (помимо прочего) базовые требования к разработке систем ИИ.

Законопроект устанавливает базовые требования для "высокорисковых систем ИИ" (хотя пока что ни в действующем праве Канады, ни в законопроекте нет критериев, что считать высокорисковыми системами). Но сами по себе положения носят весьма общий характер:

Суть:
1) "лицо, отвечающее" за систему ИИ, должно само определять, относить ли СИИ к высокорисковым системам. "Ответственным лицом" считается любой субъект, который отвечает за "создание, разработку, обеспечение доступности и работы СИИ"
2) если СИИ оказывается высокорисковой - надо идентифицировать возможные риски причинения вреда и небеспристрастности ИИ, принять меры по их устранению, а также обеспечить мониторинг соблюдения этих мер. Все предпринимаемые меры должны быть задокументированы
3) также для высокорисковых СИИ надо опубликовать на доступном языке описание, как работает ИИ и какие меры приняты для устранения рисков
4) если работа высокорисковых СИИ может привести к причинению вреда - необходимо уведомить об этом Минпром (или уполномоченного представителя Тайного совета (Queen’s Privy Council for Canada)

Законопроект также предусматривает создание новой должности - Комиссара по ИИ и данным (Artificial Intelligence Data Commissioner) - с достаточно широким спектром полномочий - от права запросить документацию по устранению рисков до выдачи приказов о запрете использовать высокорисковую СИИ в случае серьёзного риска причинения вреда
🌍 Делимся докладом Google и The Economist Group о развитии ИИ в странах Магриба и Ближнего Востока.

Доклад интересен не только обзором экономического эффекта от разработки и внедрения систем ИИ в этих странах. В нём также кратко рассматриваются стратегии развития ИИ, принятые в этом регионе на государственном уровне, а также обзор, какие (по мнению авторов доклада) есть проблемы с обеспечением этичности ИИ в этом регионе
🇰🇷 В Сеуле запускают опытную коммерческую эксплуатацию ВАТС (4 уровень автоматизации). Причём запускают в самом многолюдном и загруженном районе города. Сообщается, что первыми пассажирами беспилотного такси были министр землеустройства, инфраструктуры и транспорта Кореи и мэр Сеула
🇪🇺 Делимся докладом Еврокомиссии, посвящённым соблюдению прав ребёнка в при внедрении и использовании искусственного интеллекта.

Доклад очень разносторонний. В нём можно найти:
🌍 обзор, какие международные акты и инициативы, относящиеся к правам ребёнка и применимые к сфере ИИ, есть на уровне ООН, Юнисеф, Юнеско, ОЭСР, Совета Европы и ЕС
🧑‍🔬 анализ воздействия на детей рекомендательных систем, диалоговых систем и социальных роботов. Причём рассматриваются не только негативная, но и позитивная сторона вопроса
👥 обзор рисков в области этики и основных прав, связанных с внедрением таких систем. Причём учитываются не только позиции "взорослых" - учёных и чиновников - но и взгляд подрастающего поколения: были проведены воркшопы, где дети и подростки сами делились своим восприятием возможностей и рисков использования систем ИИ
✔️ в качестве заключения обозначены ключевые риски и методология их устранения
Также делимся небольшим докладом "Справедливое использование ИИ", подготовленным Ассоциацией банковских и финансовых услуг Великобритании (UK Finance) и юридической фирмой Herbert Smith Freehills

Доклад интересен (в числе прочего) тем, что рассматривает принцип справедливого ИИ ("fairness", "fair AI") с призмы английского права. В нём можно увидеть, какие уже действующие акты применимы по этому вопросу на различных уровнях
Сегодня начал работу X Петербургский международный юридический форум.

В 12:15 (мск) состоится сессия «Беспилотные транспортные средства: новации в регулировании».

Обсудим подготовку нормативно-правовой базы для внедрения автономного судовождения морского и речного транспорта; правовое регулирование в области беспилотного воздушного транспорта; какие еще шаги необходимо предпринять для выпуска беспилотных автомобилей на автомобильные дороги общего пользования и внедрение и развитие беспилотников на железной дороге.

👥Участвуют:
• Дмитрий Тер-Степанов, заместитель генерального директора — директор направления «Эффективное регулирование» организации «Цифровая экономика;
• Дмитрий Баканов, замглавы Минтранса РФ;
• Анатолий Дюбанов, директор департамента развития цифровой экономики Минэкономразвития РФ;
• Виталий Клюев, директор департамента государ ственной политики в области морского и речного транспорта Минтранса РФ;
• Антон Никифоров, руководитель отдела беспилотных авиационных систем АО «Почта России»;
• Артем Шейкин, член комитета Совета Федерации Федерального Собрания Российской Федерации по конституционному законодательству и государственному строительству.
• Михаил Кузнецов, заместитель начальника управления по надзору за исполнением законов на транспорте и в таможенной сфере Генпрокуратуры РФ.

🎤Модератор: Андрей Незнамов, управляющий директор — начальник центра регулирования AI ПАО «Сбер».

Трансляция по ссылке.
⚡️🇷🇺📄 В Госдуму внесён законопроект, упрощающий внедрение ИИ в рамках ГЧП/МЧП/концессионных проектов

Сенаторы Российской Федерации А.А.Турчак, И.В.Рукавишникова, К.К.Долгов, А.В.Синицын; Депутаты Государственной Думы М.А.Топилин, А.Е.Хинштейн, Д.Б.Кравченко, А.И.Немкин внесли в Госдуму проект ФЗ о поправках в Федеральный закон "О государственно - частном партнёрстве..." и в ФЗ "О концессионных соглашениях...".

Предлагаемые поправки снимают барьеры, которые мешают полноценно внедрять ИИ в рамках проектов гсоударственно-частного/муниципального частного партнёрства и концессий.

Особенно предлагаемые поправки важны для создания в России "умных городов" - одно из приоритетных направлений по Концепции развития регулирования ИИ (утв. Распоряжением Правительства РФ от 19.08.2020 № 2129-р).

В сложившейся мировой практике инструменты ГЧП/МЧП/концессии - повсеместный инструмент для внедрения умных городов. Где-то это на уровне ГЧП (например, Сингапур, так как он сам по себе государство). Где-то инструменты, аналогичные российскому мчп (Лондон)

В России за исключением Москвы, Санкт-Петербурга и Севастополя все города считаются муниципальными образованиями. Сейчас в ФЗ "О ГЧП..." российским муниципалитетам прямо запрещено реализовывать собственные цифровые мчп проекты.

Такие формулировки предлагается исключить.

Необходимость таких изменений прямо обозначена как в Национальной стратегии развития ИИ (утв. Указом Президента РФ от 10.10.2019 № 490), так и Концепцией развития регулирования ИИ (утв. Распоряжением Правительства РФ от 19.08.2020 № 2129-р).

Текст законопроекта можно посмотреть здесь
🇷🇺🚂 Сегодня вступили в силу новые правила технической эксплуатации железных дорог.

Как правило, когда говорят про беспилотный транспорт, в основном имеют в виду автомобили, реже воздушные суда и корабли. А поезда почти не упоминают. А зря. Конечно, поезду не надо самостоятельно поворачивать, как, например, машине, но автоматизация движения и там очень технологически сложна и не обходится без ИИ (см., например, обзор технологии автоматического управления от Cognitive pilot).

Новые правила не обходят стороной активное внедрение ИИ в "железке". По правилам можно использовать поезда, снабжённые системами автоматического управления, на железнодрожных путях и инфраструктуре не общего пользования. Но для этого надо, чтобы:
1) в поезде всегда была возможность переключиться на ручной режим управления (п. 162 раздела IX);
2) до допуска поезда к эксплуатации даже на жд путях необщего пользования надо убедиться, что эта система работает и проходит надлежащее обслуживание (п. 141 раздела IX);
3) допуск к ремонту на стрелочных переводах на жд станциях, снабжённых автоматизированной системой управления, должен быть ограничен владельцем жд пути отдельным локальным актом (п. 19 раздела I Приложения 2);
4) при этом ответственность за надёжную работу систем автоматического управления лежит за разработчиками и производителями таких систем (п. 162 раздела IX).