Deep Dive 2 Deep Learning
382 subscribers
23 photos
4 videos
339 links
Канал про глубокое машинное обучение: кейсы, новости, открытия и факапы из мира нейросетей и не только
Download Telegram
⚽️🏃‍♂️Такой футбол нам нужен!
Deep Learning для выявления новых закономерностей и предсказания будущих событий в игре: что будет, если вратарь пропустит гол или насколько вероятен выигрыш вашей любимой команды в этом сезоне. ML-модели, обученные на данных о силе и физической форме игроков, помогут отслеживать их усталость лучше, чем тренеры-люди, и рекомендовать отдых до того, как футболист получит травмы.
Над проектом работает компания DeepMind, пытаясь объединить компьютерное зрение, статистическое обучение и теорию игр, чтобы помочь командам находить закономерности в огромных массивах данных, делая игроков и тренеров умнее, владельцев клубов – богаче, а фанатов - счастливее.
https://www.wired.co.uk/article/deepmind-football-liverpool-ai
🥗ProtoTree: объяснимый Deep Learning или решение проблемы черного ящика DL-моделей
Самое большое препятствие на пути внедрения ИИ-систем в реальную жизнь – невозможность объяснить, на чем основаны результаты анализа. Чтобы решить проблему черного ящика в глубоком обучении, ученые Университета Твенте создали алгоритм Neural Prototype Tree (ProtoTree) для интерпретируемой классификации изображений внутри самой NN-модели. Обычно деревья решений не используются для классификации изображений, но в ProtoTree каждая точка принятия решения содержит небольшое, значимое для человека, изображение, которое легко интерпретировать. А называемые «прототипы», которые выделяются в точках принятия решения, автоматически обнаруживаются только на основе данных из примера изображения. При этом не требуется человеческого экспертного понимания, достаточно лишь нескольких примеров. Данный подход весьма перспективен для медицинских исследований, например, распознавание переломов с помощью рентгеновских лучей. https://techxplore.com/news/2021-06-prototree-black-box-nature-deep.html
💥От GPT-2 до StyleGAN: краткий обзор ТОП-10 генеративно-состязательных сетей с примерами их практического использования при работе с изображениями, текстами и музыкой.
GAN (Generative Adversarial Networks) - одна из самых актуальных тем в глубоком обучении. Генеративная модель способна генерировать новые данные по тому же распределению, что и исходный набор данных, на котором она была обучена. Даже первые попытки использования таких моделей, как гауссовы миксы, скрытые цепи Маркова, машины Больцмана или вариационные автоэнкодеры, были весьма успешными в конкретных кейсах. Применение методов глубокого обучения в генеративном моделировании действительно позволило применять GAN-сети к сложным наборам данных: изображениям, видео, текстам и музыке благодаря доступности огромных датасетов и мощных вычислительных ресурсов. Главный плюс GAN-методов в том, что они не нуждаются в размеченных данных – даже немаркированного датасета достаточно для обучения генеративной модели. Именно GAN-сети лежат в основе множества фото- и видео дипфейков, созданных в последнюю пару лет ради забавы или компрометации известных людей.
https://www.deeplearningweekly.com/p/deep-learning-weekly-generative-modeling
🙌🏻Deep Fake не пройдет: ПО для обнаружения подделок
DS-специалисты Facebook умеют не только идентифицировать дипфейки, но и находить, откуда они взялись. Вместе с учеными Мичиганского университета они разработали ПО, которое находит на фейковых фото, аудио и видео недостатки, оставшихся в процессе производства, позволяя обнаружить GAN-модель, сгенерировавшую подделку. Эта идея расширяет прошлогодний DL-продукт от Microsoft Video Authenticator, который анализирует изображение или каждый кадр видео, чтобы найти манипуляции, незаметные невооруженным глазом.
https://techxplore.com/news/2021-06-facebook-ai-software-deepfake-images.html
👻Нужны глубокие знания по глубокому обучению?
Подробное исследование истории развития Deep Learning и будущее DL-методов от Йошуа Бенжио (Yoshua Bengio), Янн ЛеКун (Yann Lecun) и Джеффри Хинтон (Geoffrey Hinton), лауретов премии ACM имени Тьюринга 2018 года. Изучая прошлые взлеты и падения глубокого обучения, ученые ищут ответ на вопрос, как высокопараллельные сети простых нелинейных нейронов могут решать сложные задачи типа распознавания объектов и понимание смыслов. В чем секрет успеха Deep Learning: большие обучающие выборки, архитектура нейросетей или множество сложных вычислений? Просто о сложном – статья 2021 года на английском языке из июльского номера ведущего ежемесячного журнала Ассоциации вычислительной техники Communications of the ACM
https://cacm.acm.org/magazines/2021/7/253464-deep-learning-for-ai/fulltext
🎯Deep Learning для андронного коллайдера
Исследователи из CERN и Google разработали новый метод ускорения глубоких нейронных сетей для выбора протонных столкновений на Большом адронном коллайдере. Его суть в сжатии глубинной нейронной сети за счет снижения числовой точности параметров, которые ее описывают во время обучения сети, позволяя ей адаптироваться к изменениям без потери производительности. Так можно определить, какая числовая точность лучше всего подходит для конкретного случая использования с учетом аппаратных ограничений и других доступных ресурсов. Метод можно использовать на ПЛИС в детекторах частиц и в других устройствах, которым требуются сети с быстрым временем обработки и небольшими размерами.
Для многих периферийных устройств обычно нужен эффективный вывод, сокращение размера модели, задержки и энергопотребления. Одним из методов ограничения размера модели является квантование, которое подразумевает использование меньшего количества битов для представления весов и смещений, что приводит к снижению производительности. Новый метод проектирования оптимально неоднородно квантованных версий моделей глубоких нейросетей обеспечивает высокоточный наносекундный вывод с минимальными энергетическими затратами и поддерживает полностью автоматизированное развертывание на кристалле. С помощью послойной процедуры автоматического квантования для каждого параметра и выборки из широкого диапазона квантователей, уменьшены размер модели и потребление энергии, с сохранением высокой точности.
В перспективе исследователи хотят использовать предложенный подход для разработки нового типа триггерной системы обнаружения столкновений, которые могут указывать на новую физику, выходящую за рамки стандартной модели физики элементарных частиц.
https://www.nature.com/articles/s42256-021-00356-5
🚗Заводы и фабрики будущего: цифровизация с глубоким обучением
Уже сегодня стартапы Covariant, Ocado's Kindred и Bright Machines используют ML и обучение с подкреплением (reinforcement learning, RL), чтобы изменить способ управления машинами на фабриках и складах, например, заставляя роботов обнаруживать и собирать объекты разных размеров и форм из контейнеров. Это очень выгодно: рынок промышленного контроля и автоматизации в 2020 году оценивался в 152 миллиарда долларов, а автоматизация логистики - более чем в 50 миллиардов долларов. Еще в 2016 году GoogleX рекламировал свои роботизированные «фермы рук» - пространства, заполненные роботизированными руками, которые учились схватывать предметы и учить других делать то же самое. Это был один из первых опытов обучить RL-алгоритм отрабатывать движения в реальной среде и измерить успех его действий. Индустриальная история применения DL- и RL-методов и будущие перспективы в статье от CEO компании, которая разрабатывает и внедряет AI-решения в промышленность и логистику.
https://techcrunch.com/2021/06/17/deep-reinforcement-learning-will-transform-manufacturing-as-we-know-it
🥅Почему сверточные нейросети так востребованы в глубоком обучении?
Свёрточная нейронная сеть (CNN) — это DL-алгоритм, который может принимать входное изображение, приоритизируя через веса и смещения элементы изображения, чтобы отличать их. В отличие от других алгоритмов распознавания образов, CNN не слишком требовательны к качеству исходных изображений. CNN «сворачивает» множество пространственных и цветовых признаков с помощью фильтров, сокращая число задействованных параметров и обеспечивая повторное использования весов. Свёрнутый признак (цвет, ориентация градиента и пр.) уменьшается в размере по сравнению с исходным размером. Помимо сверточного слоя, в CNN также есть слой объединения, который уменьшает размер свёрнутого объекта в пространстве, чтобы сократить размерность и эффективно использовать вычислительные мощности. Также слой объединения помогает извлекать доминирующие признаки, поддерживая обучение модели. Еще в CNN добавляют полносвязный слой, чтобы недорого обеспечить обучение DL-модели нелинейным комбинациям высокоуровневых признаков, полученных на выходе сверточного слоя. Самыми известными на сегодня примерами CNN-архитектур можно назвать AlexNet, VGGNet и GoogLeNet.
🕸Что такое крупномасштабные сверточные нейросети на основе графов (GCN, large-scale graph convolutional networks) и чем они хороши
Читайте обзор недавно предложенной распределенной обучающей структуры для крупномасштабных сверточных сетей на основе графов. Это называется обучением подсетей, не зависящих от графа (GIST, graph independent subnetwork training). GIST ускоряет процесс обучения GCN для любой архитектуры и может использоваться для обучения крупномасштабных моделей, которые превышают возможности одного графического процессора. Машинное обучение на графах полезно, когда данные невозможно представить в евклидовом пространстве. Кроме того, графы – это интуитивно понятная структура данных в социальных сетях, химии, биологии и других прикладных областях, где объекты связаны друг с другом. (т.е. узлы графа - это люди, а ребра - социальные связи) или химия (т.е. узлы графа представляют атомы, а ребра представляют химические связи). GCN реализует обобщение операции свертки для графов, но большинство моделей GCN ограничены по размеру из-за проблемы чрезмерного сглаживания в более глубоких сетях. Подход GIST стремится сократить этот разрыв между возможностями GCN и масштабами глубокого обучения, обучая часть GCN, что гораздо быстрее и эффективнее по сравнению с тренировкой всей большой модели. https://towardsdatascience.com/effortless-distributed-training-of-ultra-wide-gcns-6e9873f58a50
ML-комбо для трейдинга: open-source библиотека FinRL
FinRL предоставляет практикам единую структуру для разработки ML-конвейера. В глубоком обучении с подкреплением (Deep RL, DRL) агент учится, непрерывно взаимодействуя с окружающей средой методом проб и ошибок, чтобы принимать последовательные решения в условиях неопределенности.
Библиотека состоит из трех слоев: среда фондового рынка, DRL агент и приложения для трейдинга акциями. Агент взаимодействует со средой в манере exploration-exploitation. Нижний уровень предоставляет API для верхнего уровня. Каждый слой включает в себя несколько модулей с ограниченным набором функций. Можно также использовать часть модулей для имплементации собственных трейдинговых задач. FinRL представляет DRL-алгоритмы как готовые модули, делая этот ML-метод доступным для использования без профессиональных знаний и экспертного опыта в Data Science. https://github.com/AI4Finance-LLC/FinRL
В Японии разрабатывается технология распознавания лиц медведей-если бы медведи могли говорить, они могли бы высказывать свое негодование по поводу их конфиденциальности. Технология направлена на то, чтобы обезопасить людей от медведей, в особенности от "нарушителей спокойствия" среди них. Для работы системы требуется минимум 30 фотографий морды каждого медведя, сделанных спереди. Автоматические камеры уже установлены вдоль известных медвежьих троп, чтобы захватить необходимые данные,ю Однако, до сих пор не удалось собрать достаточно изображений, чтобы запустить план распознавания лиц. https://www.digitaltrends.com/news/facial-recognition-tech-for-bears-aims-to-keep-humans-safe/
👀Решайте сложные CV-задачи вместе с новым релизом DeepLab2 от Google Research!
Эта библиотека компьютерного зрения на TensorFlow2 отлично решает задачи семантической и паноптической сегментации изображений и видео, в т.ч. с учетом глубины каждого пикселя. Пока это не официальный продукт Google, однако, open-source проект включает унифицированную и современную кодовую базу TensorFlow для задач плотной маркировки пикселей. Попробовать можно прямо сейчас, скачав код с Github https://github.com/google-research/deeplab2
👆🏻Не просто текст: DL-алгоритмы могут генерить программный код
SourceAI, парижский стартап, создает ИИ-инструмент для разработки ПО. AI-система сама сгенерирует Python-код на основе короткого текстового описания того, что эта программа должна делать. С одной стороны, облегчая процессы кодирования и тестирования, DL-модели на базе GPT-3, позволяют быстро создавать простые приложения, помогая простым пользователям и профессиональным разработчикам. Так компания TabNine, используя GPT-2 от OpenAI, выпустила инструмент автозаполнения строки или функции. Еще в апреле 2019 Facebook выпустил ML-инструмент Aroma для выявления похожих фрагментов кода, чтобы помочь разработчикам быстрее писать программы и избегать ошибок, соблюдая принцип Don’t Repeat Yourself. А в октябре 2020 года команда DeepMind представила ИИ-систему, которая может разрабатывать более эффективные версии алгоритмов, написанных людьми. У Intel есть проект Machine Inferred Code Similarity, где ИИ используется для определения семантики участков кода, чтобы понять, что именно делают конкретные строки.
Но такая простота создания программных продуктов может стать причиной уязвимостей и фатальных ошибок. Например, в мартовском исследовании 2021 года студентов и сотрудников MIT доказано, что ИИ-программу, обученную проверять безопасность кода, можно обмануть парой простых трюков, таких как замена переменных. https://www.wired.com/story/ai-latest-trick-writing-computer-code/
💥DL-новости из МИФИ
В марте этого года сотрудники Института интеллектуальных кибернетических систем МИФИ предложили новый метод для обучения ограниченной машины Больцмана, позволяющий оптимизировать процессы семантического кодирования, визуализации и распознавания данных. Доказав, что что классическое правило обучения этой нейросети является частным случаем предложенного метода, ученые подчеркивают перспективы семантического хеширования с помощью глубоких автоассоциативных нейросетей для поиска изображений, компьютерного зрения, распознавания речи и задач биоинформатики. https://na.ria.ru/20180621/1522975977.html
🦋Почти месяц назад, 10 июня, Яндекс обновил свой поиск, добавив 2100 улучшений и новые генеративные нейросети YaLM, чтобы ускорить нахождение нужных данных не только в тексте, но и в видео. Теперь по смыслу текстового запроса поисковик не только найдет ролик, но и начнут его показ с соответствующей секунды. NN-модели YaLM уже успешно себя зарекомендовали: Алиса с их помощью генерирует около 20% своих реплик, они используются для составления подзаголовков объектных ответов и ранжировании их в поиске Яндекса. YaLM-модели обучены на терабайтах русских текстов, а самая мощная из них содержит 13 миллиардов параметров. https://yandex.ru/company/press_releases/2021/2021-06-10
🌸Синтез изображений: не только GAN – июльские новости от Google
Задачи синтеза изображений обычно выполняются глубокими GAN-сетями, VAE и авторегрессионными моделиями. Все они способны синтезировать высококачественные выборки на сложных наборах данных с высоким разрешением, но каждая имеет свои недостатки. Например, GAN часто страдают от нестабильного обучения, а модели авторегрессии обычно работают медленно. Исследователи из Google AI предлагают обойти эти ограничения с помощью диффузионных моделей, впервые предложенных в 2015 году. Сегодня они переживают второе рождение, стабильно выдавая отличные результаты при генерации изображений и звука. Модели диффузии искажают обучающие данные, добавляя гауссовский шум и медленно стирая детали, превращая исходные данные в чистый шум, а затем обучая нейросеть на обратном процессе восстановления. При выполнении обратного искажения данные синтезируются из чистого шума путем его постепенного снижения до получения чистого образца. Эту процедуру синтеза можно интерпретировать как алгоритм оптимизации по градиенту плотности данных для получения вероятных выборок.
Июльское исследование Google представляет два связанных подхода, которые расширяют границы синтеза изображений для моделей диффузии: SR3 и CDM. SR3 обеспечивает высокие результаты сверхвысокого разрешения изображения лучше GAN. А CDM генерирует высокоточные образцы ImageNet, которые намного превосходят BigGAN-deep и VQ-VAE2 по шкале FID и по точности классификации. https://ai.googleblog.com/2021/07/high-fidelity-image-generation-using.html
🕺🏼Умный ковер от ученых MIT
Это не ковер-самолет, но он может распознавать динамику и статику людей без использования камер, что пригодится для автономного персонализированного здравоохранения, умного дома и игр. Недорогая ковровая дорожка 10 метров на 60 см сделана из коммерческой, чувствительной к давлению пленки и проводящей нити с более чем девятью тысячами датчиков, каждый из которых преобразует давление человека в электрический сигнал. Система обучена синхронизированным тактильным и визуальным данным человеческих движений на примере таких физических упражнений, как отжимания от пола.
Видеокамеры использовались только для создания обучающего датасета, фиксируя момент, когда человек выполнял действие. Выводы о трехмерной человеческой фигуре и характере ее движения делала глубокая нейросеть, используя только тактильную информацию с ковровых датчиков. Эта DL-модель смогла предсказать позу человека с погрешностью менее 10 сантиметров. Для классификации конкретных действий система была точной в 97% случаев. https://www.csail.mit.edu/news/intelligent-carpet-gives-insight-human-poses
💨Структура белков от DeepMind AI
Нейросеть AlphaFold, разработанная лондонской дочерней компанией Google DeepMind, недавно предсказала структуру почти всех из 350 тысяч белков человеческого организма, а также сделала тоже самое для мышей, кукурузы, малярийных паразитов и еще пары десятков других живых существ и растений. Впервые DeepMind удивил сообщество медико-биологических наук в 2020 году, когда обновленная версия AlphaFold приняла участие в двухгодичном исследовании по прогнозированию белков, структуры которых были определены экспериментально, но еще не опубликованы. Некоторые прогнозы AlphaFold очень точно совпадали с экспериментальными моделями. А в июле 2021 DeepMind опубликовал исходный код последней версии AlphaFold и подробное описание того, как она была разработана. Компания доработала эту нейросеть, чтобы повысить эффективность кода: раньше некоторые прогнозы рассчитывались целыми днями, а теперь обновленная версия AlphaFold может сделать это за пару часов или даже несколько минут.
https://www.nature.com/articles/d41586-021-02025-4
👻NLP с Deep Learning: 3 перспективных ИИ-стартапа
За последние несколько лет в ИИ-обработке естественного языка подходы на базе глубокого обучения все чаще заменяют классические статистические методы. Самым ярким примером здесь стала нейросеть GPT-3, способная генерировать текст, неотличимый от человеческого, и формировать программный код. Но, это не единственный интересный кейс применения DL к NLP-задачам. Сегодня рассмотрим три разных стартапа: Explosion, Huggingface и John Snow Labs, которые сочетают DL-модели с NLP-подходами.
Explosion – разработчик популярной open-source NLP-библиотеки spaCy, написанной на языках Python и Cython. Она без труда справляется с огромными рабочими нагрузками и идет в ногу с новейшими NLP-технологиями, включая конвейеры на предварительно обученных Transformer-моделях, таких как BERT, с возможностью интеграции PyTorch и TensorFlow. Также Explosion предлагает коммерческий продукт Prodigy, который позволяет создавать выразительные аннотации наборов данных с возможностью создания сценариев, Поддерживая аннотирование изображений, аудио и видео, с Prodigy DS-специалисты могут снизить затраты на создание богатых датасетов и более совершенных DL-моделей.
Huggingface – компания, которая создала библиотеку PyTorch и постоянно выпускает множество Transformer-моделей NLP для разных доменов и языков. Решения Huggingface используется во множестве продуктов, от Grammarly до решений Microsoft, Google и Facebook. А недавно Huggingface выпустил библиотеку Accelerate, которая упрощает обучение больших моделей на множестве распределенных машин.
John Snow Labs продвигает Spark NLP для реализации множества приложений: распознавание именованных сущностей, поиск информации, классификация и анализ настроений с помощью огромного количества DL-моделей и более 400 конвейеров для различных приложений. NLP-модуль использует преимущества масштабирования Apache Spark, что упрощает его распределенное развертывание. Из практических кейсов Spark NLP от John Snow Labs стоит отметить Healthcare AI - управляемую платформу поверх Kubernetes для анализа и исследований в сфере здравоохранения с набором дополнительных пакетов для распознавания и связывания клинических объектов, извлечения медицинских концепций из текста и пр. Здесь же упомянем другой коммерческий продукт - Spark OCR для распознавания текста, который может захватывать области изображения с буквами и выводить их в форматах DICOM и PDF, поддерживая сквозное извлечение именованных сущностей. https://www.infoworld.com/article/3621022/3-ai-startups-revolutionizing-nlp.html