72.6K subscribers
1.47K photos
122 videos
17 files
3.17K links
Разбираем лучшие open source новинки из мира ml, код, вопросы с собеседований, публикуем открытые курсы и гайды
Первоисточник всего, что появляется в платных курсах и остальных ресурсах.

По всем вопросам- @haarrp

@itchannels_telegram -🔥best channels
Download Telegram
🚀 Optimized inference with NVIDIA and Hugging Face

Optimum-NVIDIA теперь доступен на Hugging Face!

28-кратное ускорение вычислений и 1 200 токенов в секунду на платформе NVIDIA с помощью всего 1 строки кода.

Optimum-NVIDIA обеспечивает лучшую производительность вычислений на платформе NVIDIA.

#LLM E https://huggingface.co/blog/optimum-nvidia

🖥 Github

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡️ Finetuning for Text Classification

Если вы ищете чем занаться на выходных и хотите немного почитать и покодить,- вот свежая глава из книги Build an LLM from Scratch, по настройке GPT-модели для классификации СПАМ-сообщений с точностью до 96%.

Модель небольшая и обучение на MacBook Air M3 занимает ~ 5 минут.

Github

#book #tutorial #llm

@ai_machinelearning_big_data
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️ Quivr — "Obsidian" с ИИ

Quivr — это open-source локальная и приватная альтернатива OpenAI GPTs и ChatGPT.

Позволяет извлекать информацию из локальных файлов (PDF, CSV, Excel, Word, аудио, видео...), используя Langchain, GPT 3.5/4 turbo, Private, Anthropic, VertexAI, Ollama, LLMs, Groq.
Даёт возможность легко делится своей базой знаний через публичную ссылку.

Quivr работает в автономном режиме, поэтому вы можете получить доступ к своим данным в любое время и в любом месте.

🖥 GitHub
🟡 Страничка Quivr

#llm #local

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
🌟 TrustLLM для оценивания ответов LLM

TrustLLM — инструмент на Python для комплексного исследования ответов от LLM.
TrustLLM рассматривает 6 аспектов ответов: правдивость, безопасность, этичность, соблюдение конфиденциальности и другие.

В этом документе подробно объясняется, как использовать инструмент для оценки эффективности собственных моделей.


pip install trustllm


GitHub
Arxiv
Docs
Project

#llm

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
🌟 Introduction to Granite Code Models

IBM выпустили Granite Code Models: семейство моделей Open Foundation для интеллектуального анализа и генерации кода

Все модели Granite Code выпущены под лицензией Apache 2.0.

Модели Granite превосходят модели с открытым исходным кодом по всем параметрам. На рисунке показано, как Granite-8B-CodeBase превосходит Mistral-7B, LLama-3-8B и другие модели с открытым исходным кодом в трех задачах кодинга. Полные оценки можно найти здесь.

Модели отлично справляются с задачами генерации кода, исправления багов объяснения кода, генерации документации к кода.

- Размер моделей варьируется от 3B до 34B параметров
- Обученных на 3-4 триллионах токенах, полученных из 116 языков программирования

Github: https://github.com/ibm-granite/granite-code-models
Paper: https://arxiv.org/abs/2405.04324
HF: https://huggingface.co/collections/ibm-granite/granite-code-models-6624c5cec322e4c148c8b330

#llm #codegeneration

@ai_machinelearning_big_data
🔥Gemma 2B with recurrent local attention with context length of up to 10M

Огненная модель Gemma 2B с длиной контекста 10M, которая анализирует до 7 млн слов.

В нее можно закидывать огромные документы и модель всё проанализирует.

Производительность выше Gemini в 10 раз, а памяти нужно всего 32 ГБ.

Github: https://github.com/mustafaaljadery/gemma-2B-10M
HF: https://huggingface.co/mustafaaljadery/gemma-2B-10M
Technical Overview: https://medium.com/@akshgarg_36829/gemma-10m-technical-overview-900adc4fbeeb

#llm #gemma

@ai_machinelearning_big_data
⚡️ LLaVA-NeXT: A Strong Zero-shot Video Understanding Model

LLaVA-NeXT - одна из самых мощных на сегодняшний день моделей для понимания видео, превосходящая все существующие VLM, с открытым исходным кодом.

Новая SoTA!

LLaVA-Next демонстрирует высокую скорость передачи данных и демонстрирует отличные результаты при zero-shot обучении.


git clone https://github.com/LLaVA-VL/LLaVA-NeXT


Github: https://github.com/LLaVA-VL/LLaVA-NeXT
Blog: https://llava-vl.github.io/blog/2024-04-30-llava-next-video/
HF: https://huggingface.co/shi-labs/CuMo-mistral-7b
Dataset: https://huggingface.co/datasets/shi-labs/CuMo_dataset

#llm #vlm

@ai_machinelearning_big_data
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 DocsGPT — open-source AI-помощник для работы с документами и не только

DocsGPT — это функциональное решение на базе LLM и GPT с открытым исходным кодом, которое упрощает процесс поиска информации в документации.
Благодаря интеграции мощных LLM можно задавать вопросы по документации и различным текстам и получать точные ответы.

Модели на Hugging Face:
🟡 Docsgpt-7b-mistral — требует 1×A10G GPU
🟡 Docsgpt-14b — требует 2×A10 GPU
🟡 Docsgpt-40b-falcon — требует 8×A10G GPU

🖥 GitHub

#llm #gpt

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM