Optimum-NVIDIA теперь доступен на Hugging Face!
28-кратное ускорение вычислений и 1 200 токенов в секунду на платформе NVIDIA с помощью всего 1 строки кода.
Optimum-NVIDIA обеспечивает лучшую производительность вычислений на платформе NVIDIA.
#LLM E https://huggingface.co/blog/optimum-nvidia
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡️ Finetuning for Text Classification
Если вы ищете чем занаться на выходных и хотите немного почитать и покодить,- вот свежая глава из книги Build an LLM from Scratch, по настройке GPT-модели для классификации СПАМ-сообщений с точностью до 96%.
Модель небольшая и обучение на MacBook Air M3 занимает ~ 5 минут.
▪ Github
#book #tutorial #llm
@ai_machinelearning_big_data
Если вы ищете чем занаться на выходных и хотите немного почитать и покодить,- вот свежая глава из книги Build an LLM from Scratch, по настройке GPT-модели для классификации СПАМ-сообщений с точностью до 96%.
Модель небольшая и обучение на MacBook Air M3 занимает ~ 5 минут.
▪ Github
#book #tutorial #llm
@ai_machinelearning_big_data
This media is not supported in your browser
VIEW IN TELEGRAM
Quivr — это open-source локальная и приватная альтернатива OpenAI GPTs и ChatGPT.
Позволяет извлекать информацию из локальных файлов (PDF, CSV, Excel, Word, аудио, видео...), используя Langchain, GPT 3.5/4 turbo, Private, Anthropic, VertexAI, Ollama, LLMs, Groq.
Даёт возможность легко делится своей базой знаний через публичную ссылку.
Quivr работает в автономном режиме, поэтому вы можете получить доступ к своим данным в любое время и в любом месте.
#llm #local
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
TrustLLM
— инструмент на Python
для комплексного исследования ответов от LLM. TrustLLM рассматривает 6 аспектов ответов: правдивость, безопасность, этичность, соблюдение конфиденциальности и другие.
В этом документе подробно объясняется, как использовать инструмент для оценки эффективности собственных моделей.
pip install trustllm
▪GitHub
▪Arxiv
▪Docs
▪Project
#llm
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
🌟 Introduction to Granite Code Models
IBM выпустили Granite Code Models: семейство моделей Open Foundation для интеллектуального анализа и генерации кода
Все модели Granite Code выпущены под лицензией Apache 2.0.
Модели Granite превосходят модели с открытым исходным кодом по всем параметрам. На рисунке показано, как Granite-8B-CodeBase превосходит Mistral-7B, LLama-3-8B и другие модели с открытым исходным кодом в трех задачах кодинга. Полные оценки можно найти здесь.
Модели отлично справляются с задачами генерации кода, исправления багов объяснения кода, генерации документации к кода.
- Размер моделей варьируется от 3B до 34B параметров
- Обученных на 3-4 триллионах токенах, полученных из 116 языков программирования
▪Github: https://github.com/ibm-granite/granite-code-models
▪Paper: https://arxiv.org/abs/2405.04324
▪HF: https://huggingface.co/collections/ibm-granite/granite-code-models-6624c5cec322e4c148c8b330
#llm #codegeneration
@ai_machinelearning_big_data
IBM выпустили Granite Code Models: семейство моделей Open Foundation для интеллектуального анализа и генерации кода
Все модели Granite Code выпущены под лицензией Apache 2.0.
Модели Granite превосходят модели с открытым исходным кодом по всем параметрам. На рисунке показано, как Granite-8B-CodeBase превосходит Mistral-7B, LLama-3-8B и другие модели с открытым исходным кодом в трех задачах кодинга. Полные оценки можно найти здесь.
Модели отлично справляются с задачами генерации кода, исправления багов объяснения кода, генерации документации к кода.
- Размер моделей варьируется от 3B до 34B параметров
- Обученных на 3-4 триллионах токенах, полученных из 116 языков программирования
▪Github: https://github.com/ibm-granite/granite-code-models
▪Paper: https://arxiv.org/abs/2405.04324
▪HF: https://huggingface.co/collections/ibm-granite/granite-code-models-6624c5cec322e4c148c8b330
#llm #codegeneration
@ai_machinelearning_big_data
🔥Gemma 2B with recurrent local attention with context length of up to 10M
Огненная модель Gemma 2B с длиной контекста 10M, которая анализирует до 7 млн слов.
В нее можно закидывать огромные документы и модель всё проанализирует.
Производительность выше Gemini в 10 раз, а памяти нужно всего 32 ГБ.
▪Github: https://github.com/mustafaaljadery/gemma-2B-10M
▪HF: https://huggingface.co/mustafaaljadery/gemma-2B-10M
▪Technical Overview: https://medium.com/@akshgarg_36829/gemma-10m-technical-overview-900adc4fbeeb
#llm #gemma
@ai_machinelearning_big_data
Огненная модель Gemma 2B с длиной контекста 10M, которая анализирует до 7 млн слов.
В нее можно закидывать огромные документы и модель всё проанализирует.
Производительность выше Gemini в 10 раз, а памяти нужно всего 32 ГБ.
▪Github: https://github.com/mustafaaljadery/gemma-2B-10M
▪HF: https://huggingface.co/mustafaaljadery/gemma-2B-10M
▪Technical Overview: https://medium.com/@akshgarg_36829/gemma-10m-technical-overview-900adc4fbeeb
#llm #gemma
@ai_machinelearning_big_data
⚡️ LLaVA-NeXT: A Strong Zero-shot Video Understanding Model
LLaVA-NeXT - одна из самых мощных на сегодняшний день моделей для понимания видео, превосходящая все существующие VLM, с открытым исходным кодом.
Новая SoTA!
LLaVA-Next демонстрирует высокую скорость передачи данных и демонстрирует отличные результаты при zero-shot обучении.
▪Github: https://github.com/LLaVA-VL/LLaVA-NeXT
▪Blog: https://llava-vl.github.io/blog/2024-04-30-llava-next-video/
▪HF: https://huggingface.co/shi-labs/CuMo-mistral-7b
▪Dataset: https://huggingface.co/datasets/shi-labs/CuMo_dataset
#llm #vlm
@ai_machinelearning_big_data
LLaVA-NeXT - одна из самых мощных на сегодняшний день моделей для понимания видео, превосходящая все существующие VLM, с открытым исходным кодом.
Новая SoTA!
LLaVA-Next демонстрирует высокую скорость передачи данных и демонстрирует отличные результаты при zero-shot обучении.
git clone https://github.com/LLaVA-VL/LLaVA-NeXT
▪Github: https://github.com/LLaVA-VL/LLaVA-NeXT
▪Blog: https://llava-vl.github.io/blog/2024-04-30-llava-next-video/
▪HF: https://huggingface.co/shi-labs/CuMo-mistral-7b
▪Dataset: https://huggingface.co/datasets/shi-labs/CuMo_dataset
#llm #vlm
@ai_machinelearning_big_data
This media is not supported in your browser
VIEW IN TELEGRAM
DocsGPT — это функциональное решение на базе LLM и GPT с открытым исходным кодом, которое упрощает процесс поиска информации в документации.
Благодаря интеграции мощных LLM можно задавать вопросы по документации и различным текстам и получать точные ответы.
Модели на Hugging Face:
#llm #gpt
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM