
Україна Online: Новини | Політика

Телеграмна служба новин - Україна

Резидент

Мир сегодня с "Юрий Подоляка"

Труха⚡️Україна

Николаевский Ванёк

Лачен пише

Реальний Київ | Украина

Реальна Війна

Україна Online: Новини | Політика

Телеграмна служба новин - Україна

Резидент

Мир сегодня с "Юрий Подоляка"

Труха⚡️Україна

Николаевский Ванёк

Лачен пише

Реальний Київ | Украина

Реальна Війна

Україна Online: Новини | Політика

Телеграмна служба новин - Україна

Резидент

Анализ данных (Data analysis)
Data science, наука о данных.
@haarrp - админ
@itchannels_telegram - 🔥 главное в ит
@ai_machinelearning_big_data - ML
@machinelearning_interview - вопросы с собесдований по Ml
РКН: clck.ru/3FmyAp
@haarrp - админ
@itchannels_telegram - 🔥 главное в ит
@ai_machinelearning_big_data - ML
@machinelearning_interview - вопросы с собесдований по Ml
РКН: clck.ru/3FmyAp
Рейтинг TGlist
0
0
ТипПубличный
Верификация
Не верифицированныйДоверенность
Не провернныйРасположениеРосія
ЯзыкДругой
Дата создания каналаТрав 28, 2022
Добавлено на TGlist
Лют 07, 2025Прикрепленная группа

Machine learning chat
10.9K
Рекорды
01.04.202513:43
45.3KПодписчиков28.02.202516:56
400Индекс цитирования02.03.202514:15
9.2KОхват одного поста25.02.202523:59
9.2KОхват рекламного поста12.02.202523:59
12.79%ER04.03.202508:31
20.41%ERR23.03.202513:00
🔥 Transformers Laid Out
Лучший способ изучить PyTorch — создать что-нибудь с его помощью на практике.
В этом блоге представлен пошаговый гайд по написанию трансформерам с помощью PyTorch с нуля.🖥
📌 Гайд
📌 Что под капотом у PyTorch
📌Видео объяснения базы по тензорам
Лучший способ изучить PyTorch — создать что-нибудь с его помощью на практике.
В этом блоге представлен пошаговый гайд по написанию трансформерам с помощью PyTorch с нуля.🖥
📌 Гайд
📌 Что под капотом у PyTorch
📌Видео объяснения базы по тензорам


07.04.202510:52
⚡️ Pydoll — это библиотека на Python, предназначенная для автоматизации браузеров на движке Chromium (Chrome и Microsoft Edge) без использования WebDriver.
Инструмент имитирует «реальные» действия пользователя и обеспечивает гибкость при работе с элементами интерфейса и сетевыми запросами.
🔗 Ключевые особенности
- Асинхронная автоматизация без WebDriver
- Позволяет обойтись без установки и настройки драйверов WebDriver, что упрощает процесс интеграции и обслуживания.
- Реализована на базе asyncio, поэтому поддерживает запуск нескольких задач одновременно.
- Обход Cloudflare Turnstile
- Имеется встроенный механизм для автоматического прохождения CAPTCHA:
- Синхронная блокировка (context manager), когда выполнение кода приостанавливается до момента решения задачи.
- Фоновый режим (non-blocking), когда автоматизация продолжает работу, пока CAPTCHA решается в фоне.
- Поддерживает «человеко-подобный» набор текста (имитация пауз, скорости).
- Распознаёт специальные клавиши и сочетания клавиш (нажатия SHIFT, CTRL, ALT и т.д.).
- Подключение к существующим сессиям
- Можно подсоединяться к уже запущенным экземплярам Chrome или Edge, что удобно для отладки или интеграции с имеющимися сессиями пользователя.
Благодаря отсутствию необходимости в WebDriver и возможности имитировать взаимодействие «как настоящий пользователь», Pydoll будет полезен в проектах, где требуется гибкая и реалистичная автоматизация.
📌 Github
@data_analysis_ml
Инструмент имитирует «реальные» действия пользователя и обеспечивает гибкость при работе с элементами интерфейса и сетевыми запросами.
🔗 Ключевые особенности
- Асинхронная автоматизация без WebDriver
- Позволяет обойтись без установки и настройки драйверов WebDriver, что упрощает процесс интеграции и обслуживания.
- Реализована на базе asyncio, поэтому поддерживает запуск нескольких задач одновременно.
- Обход Cloudflare Turnstile
- Имеется встроенный механизм для автоматического прохождения CAPTCHA:
- Синхронная блокировка (context manager), когда выполнение кода приостанавливается до момента решения задачи.
- Фоновый режим (non-blocking), когда автоматизация продолжает работу, пока CAPTCHA решается в фоне.
- Поддерживает «человеко-подобный» набор текста (имитация пауз, скорости).
- Распознаёт специальные клавиши и сочетания клавиш (нажатия SHIFT, CTRL, ALT и т.д.).
- Подключение к существующим сессиям
- Можно подсоединяться к уже запущенным экземплярам Chrome или Edge, что удобно для отладки или интеграции с имеющимися сессиями пользователя.
Благодаря отсутствию необходимости в WebDriver и возможности имитировать взаимодействие «как настоящий пользователь», Pydoll будет полезен в проектах, где требуется гибкая и реалистичная автоматизация.
📌 Github
@data_analysis_ml


29.03.202510:39
🖥 Как установить Deep Seek локально с помощью Ollama LLM в Ubuntu 24.04
Подробное руководство от TecMint, демонстрирующее, как установить и запустить модель DeepSeek локально на Linux (Ubuntu 24.04) с использованием Ollama.
Гайд охватывает все этапы установки: обновление системы, инсталляцию Python и Git, настройку Ollama для управления DeepSeek, а также запуск модели через командную строку или с помощью удобного Web UI.
▪ Руководство также включает инструкции по автоматическому запуску Web UI при старте системы через systemd, что делает работу с моделью более комфортной и доступной.
Подойдет для тех, кто хочет исследовать возможности работы с крупными языковыми моделями без привязки к облачным сервисам, обеспечивая полный контроль над моделью и её настройками.
▪ Читать
Подробное руководство от TecMint, демонстрирующее, как установить и запустить модель DeepSeek локально на Linux (Ubuntu 24.04) с использованием Ollama.
Гайд охватывает все этапы установки: обновление системы, инсталляцию Python и Git, настройку Ollama для управления DeepSeek, а также запуск модели через командную строку или с помощью удобного Web UI.
▪ Руководство также включает инструкции по автоматическому запуску Web UI при старте системы через systemd, что делает работу с моделью более комфортной и доступной.
Подойдет для тех, кто хочет исследовать возможности работы с крупными языковыми моделями без привязки к облачным сервисам, обеспечивая полный контроль над моделью и её настройками.
▪ Читать
post.reposted:
Machinelearning



26.03.202518:51
🔥 В chat.qwenlm.ai chat теперь доступны голосовой режим + режим видеочата
Более того китайцы выложили код своей Qwen2.5-Omni-7B - единой omni-модели, которая может понимать текст, аудио, изображение и видео.
Они разработали архитектуру "thinker-talker", которая обеспечивает одновременное размышление модели и ее разговор .
Вскоре обещают выпустить в опенсорс модели на еще большее количество параметров.
Просто топ, бегом тестить.
🟢Попробовать: https://chat.qwenlm.ai
🟢Paper: https://github.com/QwenLM/Qwen2.5-Omni/blob/main/assets/Qwen2.5_Omni.pdf
🟢Blog: https://qwenlm.github.io/blog/qwen2.5-omni
🟢GitHub: https://github.com/QwenLM/Qwen2.5-Omni
🟢Hugging Face: https://huggingface.co/Qwen/Qwen2.5-Omni-7B
🟢ModelScope: https://modelscope.cn/models/Qwen/Qwen2.5-Omni-7B
@ai_machinelearning_big_data
#qwen #release #Omni
Более того китайцы выложили код своей Qwen2.5-Omni-7B - единой omni-модели, которая может понимать текст, аудио, изображение и видео.
Они разработали архитектуру "thinker-talker", которая обеспечивает одновременное размышление модели и ее разговор .
Вскоре обещают выпустить в опенсорс модели на еще большее количество параметров.
Просто топ, бегом тестить.
🟢Попробовать: https://chat.qwenlm.ai
🟢Paper: https://github.com/QwenLM/Qwen2.5-Omni/blob/main/assets/Qwen2.5_Omni.pdf
🟢Blog: https://qwenlm.github.io/blog/qwen2.5-omni
🟢GitHub: https://github.com/QwenLM/Qwen2.5-Omni
🟢Hugging Face: https://huggingface.co/Qwen/Qwen2.5-Omni-7B
🟢ModelScope: https://modelscope.cn/models/Qwen/Qwen2.5-Omni-7B
@ai_machinelearning_big_data
#qwen #release #Omni


05.04.202510:50
📌 FastRAG — фреймворк, предлагающий разработчикам современные инструменты для создания оптимизированных RAG-пайплайнов. Этот сервис, построенный на базе Haystack и Hugging Face, фокусируется на эффективном сочетании информационного поиска с генеративными возможностями LLM.
Фреймворк предоставляет готовые компоненты для работы с современными методами семантического поиска, оптимизированные под современные аппаратные ускорители, включая процессоры Intel Xeon и AI-акселераторы Gaudi.
При этом FastRAG активно развивается — от поддержки мультимодальности до примеров динамического синтеза промптов.
🤖 GitHub
@data_analysis_ml
Фреймворк предоставляет готовые компоненты для работы с современными методами семантического поиска, оптимизированные под современные аппаратные ускорители, включая процессоры Intel Xeon и AI-акселераторы Gaudi.
При этом FastRAG активно развивается — от поддержки мультимодальности до примеров динамического синтеза промптов.
🤖 GitHub
@data_analysis_ml
post.reposted:
Machinelearning



24.03.202518:13
📌 72B слишком много для VLM? А 7B параметров недостаточно!
QWEN только что выпустили новую модель на 32B параметров, Qwen2.5-VL-32B-Instruct.
Эта модель представляет собой значительный прогресс для своего размера. И что самое лучшее, она лицензирована Apache 2.
Модель выдает более подробные и структурированный ответы.
💡 Детальное понимание: превосходные возможности анализа изображений и визуальной логической дедукции.
📊 Превосходит сопоставимые модели, такие как Mistral-Small-3.1-24B и Gemma-3-27B-IT.
🚀 В нескольких тестах даже превосходит более крупный Qwen2-VL-72B-Instruct.
Еще один крутой релиз понедельника!
🟢Блог: https://qwenlm.github.io/blog/qwen2.5-vl-32b/
🟢Попробовать: https://chat.qwen.ai
ВЧ: https://huggingface.co/Qwen/Qwen2.5-VL-32B-Instruct
🟢Модель: https://modelscope.cn/models/Qwen/Qwen2.5-VL-32B-Instruct
@ai_machinelearning_big_data
#AI #ML #LLM #Dataset #HuggingFace
QWEN только что выпустили новую модель на 32B параметров, Qwen2.5-VL-32B-Instruct.
Эта модель представляет собой значительный прогресс для своего размера. И что самое лучшее, она лицензирована Apache 2.
Модель выдает более подробные и структурированный ответы.
💡 Детальное понимание: превосходные возможности анализа изображений и визуальной логической дедукции.
📊 Превосходит сопоставимые модели, такие как Mistral-Small-3.1-24B и Gemma-3-27B-IT.
🚀 В нескольких тестах даже превосходит более крупный Qwen2-VL-72B-Instruct.
Еще один крутой релиз понедельника!
🟢Блог: https://qwenlm.github.io/blog/qwen2.5-vl-32b/
🟢Попробовать: https://chat.qwen.ai
ВЧ: https://huggingface.co/Qwen/Qwen2.5-VL-32B-Instruct
🟢Модель: https://modelscope.cn/models/Qwen/Qwen2.5-VL-32B-Instruct
@ai_machinelearning_big_data
#AI #ML #LLM #Dataset #HuggingFace


08.04.202510:01
🕊️ Namsor - это ИИ для анализа имен собственных с лингвистическим интеллектом. Причем это не просто классификатор, а инструмент с глубоким пониманием культурных и лингвистических контекстов.
Проект удивляет точностью: он различает, является ли "Mercedes фамилией человека, названием города или автомобильным брендом, учитывая страну происхождения.
Технология особенно востребована в CRM-системах, соцсетях и базах данных, где критична корректная интерпретация имен.
🔗 Ссылка - *клик*
Проект удивляет точностью: он различает, является ли "Mercedes фамилией человека, названием города или автомобильным брендом, учитывая страну происхождения.
Технология особенно востребована в CRM-системах, соцсетях и базах данных, где критична корректная интерпретация имен.
🔗 Ссылка - *клик*


25.03.202507:55
🔥 Helix — это платформа для создания и развертывания AI-приложений с использованием декларативных конвейеров, интеграции знаний и API!
🌟 Она позволяет описывать AI-решения в YAML-файле (helix.yaml), что упрощает их настройку, тестирование и развертывание. Helix ориентирован на разработчиков, которые хотят строить генеративные AI-приложения с гибкостью и полной приватностью.
🖥 Github
@data_analysis_ml
🌟 Она позволяет описывать AI-решения в YAML-файле (helix.yaml), что упрощает их настройку, тестирование и развертывание. Helix ориентирован на разработчиков, которые хотят строить генеративные AI-приложения с гибкостью и полной приватностью.
🖥 Github
@data_analysis_ml


24.03.202511:47
⚡️ Alibaba только что выпустила TaoAvatar на Hugging Face
Реалистичные говорящие аватары в полный рост для дополненной реальности с помощью 3D-гауссовых сплатов.
Он обеспечивает точное управление мимикой и движениями, работая в реальном времени даже на мобильных устройствах.
Метод использует нейросетевую дистилляцию, достигая 90 FPS на Apple Vision Pro.
🟡Проект
🟡Статья
🟡Видео
🟡Демка
@data_analysis_ml
Реалистичные говорящие аватары в полный рост для дополненной реальности с помощью 3D-гауссовых сплатов.
Он обеспечивает точное управление мимикой и движениями, работая в реальном времени даже на мобильных устройствах.
Метод использует нейросетевую дистилляцию, достигая 90 FPS на Apple Vision Pro.
🟡Проект
🟡Статья
🟡Видео
🟡Демка
@data_analysis_ml


24.03.202510:02
👩💻 Neural Structured Learning (NSL) — это фреймворк для обучения нейронных сетей с использованием структурированных сигналов, таких как графы и данные с враждебными искажениями!
🌟 NSL позволяет улучшать точность моделей, особенно при ограниченном объёме размеченных данных, за счёт объединения как размеченных, так и неразмеченных данных.
🔍 Основные возможности:
🌟 API для работы с графами и враждебными искажениями на базе TensorFlow и Keras.
🌟 Поддержка создания графов и входных данных для обучения.
🌟 Универсальность для различных архитектур (CNN, RNN и др.) и методов обучения (контролируемого, частично контролируемого и др.).
🔐 Лицензия: Apache-2.0
🖥 Github
@data_analysis_ml
🌟 NSL позволяет улучшать точность моделей, особенно при ограниченном объёме размеченных данных, за счёт объединения как размеченных, так и неразмеченных данных.
🔍 Основные возможности:
🌟 API для работы с графами и враждебными искажениями на базе TensorFlow и Keras.
🌟 Поддержка создания графов и входных данных для обучения.
🌟 Универсальность для различных архитектур (CNN, RNN и др.) и методов обучения (контролируемого, частично контролируемого и др.).
🔐 Лицензия: Apache-2.0
🖥 Github
@data_analysis_ml
23.03.202510:26
🔥 Tripo MCP Server
Основная функция tripo-mcp заключается в генерации 3D-объектов на основе текстовых описаний с использованием API Tripo и их импорте в Blender. Проект находится на стадии альфа-версии.
📌 Туториал: https://tripo3d.ai/blog/cursor-tripo-mcp-tutorial
📌 Github: https://github.com/VAST-AI-Research/tripo-mcp
@data_analysis_ml
#blendermcp #vibecoding #tripo3d
Основная функция tripo-mcp заключается в генерации 3D-объектов на основе текстовых описаний с использованием API Tripo и их импорте в Blender. Проект находится на стадии альфа-версии.
📌 Туториал: https://tripo3d.ai/blog/cursor-tripo-mcp-tutorial
📌 Github: https://github.com/VAST-AI-Research/tripo-mcp
@data_analysis_ml
#blendermcp #vibecoding #tripo3d


22.03.202511:21
⚡️ JARVIS-VLA – модель обучения масштабных моделей «визуально-языкового взаимодействия» (Vision Language Models) для игры с использованием клавиатуры и мыши.
Проект заточен под игру в Minecraft, где модель способна выполнять более 1 000 различных атомарных задач таких как крафтинг, плавка, готовка, добыча ресурсов и даже сражения.
▪ Инновационный подход к обучению
Модель превозносит на 40% по сравнению с лучшими агентами-базами на разнообразном наборе атомарных задач.
▪ Достижение новых стандартов в Minecraft
Подход JARVIS-VLA превосходит традиционные методы имитационного обучения, демонстрируя передовые результаты и устанавливая новые стандарты производительности в управлении агентами в игровом мире Minecraft.
▪ Применение в реальных случаях
Использование данной модели в Minecraft открывает широкие возможности для автоматизации и оптимизации игровых процессов, что может быть интересно не только геймерам, но и исследователям в области ИИ, стремящимся расширить границы взаимодействия человека с компьютерными агентами.
▪ HF
▪Статья
@data_analysis_ml
Проект заточен под игру в Minecraft, где модель способна выполнять более 1 000 различных атомарных задач таких как крафтинг, плавка, готовка, добыча ресурсов и даже сражения.
▪ Инновационный подход к обучению
Модель превозносит на 40% по сравнению с лучшими агентами-базами на разнообразном наборе атомарных задач.
▪ Достижение новых стандартов в Minecraft
Подход JARVIS-VLA превосходит традиционные методы имитационного обучения, демонстрируя передовые результаты и устанавливая новые стандарты производительности в управлении агентами в игровом мире Minecraft.
▪ Применение в реальных случаях
Использование данной модели в Minecraft открывает широкие возможности для автоматизации и оптимизации игровых процессов, что может быть интересно не только геймерам, но и исследователям в области ИИ, стремящимся расширить границы взаимодействия человека с компьютерными агентами.
▪ HF
▪Статья
@data_analysis_ml


09.04.202508:04
⚡️Как Docker упрощает жизнь аналитиков и инженеров данных
Когда вы работаете с данными, анализируете их или строите модели машинного обучения, Docker позволяет сосредоточиться на самой работе, не отвлекаясь на настройку окружения.
На бесплатном вебинаре вы научитесь упаковывать приложения вместе со всеми зависимостями, избегать проблем с несовместимостью, а значит и повысите эффективность работы и сэкономите время на настройку окружения.
Что будем делать на вебинаре:
🟠Разберём основы Docker и как контейнеры упрощают работу;
🟠Выполним анализ данных, запустив Python прямо внутри контейнера;
🟠Автоматизируем окружение с помощью Docker Compose (Python + PostgreSQL);
🟠Настроим удобный доступ к результатам анализа;
🟠Организуем ускоренную обработку больших данных.
😶Зарегистрироваться на бесплатный вебинар
Когда вы работаете с данными, анализируете их или строите модели машинного обучения, Docker позволяет сосредоточиться на самой работе, не отвлекаясь на настройку окружения.
На бесплатном вебинаре вы научитесь упаковывать приложения вместе со всеми зависимостями, избегать проблем с несовместимостью, а значит и повысите эффективность работы и сэкономите время на настройку окружения.
Что будем делать на вебинаре:
🟠Разберём основы Docker и как контейнеры упрощают работу;
🟠Выполним анализ данных, запустив Python прямо внутри контейнера;
🟠Автоматизируем окружение с помощью Docker Compose (Python + PostgreSQL);
🟠Настроим удобный доступ к результатам анализа;
🟠Организуем ускоренную обработку больших данных.
😶Зарегистрироваться на бесплатный вебинар
post.reposted:
Machinelearning



05.04.202519:11
🦙 Встречайте, дамы и господа, LLaMA 4: мультимодальные MoE модели!
Llama 4 Omni разработана для понимания и обработки информации модальностей, а не только текста.
Доступна в 3х вариантах: Llama 4 Scout и Llama 4 Maverick, Llama 4 Behemoth.
У Llama 4 Scout (109B) контекстное окно размером 10 М, 17B активных параметров, 16 экспертов, может быть запущена на 1ом GPU!
Llama 4 Maverick (400B) окно в 1M, 128 экспертов, 17B активных параметров.
У Бегемота окно в 2T!!!, 16 экспертов, 288B активных параметров.
- Model Card
- Веса
- Релиз
@ai_machinelearning_big_data
Llama 4 Omni разработана для понимания и обработки информации модальностей, а не только текста.
Доступна в 3х вариантах: Llama 4 Scout и Llama 4 Maverick, Llama 4 Behemoth.
У Llama 4 Scout (109B) контекстное окно размером 10 М, 17B активных параметров, 16 экспертов, может быть запущена на 1ом GPU!
Llama 4 Maverick (400B) окно в 1M, 128 экспертов, 17B активных параметров.
У Бегемота окно в 2T!!!, 16 экспертов, 288B активных параметров.
- Model Card
- Веса
- Релиз
@ai_machinelearning_big_data
Войдите, чтобы разблокировать больше функциональности.