
Україна Online: Новини | Політика

Телеграмна служба новин - Україна

Резидент

Мир сегодня с "Юрий Подоляка"

Труха⚡️Україна

Николаевский Ванёк

Лачен пише

Реальний Київ | Украина

Реальна Війна

Україна Online: Новини | Політика

Телеграмна служба новин - Україна

Резидент

Мир сегодня с "Юрий Подоляка"

Труха⚡️Україна

Николаевский Ванёк

Лачен пише

Реальний Київ | Украина

Реальна Війна

Україна Online: Новини | Політика

Телеграмна служба новин - Україна

Резидент

Анализ данных (Data analysis)
Data science, наука о данных.
@haarrp - админ
@itchannels_telegram - 🔥 главное в ит
@ai_machinelearning_big_data - ML
@machinelearning_interview - вопросы с собесдований по Ml
РКН: clck.ru/3FmyAp
@haarrp - админ
@itchannels_telegram - 🔥 главное в ит
@ai_machinelearning_big_data - ML
@machinelearning_interview - вопросы с собесдований по Ml
РКН: clck.ru/3FmyAp
TGlist reytingi
0
0
TuriOmmaviy
Tekshirish
TekshirilmaganIshonchnoma
ShubhaliJoylashuvРосія
TilBoshqa
Kanal yaratilgan sanaТрав 28, 2022
TGlist-ga qo'shildi
Лют 07, 2025Muxrlangan guruh

Machine learning chat
10.9K
Obunachilar
45 256
24 soat
39-0.1%Hafta
59-0.1%Oy
590.1%
Iqtiboslar indeksi
0
Eslatmalar1Kanallardagi repostlar0Kanallardagi eslatmalar1
Bitta postning o'rtacha qamrovi
1 747
12 soat1 1480%24 soat1 7470%48 soat4 580
70.3%
Ishtirok (ER)
5.87%
Repostlar65Izohlar0Reaksiyalar2
Qamrov bo'yicha ishtirok (ERR)
6.17%
24 soat
2.31%Hafta0%Oy
0.06%
Bitta reklama postining qamrovi
1 747
1 soat82947.45%1 – 4 soat130.74%4 - 24 soat1 02458.61%
24 soat ichidagi barcha postlar
2
Dinamika
1
Rekordlar
01.04.202513:43
45.3KObunachilar28.02.202516:56
400Iqtiboslar indeksi02.03.202514:15
9.2KBitta post qamrovi25.02.202523:59
9.2KReklama posti qamrovi12.02.202507:30
12.79%ER04.03.202508:31
20.41%ERR23.03.202513:00
🔥 Transformers Laid Out
Лучший способ изучить PyTorch — создать что-нибудь с его помощью на практике.
В этом блоге представлен пошаговый гайд по написанию трансформерам с помощью PyTorch с нуля.🖥
📌 Гайд
📌 Что под капотом у PyTorch
📌Видео объяснения базы по тензорам
Лучший способ изучить PyTorch — создать что-нибудь с его помощью на практике.
В этом блоге представлен пошаговый гайд по написанию трансформерам с помощью PyTorch с нуля.🖥
📌 Гайд
📌 Что под капотом у PyTorch
📌Видео объяснения базы по тензорам


07.04.202510:52
⚡️ Pydoll — это библиотека на Python, предназначенная для автоматизации браузеров на движке Chromium (Chrome и Microsoft Edge) без использования WebDriver.
Инструмент имитирует «реальные» действия пользователя и обеспечивает гибкость при работе с элементами интерфейса и сетевыми запросами.
🔗 Ключевые особенности
- Асинхронная автоматизация без WebDriver
- Позволяет обойтись без установки и настройки драйверов WebDriver, что упрощает процесс интеграции и обслуживания.
- Реализована на базе asyncio, поэтому поддерживает запуск нескольких задач одновременно.
- Обход Cloudflare Turnstile
- Имеется встроенный механизм для автоматического прохождения CAPTCHA:
- Синхронная блокировка (context manager), когда выполнение кода приостанавливается до момента решения задачи.
- Фоновый режим (non-blocking), когда автоматизация продолжает работу, пока CAPTCHA решается в фоне.
- Поддерживает «человеко-подобный» набор текста (имитация пауз, скорости).
- Распознаёт специальные клавиши и сочетания клавиш (нажатия SHIFT, CTRL, ALT и т.д.).
- Подключение к существующим сессиям
- Можно подсоединяться к уже запущенным экземплярам Chrome или Edge, что удобно для отладки или интеграции с имеющимися сессиями пользователя.
Благодаря отсутствию необходимости в WebDriver и возможности имитировать взаимодействие «как настоящий пользователь», Pydoll будет полезен в проектах, где требуется гибкая и реалистичная автоматизация.
📌 Github
@data_analysis_ml
Инструмент имитирует «реальные» действия пользователя и обеспечивает гибкость при работе с элементами интерфейса и сетевыми запросами.
🔗 Ключевые особенности
- Асинхронная автоматизация без WebDriver
- Позволяет обойтись без установки и настройки драйверов WebDriver, что упрощает процесс интеграции и обслуживания.
- Реализована на базе asyncio, поэтому поддерживает запуск нескольких задач одновременно.
- Обход Cloudflare Turnstile
- Имеется встроенный механизм для автоматического прохождения CAPTCHA:
- Синхронная блокировка (context manager), когда выполнение кода приостанавливается до момента решения задачи.
- Фоновый режим (non-blocking), когда автоматизация продолжает работу, пока CAPTCHA решается в фоне.
- Поддерживает «человеко-подобный» набор текста (имитация пауз, скорости).
- Распознаёт специальные клавиши и сочетания клавиш (нажатия SHIFT, CTRL, ALT и т.д.).
- Подключение к существующим сессиям
- Можно подсоединяться к уже запущенным экземплярам Chrome или Edge, что удобно для отладки или интеграции с имеющимися сессиями пользователя.
Благодаря отсутствию необходимости в WebDriver и возможности имитировать взаимодействие «как настоящий пользователь», Pydoll будет полезен в проектах, где требуется гибкая и реалистичная автоматизация.
📌 Github
@data_analysis_ml


29.03.202510:39
🖥 Как установить Deep Seek локально с помощью Ollama LLM в Ubuntu 24.04
Подробное руководство от TecMint, демонстрирующее, как установить и запустить модель DeepSeek локально на Linux (Ubuntu 24.04) с использованием Ollama.
Гайд охватывает все этапы установки: обновление системы, инсталляцию Python и Git, настройку Ollama для управления DeepSeek, а также запуск модели через командную строку или с помощью удобного Web UI.
▪ Руководство также включает инструкции по автоматическому запуску Web UI при старте системы через systemd, что делает работу с моделью более комфортной и доступной.
Подойдет для тех, кто хочет исследовать возможности работы с крупными языковыми моделями без привязки к облачным сервисам, обеспечивая полный контроль над моделью и её настройками.
▪ Читать
Подробное руководство от TecMint, демонстрирующее, как установить и запустить модель DeepSeek локально на Linux (Ubuntu 24.04) с использованием Ollama.
Гайд охватывает все этапы установки: обновление системы, инсталляцию Python и Git, настройку Ollama для управления DeepSeek, а также запуск модели через командную строку или с помощью удобного Web UI.
▪ Руководство также включает инструкции по автоматическому запуску Web UI при старте системы через systemd, что делает работу с моделью более комфортной и доступной.
Подойдет для тех, кто хочет исследовать возможности работы с крупными языковыми моделями без привязки к облачным сервисам, обеспечивая полный контроль над моделью и её настройками.
▪ Читать
Repost qilingan:
Machinelearning



26.03.202518:51
🔥 В chat.qwenlm.ai chat теперь доступны голосовой режим + режим видеочата
Более того китайцы выложили код своей Qwen2.5-Omni-7B - единой omni-модели, которая может понимать текст, аудио, изображение и видео.
Они разработали архитектуру "thinker-talker", которая обеспечивает одновременное размышление модели и ее разговор .
Вскоре обещают выпустить в опенсорс модели на еще большее количество параметров.
Просто топ, бегом тестить.
🟢Попробовать: https://chat.qwenlm.ai
🟢Paper: https://github.com/QwenLM/Qwen2.5-Omni/blob/main/assets/Qwen2.5_Omni.pdf
🟢Blog: https://qwenlm.github.io/blog/qwen2.5-omni
🟢GitHub: https://github.com/QwenLM/Qwen2.5-Omni
🟢Hugging Face: https://huggingface.co/Qwen/Qwen2.5-Omni-7B
🟢ModelScope: https://modelscope.cn/models/Qwen/Qwen2.5-Omni-7B
@ai_machinelearning_big_data
#qwen #release #Omni
Более того китайцы выложили код своей Qwen2.5-Omni-7B - единой omni-модели, которая может понимать текст, аудио, изображение и видео.
Они разработали архитектуру "thinker-talker", которая обеспечивает одновременное размышление модели и ее разговор .
Вскоре обещают выпустить в опенсорс модели на еще большее количество параметров.
Просто топ, бегом тестить.
🟢Попробовать: https://chat.qwenlm.ai
🟢Paper: https://github.com/QwenLM/Qwen2.5-Omni/blob/main/assets/Qwen2.5_Omni.pdf
🟢Blog: https://qwenlm.github.io/blog/qwen2.5-omni
🟢GitHub: https://github.com/QwenLM/Qwen2.5-Omni
🟢Hugging Face: https://huggingface.co/Qwen/Qwen2.5-Omni-7B
🟢ModelScope: https://modelscope.cn/models/Qwen/Qwen2.5-Omni-7B
@ai_machinelearning_big_data
#qwen #release #Omni


05.04.202510:50
📌 FastRAG — фреймворк, предлагающий разработчикам современные инструменты для создания оптимизированных RAG-пайплайнов. Этот сервис, построенный на базе Haystack и Hugging Face, фокусируется на эффективном сочетании информационного поиска с генеративными возможностями LLM.
Фреймворк предоставляет готовые компоненты для работы с современными методами семантического поиска, оптимизированные под современные аппаратные ускорители, включая процессоры Intel Xeon и AI-акселераторы Gaudi.
При этом FastRAG активно развивается — от поддержки мультимодальности до примеров динамического синтеза промптов.
🤖 GitHub
@data_analysis_ml
Фреймворк предоставляет готовые компоненты для работы с современными методами семантического поиска, оптимизированные под современные аппаратные ускорители, включая процессоры Intel Xeon и AI-акселераторы Gaudi.
При этом FastRAG активно развивается — от поддержки мультимодальности до примеров динамического синтеза промптов.
🤖 GitHub
@data_analysis_ml
Repost qilingan:
Machinelearning



24.03.202518:13
📌 72B слишком много для VLM? А 7B параметров недостаточно!
QWEN только что выпустили новую модель на 32B параметров, Qwen2.5-VL-32B-Instruct.
Эта модель представляет собой значительный прогресс для своего размера. И что самое лучшее, она лицензирована Apache 2.
Модель выдает более подробные и структурированный ответы.
💡 Детальное понимание: превосходные возможности анализа изображений и визуальной логической дедукции.
📊 Превосходит сопоставимые модели, такие как Mistral-Small-3.1-24B и Gemma-3-27B-IT.
🚀 В нескольких тестах даже превосходит более крупный Qwen2-VL-72B-Instruct.
Еще один крутой релиз понедельника!
🟢Блог: https://qwenlm.github.io/blog/qwen2.5-vl-32b/
🟢Попробовать: https://chat.qwen.ai
ВЧ: https://huggingface.co/Qwen/Qwen2.5-VL-32B-Instruct
🟢Модель: https://modelscope.cn/models/Qwen/Qwen2.5-VL-32B-Instruct
@ai_machinelearning_big_data
#AI #ML #LLM #Dataset #HuggingFace
QWEN только что выпустили новую модель на 32B параметров, Qwen2.5-VL-32B-Instruct.
Эта модель представляет собой значительный прогресс для своего размера. И что самое лучшее, она лицензирована Apache 2.
Модель выдает более подробные и структурированный ответы.
💡 Детальное понимание: превосходные возможности анализа изображений и визуальной логической дедукции.
📊 Превосходит сопоставимые модели, такие как Mistral-Small-3.1-24B и Gemma-3-27B-IT.
🚀 В нескольких тестах даже превосходит более крупный Qwen2-VL-72B-Instruct.
Еще один крутой релиз понедельника!
🟢Блог: https://qwenlm.github.io/blog/qwen2.5-vl-32b/
🟢Попробовать: https://chat.qwen.ai
ВЧ: https://huggingface.co/Qwen/Qwen2.5-VL-32B-Instruct
🟢Модель: https://modelscope.cn/models/Qwen/Qwen2.5-VL-32B-Instruct
@ai_machinelearning_big_data
#AI #ML #LLM #Dataset #HuggingFace


08.04.202510:01
🕊️ Namsor - это ИИ для анализа имен собственных с лингвистическим интеллектом. Причем это не просто классификатор, а инструмент с глубоким пониманием культурных и лингвистических контекстов.
Проект удивляет точностью: он различает, является ли "Mercedes фамилией человека, названием города или автомобильным брендом, учитывая страну происхождения.
Технология особенно востребована в CRM-системах, соцсетях и базах данных, где критична корректная интерпретация имен.
🔗 Ссылка - *клик*
Проект удивляет точностью: он различает, является ли "Mercedes фамилией человека, названием города или автомобильным брендом, учитывая страну происхождения.
Технология особенно востребована в CRM-системах, соцсетях и базах данных, где критична корректная интерпретация имен.
🔗 Ссылка - *клик*


25.03.202507:55
🔥 Helix — это платформа для создания и развертывания AI-приложений с использованием декларативных конвейеров, интеграции знаний и API!
🌟 Она позволяет описывать AI-решения в YAML-файле (helix.yaml), что упрощает их настройку, тестирование и развертывание. Helix ориентирован на разработчиков, которые хотят строить генеративные AI-приложения с гибкостью и полной приватностью.
🖥 Github
@data_analysis_ml
🌟 Она позволяет описывать AI-решения в YAML-файле (helix.yaml), что упрощает их настройку, тестирование и развертывание. Helix ориентирован на разработчиков, которые хотят строить генеративные AI-приложения с гибкостью и полной приватностью.
🖥 Github
@data_analysis_ml


24.03.202511:47
⚡️ Alibaba только что выпустила TaoAvatar на Hugging Face
Реалистичные говорящие аватары в полный рост для дополненной реальности с помощью 3D-гауссовых сплатов.
Он обеспечивает точное управление мимикой и движениями, работая в реальном времени даже на мобильных устройствах.
Метод использует нейросетевую дистилляцию, достигая 90 FPS на Apple Vision Pro.
🟡Проект
🟡Статья
🟡Видео
🟡Демка
@data_analysis_ml
Реалистичные говорящие аватары в полный рост для дополненной реальности с помощью 3D-гауссовых сплатов.
Он обеспечивает точное управление мимикой и движениями, работая в реальном времени даже на мобильных устройствах.
Метод использует нейросетевую дистилляцию, достигая 90 FPS на Apple Vision Pro.
🟡Проект
🟡Статья
🟡Видео
🟡Демка
@data_analysis_ml


24.03.202510:02
👩💻 Neural Structured Learning (NSL) — это фреймворк для обучения нейронных сетей с использованием структурированных сигналов, таких как графы и данные с враждебными искажениями!
🌟 NSL позволяет улучшать точность моделей, особенно при ограниченном объёме размеченных данных, за счёт объединения как размеченных, так и неразмеченных данных.
🔍 Основные возможности:
🌟 API для работы с графами и враждебными искажениями на базе TensorFlow и Keras.
🌟 Поддержка создания графов и входных данных для обучения.
🌟 Универсальность для различных архитектур (CNN, RNN и др.) и методов обучения (контролируемого, частично контролируемого и др.).
🔐 Лицензия: Apache-2.0
🖥 Github
@data_analysis_ml
🌟 NSL позволяет улучшать точность моделей, особенно при ограниченном объёме размеченных данных, за счёт объединения как размеченных, так и неразмеченных данных.
🔍 Основные возможности:
🌟 API для работы с графами и враждебными искажениями на базе TensorFlow и Keras.
🌟 Поддержка создания графов и входных данных для обучения.
🌟 Универсальность для различных архитектур (CNN, RNN и др.) и методов обучения (контролируемого, частично контролируемого и др.).
🔐 Лицензия: Apache-2.0
🖥 Github
@data_analysis_ml
23.03.202510:26
🔥 Tripo MCP Server
Основная функция tripo-mcp заключается в генерации 3D-объектов на основе текстовых описаний с использованием API Tripo и их импорте в Blender. Проект находится на стадии альфа-версии.
📌 Туториал: https://tripo3d.ai/blog/cursor-tripo-mcp-tutorial
📌 Github: https://github.com/VAST-AI-Research/tripo-mcp
@data_analysis_ml
#blendermcp #vibecoding #tripo3d
Основная функция tripo-mcp заключается в генерации 3D-объектов на основе текстовых описаний с использованием API Tripo и их импорте в Blender. Проект находится на стадии альфа-версии.
📌 Туториал: https://tripo3d.ai/blog/cursor-tripo-mcp-tutorial
📌 Github: https://github.com/VAST-AI-Research/tripo-mcp
@data_analysis_ml
#blendermcp #vibecoding #tripo3d


09.04.202508:04
⚡️Как Docker упрощает жизнь аналитиков и инженеров данных
Когда вы работаете с данными, анализируете их или строите модели машинного обучения, Docker позволяет сосредоточиться на самой работе, не отвлекаясь на настройку окружения.
На бесплатном вебинаре вы научитесь упаковывать приложения вместе со всеми зависимостями, избегать проблем с несовместимостью, а значит и повысите эффективность работы и сэкономите время на настройку окружения.
Что будем делать на вебинаре:
🟠Разберём основы Docker и как контейнеры упрощают работу;
🟠Выполним анализ данных, запустив Python прямо внутри контейнера;
🟠Автоматизируем окружение с помощью Docker Compose (Python + PostgreSQL);
🟠Настроим удобный доступ к результатам анализа;
🟠Организуем ускоренную обработку больших данных.
😶Зарегистрироваться на бесплатный вебинар
Когда вы работаете с данными, анализируете их или строите модели машинного обучения, Docker позволяет сосредоточиться на самой работе, не отвлекаясь на настройку окружения.
На бесплатном вебинаре вы научитесь упаковывать приложения вместе со всеми зависимостями, избегать проблем с несовместимостью, а значит и повысите эффективность работы и сэкономите время на настройку окружения.
Что будем делать на вебинаре:
🟠Разберём основы Docker и как контейнеры упрощают работу;
🟠Выполним анализ данных, запустив Python прямо внутри контейнера;
🟠Автоматизируем окружение с помощью Docker Compose (Python + PostgreSQL);
🟠Настроим удобный доступ к результатам анализа;
🟠Организуем ускоренную обработку больших данных.
😶Зарегистрироваться на бесплатный вебинар
Repost qilingan:
Machinelearning



05.04.202519:11
🦙 Встречайте, дамы и господа, LLaMA 4: мультимодальные MoE модели!
Llama 4 Omni разработана для понимания и обработки информации модальностей, а не только текста.
Доступна в 3х вариантах: Llama 4 Scout и Llama 4 Maverick, Llama 4 Behemoth.
У Llama 4 Scout (109B) контекстное окно размером 10 М, 17B активных параметров, 16 экспертов, может быть запущена на 1ом GPU!
Llama 4 Maverick (400B) окно в 1M, 128 экспертов, 17B активных параметров.
У Бегемота окно в 2T!!!, 16 экспертов, 288B активных параметров.
- Model Card
- Веса
- Релиз
@ai_machinelearning_big_data
Llama 4 Omni разработана для понимания и обработки информации модальностей, а не только текста.
Доступна в 3х вариантах: Llama 4 Scout и Llama 4 Maverick, Llama 4 Behemoth.
У Llama 4 Scout (109B) контекстное окно размером 10 М, 17B активных параметров, 16 экспертов, может быть запущена на 1ом GPU!
Llama 4 Maverick (400B) окно в 1M, 128 экспертов, 17B активных параметров.
У Бегемота окно в 2T!!!, 16 экспертов, 288B активных параметров.
- Model Card
- Веса
- Релиз
@ai_machinelearning_big_data


06.04.202515:40
Когда потратил 3 часа на отладку сгенерированного кода, который написал бы за час.
@data_analysis_ml
@data_analysis_ml
Ko'proq funksiyalarni ochish uchun tizimga kiring.