Мир сегодня с "Юрий Подоляка"
Мир сегодня с "Юрий Подоляка"
Труха⚡️Україна
Труха⚡️Україна
Николаевский Ванёк
Николаевский Ванёк
Мир сегодня с "Юрий Подоляка"
Мир сегодня с "Юрий Подоляка"
Труха⚡️Україна
Труха⚡️Україна
Николаевский Ванёк
Николаевский Ванёк
Анализ данных (Data analysis) avatar

Анализ данных (Data analysis)

Data science, наука о данных.

@haarrp
- админ

@itchannels_telegram
- 🔥 главное в ит

@ai_machinelearning_big_data
- ML

@machinelearning_interview
- вопросы с собесдований по Ml
РКН: clck.ru/3FmyAp
TGlist reytingi
0
0
TuriOmmaviy
Tekshirish
Tekshirilmagan
Ishonchnoma
Shubhali
JoylashuvРосія
TilBoshqa
Kanal yaratilgan sanaТрав 28, 2022
TGlist-ga qo'shildi
Лют 07, 2025
Muxrlangan guruh

Telegram kanali Анализ данных (Data analysis) statistikasi

Obunachilar

45 256

24 soat
39
-0.1%Hafta
59
-0.1%Oy
59
0.1%

Iqtiboslar indeksi

0

Eslatmalar1Kanallardagi repostlar0Kanallardagi eslatmalar1

Bitta postning o'rtacha qamrovi

1 747

12 soat1 1480%24 soat1 7470%48 soat4 580
70.3%

Ishtirok (ER)

5.87%

Repostlar65Izohlar0Reaksiyalar2

Qamrov bo'yicha ishtirok (ERR)

6.17%

24 soat
2.31%
Hafta0%Oy
0.06%

Bitta reklama postining qamrovi

1 747

1 soat82947.45%1 – 4 soat130.74%4 - 24 soat1 02458.61%
Botimizni kanalingizga ulang va ushbu kanal auditoriyasining jinsini bilib oling.
24 soat ichidagi barcha postlar
2
Dinamika
1

Rekordlar

01.04.202513:43
45.3KObunachilar
28.02.202516:56
400Iqtiboslar indeksi
02.03.202514:15
9.2KBitta post qamrovi
25.02.202523:59
9.2KReklama posti qamrovi
12.02.202507:30
12.79%ER
04.03.202508:31
20.41%ERR

Rivojlanish

Obunachilar
Iqtibos indeksi
1 ta post qamrovi
Reklama posti qamrovi
ER
ERR
БЕР '25КВІТ '25

Анализ данных (Data analysis) mashhur postlari

23.03.202513:00
🔥 Transformers Laid Out

Лучший способ изучить PyTorch — создать что-нибудь с его помощью на практике.

В этом блоге представлен пошаговый гайд по написанию трансформерам с помощью PyTorch с нуля.🖥

📌 Гайд
📌 Что под капотом у PyTorch
📌Видео объяснения базы по тензорам
⚡️ Pydoll — это библиотека на Python, предназначенная для автоматизации браузеров на движке Chromium (Chrome и Microsoft Edge) без использования WebDriver.

Инструмент имитирует «реальные» действия пользователя и обеспечивает гибкость при работе с элементами интерфейса и сетевыми запросами.

🔗 Ключевые особенности
- Асинхронная автоматизация без WebDriver

- Позволяет обойтись без установки и настройки драйверов WebDriver, что упрощает процесс интеграции и обслуживания.

- Реализована на базе asyncio, поэтому поддерживает запуск нескольких задач одновременно.

- Обход Cloudflare Turnstile

- Имеется встроенный механизм для автоматического прохождения CAPTCHA:

- Синхронная блокировка (context manager), когда выполнение кода приостанавливается до момента решения задачи.

- Фоновый режим (non-blocking), когда автоматизация продолжает работу, пока CAPTCHA решается в фоне.

- Поддерживает «человеко-подобный» набор текста (имитация пауз, скорости).

- Распознаёт специальные клавиши и сочетания клавиш (нажатия SHIFT, CTRL, ALT и т.д.).

- Подключение к существующим сессиям

- Можно подсоединяться к уже запущенным экземплярам Chrome или Edge, что удобно для отладки или интеграции с имеющимися сессиями пользователя.

Благодаря отсутствию необходимости в WebDriver и возможности имитировать взаимодействие «как настоящий пользователь», Pydoll будет полезен в проектах, где требуется гибкая и реалистичная автоматизация.

📌 Github


@data_analysis_ml
🖥 Как установить Deep Seek локально с помощью Ollama LLM в Ubuntu 24.04

Подробное руководство от TecMint, демонстрирующее, как установить и запустить модель DeepSeek локально на Linux (Ubuntu 24.04) с использованием Ollama.

Гайд охватывает все этапы установки: обновление системы, инсталляцию Python и Git, настройку Ollama для управления DeepSeek, а также запуск модели через командную строку или с помощью удобного Web UI.

▪ Руководство также включает инструкции по автоматическому запуску Web UI при старте системы через systemd, что делает работу с моделью более комфортной и доступной.

Подойдет для тех, кто хочет исследовать возможности работы с крупными языковыми моделями без привязки к облачным сервисам, обеспечивая полный контроль над моделью и её настройками.

Читать
Repost qilingan:
Machinelearning avatar
Machinelearning
🔥 В chat.qwenlm.ai chat теперь доступны голосовой режим + режим видеочата

Более того китайцы выложили код своей Qwen2.5-Omni-7B - единой omni-модели, которая может понимать текст, аудио, изображение и видео.

Они разработали архитектуру "thinker-talker", которая обеспечивает одновременное размышление модели и ее разговор .

Вскоре обещают выпустить в опенсорс модели на еще большее количество параметров.

Просто топ, бегом тестить.

🟢Попробовать: https://chat.qwenlm.ai
🟢Paper: https://github.com/QwenLM/Qwen2.5-Omni/blob/main/assets/Qwen2.5_Omni.pdf
🟢Blog: https://qwenlm.github.io/blog/qwen2.5-omni
🟢GitHub: https://github.com/QwenLM/Qwen2.5-Omni
🟢Hugging Face: https://huggingface.co/Qwen/Qwen2.5-Omni-7B
🟢ModelScope: https://modelscope.cn/models/Qwen/Qwen2.5-Omni-7B

@ai_machinelearning_big_data

#qwen #release #Omni
📌 FastRAG — фреймворк, предлагающий разработчикам современные инструменты для создания оптимизированных RAG-пайплайнов. Этот сервис, построенный на базе Haystack и Hugging Face, фокусируется на эффективном сочетании информационного поиска с генеративными возможностями LLM.

Фреймворк предоставляет готовые компоненты для работы с современными методами семантического поиска, оптимизированные под современные аппаратные ускорители, включая процессоры Intel Xeon и AI-акселераторы Gaudi.
При этом FastRAG активно развивается — от поддержки мультимодальности до примеров динамического синтеза промптов.

🤖 GitHub

@data_analysis_ml
Repost qilingan:
Machinelearning avatar
Machinelearning
📌 72B слишком много для VLM? А 7B параметров недостаточно!

QWEN только что выпустили новую модель на 32B параметров, Qwen2.5-VL-32B-Instruct.

Эта модель представляет собой значительный прогресс для своего размера. И что самое лучшее, она лицензирована Apache 2.

Модель выдает более подробные и структурированный ответы.

💡 Детальное понимание: превосходные возможности анализа изображений и визуальной логической дедукции.

📊 Превосходит сопоставимые модели, такие как Mistral-Small-3.1-24B и Gemma-3-27B-IT.

🚀 В нескольких тестах даже превосходит более крупный Qwen2-VL-72B-Instruct.

Еще один крутой релиз понедельника!

🟢Блог: https://qwenlm.github.io/blog/qwen2.5-vl-32b/
🟢Попробовать: https://chat.qwen.ai
ВЧ: https://huggingface.co/Qwen/Qwen2.5-VL-32B-Instruct
🟢Модель: https://modelscope.cn/models/Qwen/Qwen2.5-VL-32B-Instruct

@ai_machinelearning_big_data


#AI #ML #LLM #Dataset #HuggingFace
🕊️ Namsor - это ИИ для анализа имен собственных с лингвистическим интеллектом. Причем это не просто классификатор, а инструмент с глубоким пониманием культурных и лингвистических контекстов.

Проект удивляет точностью: он различает, является ли "Mercedes фамилией человека, названием города или автомобильным брендом, учитывая страну происхождения.

Технология особенно востребована в CRM-системах, соцсетях и базах данных, где критична корректная интерпретация имен.

🔗 Ссылка - *клик*
31.03.202516:04
Что такое torch.nn на самом деле?

Когда я начинал работать с PyTorch, мой самый большой вопрос был: "Что такое torch.nn?".

Эта статья довольно хорошо объясняет это.

📌 Читать
🔥 Helix — это платформа для создания и развертывания AI-приложений с использованием декларативных конвейеров, интеграции знаний и API!

🌟 Она позволяет описывать AI-решения в YAML-файле (helix.yaml), что упрощает их настройку, тестирование и развертывание. Helix ориентирован на разработчиков, которые хотят строить генеративные AI-приложения с гибкостью и полной приватностью.

🖥 Github

@data_analysis_ml
⚡️ Alibaba только что выпустила TaoAvatar на Hugging Face

Реалистичные говорящие аватары в полный рост для дополненной реальности с помощью 3D-гауссовых сплатов.

Он обеспечивает точное управление мимикой и движениями, работая в реальном времени даже на мобильных устройствах.

Метод использует нейросетевую дистилляцию, достигая 90 FPS на Apple Vision Pro.

🟡Проект
🟡Статья
🟡Видео
🟡Демка

@data_analysis_ml
👩‍💻 Neural Structured Learning (NSL) — это фреймворк для обучения нейронных сетей с использованием структурированных сигналов, таких как графы и данные с враждебными искажениями!

🌟 NSL позволяет улучшать точность моделей, особенно при ограниченном объёме размеченных данных, за счёт объединения как размеченных, так и неразмеченных данных.

🔍 Основные возможности:

🌟 API для работы с графами и враждебными искажениями на базе TensorFlow и Keras.

🌟 Поддержка создания графов и входных данных для обучения.

🌟 Универсальность для различных архитектур (CNN, RNN и др.) и методов обучения (контролируемого, частично контролируемого и др.).

🔐 Лицензия: Apache-2.0

🖥 Github

@data_analysis_ml
23.03.202510:26
🔥 Tripo MCP Server

Основная функция tripo-mcp заключается в генерации 3D-объектов на основе текстовых описаний с использованием API Tripo и их импорте в Blender. Проект находится на стадии альфа-версии.

📌 Туториал: https://tripo3d.ai/blog/cursor-tripo-mcp-tutorial
📌 Github: https://github.com/VAST-AI-Research/tripo-mcp

@data_analysis_ml


#blendermcp #vibecoding #tripo3d
⚡️Как Docker упрощает жизнь аналитиков и инженеров данных

Когда вы работаете с данными, анализируете их или строите модели машинного обучения, Docker позволяет сосредоточиться на самой работе, не отвлекаясь на настройку окружения.

На бесплатном вебинаре вы научитесь упаковывать приложения вместе со всеми зависимостями, избегать проблем с несовместимостью, а значит и повысите эффективность работы и сэкономите время на настройку окружения.

Что будем делать на вебинаре:
🟠Разберём основы Docker и как контейнеры упрощают работу;
🟠Выполним анализ данных, запустив Python прямо внутри контейнера;
🟠Автоматизируем окружение с помощью Docker Compose (Python + PostgreSQL);
🟠Настроим удобный доступ к результатам анализа;
🟠Организуем ускоренную обработку больших данных.

😶Зарегистрироваться на бесплатный вебинар
Repost qilingan:
Machinelearning avatar
Machinelearning
🦙 Встречайте, дамы и господа, LLaMA 4: мультимодальные MoE модели!

Llama 4 Omni разработана для понимания и обработки информации модальностей, а не только текста.

Доступна в 3х вариантах: Llama 4 Scout и Llama 4 Maverick, Llama 4 Behemoth.

У Llama 4 Scout (109B) контекстное окно размером 10 М, 17B активных параметров, 16 экспертов, может быть запущена на 1ом GPU!

Llama 4 Maverick (400B) окно в 1M, 128 экспертов, 17B активных параметров.

У Бегемота окно в 2T!!!, 16 экспертов, 288B активных параметров.

- Model Card
- Веса
- Релиз

@ai_machinelearning_big_data
Когда потратил 3 часа на отладку сгенерированного кода, который написал бы за час.

@data_analysis_ml
Ko'proq funksiyalarni ochish uchun tizimga kiring.