
Анатолий Шарий

Україна Сейчас | УС: новини, політика, війна

Всевидящее ОКО: Україна | Новини

Мир сегодня с "Юрий Подоляка"

Труха⚡️Україна

Николаевский Ванёк

Лёха в Short’ах Long’ует

Лачен пише

Инсайдер UA | Україна | Новини

Анатолий Шарий

Україна Сейчас | УС: новини, політика, війна

Всевидящее ОКО: Україна | Новини

Мир сегодня с "Юрий Подоляка"

Труха⚡️Україна

Николаевский Ванёк

Лёха в Short’ах Long’ует

Лачен пише

Инсайдер UA | Україна | Новини

Анатолий Шарий

Україна Сейчас | УС: новини, політика, війна

Всевидящее ОКО: Україна | Новини

Китай.AI
💡 Канал Китай.AI — для тех, кто хочет быть в курсе развития искусственного интеллекта в стране, которая претендует на мировое технологическое лидерство.
📱 Подписывайтесь, чтобы не пропустить ключевые события в китайской ИИ-индустрии!
📱 Подписывайтесь, чтобы не пропустить ключевые события в китайской ИИ-индустрии!
TGlist рейтингі
0
0
ТүріҚоғамдық
Растау
РасталмағанСенімділік
СенімсізОрналасқан жері
ТілБасқа
Канал құрылған күніСіч 23, 2025
TGlist-ке қосылған күні
Лют 02, 2025Рекордтар
11.03.202523:59
569Жазылушылар29.01.202523:59
0Дәйексөз индексі03.02.202523:59
8.1K1 жазбаның қамтуы13.03.202511:13
0Жарнамалық жазбаның қамтуы07.03.202523:59
7.53%ER03.01.202510:33
2074.94%ERR06.03.202506:59
🔮 CN-AI-MODELS | ИИ модели Китая
🚀 Alibaba продолжает удивлять: выпущена модель рассуждений QwQ-32B, которая превосходит гигантов с 670 млрд параметров, используя всего 32 млрд!
Акции Alibaba взлетели на 8.6% после релиза новой модели Tongyi Qianwen QwQ-32B с открытым исходным кодом. Эта «компактная» модель (32 млрд параметров) сопоставима по производительности с DeepSeek-R1 (670 млрд параметров)!
🔥 Что делает QwQ-32B уникальной?
- Превосходит OpenAI o1-mini и конкурирует с DeepSeek-R1, несмотря на 20 кратное сокращение параметров.
- Оптимизирована для развертывания на потребительских GPU — идеально для стартапов и локальных решений.
- Умеет критически мыслить, адаптироваться к изменениям и обучаться через взаимодействие с окружением (благодаря интеграции RL).
🏆 Результаты тестов:
— В тестах на математику (AIME24) и программирование (LiveCodeBench) QwQ-32B показала результаты на уровне DeepSeek-R1, значительно опередив OpenAI o1-mini.
— В сложных тестах на общие когнитивные способности, таких как LiveBench, IFEval и BFCL, модель также превзошла конкурентов.
🌐 Ссылки
Модель QwQ-32B доступна на платформах:
- Hugging Face
- ModelScope
Также вы можете протестировать её через Qwen Chat.
💡 Интересный факт
Всего за неделю после релиза предыдущая модель Alibaba — Wan 2.1 — обогнала DeepSeek-R1 в рейтингах Hugging Face, став №1 в open-source сообществе. QwQ-32B, судя по всему, повторит этот успех.
#КитайскийИИ #КитайAI #ИскусственныйИнтеллект #МашинноеОбучение #Alibaba #Qwen
🚀 Alibaba продолжает удивлять: выпущена модель рассуждений QwQ-32B, которая превосходит гигантов с 670 млрд параметров, используя всего 32 млрд!
Акции Alibaba взлетели на 8.6% после релиза новой модели Tongyi Qianwen QwQ-32B с открытым исходным кодом. Эта «компактная» модель (32 млрд параметров) сопоставима по производительности с DeepSeek-R1 (670 млрд параметров)!
🔥 Что делает QwQ-32B уникальной?
- Превосходит OpenAI o1-mini и конкурирует с DeepSeek-R1, несмотря на 20 кратное сокращение параметров.
- Оптимизирована для развертывания на потребительских GPU — идеально для стартапов и локальных решений.
- Умеет критически мыслить, адаптироваться к изменениям и обучаться через взаимодействие с окружением (благодаря интеграции RL).
🏆 Результаты тестов:
— В тестах на математику (AIME24) и программирование (LiveCodeBench) QwQ-32B показала результаты на уровне DeepSeek-R1, значительно опередив OpenAI o1-mini.
— В сложных тестах на общие когнитивные способности, таких как LiveBench, IFEval и BFCL, модель также превзошла конкурентов.
🌐 Ссылки
Модель QwQ-32B доступна на платформах:
- Hugging Face
- ModelScope
Также вы можете протестировать её через Qwen Chat.
💡 Интересный факт
Всего за неделю после релиза предыдущая модель Alibaba — Wan 2.1 — обогнала DeepSeek-R1 в рейтингах Hugging Face, став №1 в open-source сообществе. QwQ-32B, судя по всему, повторит этот успех.
#КитайскийИИ #КитайAI #ИскусственныйИнтеллект #МашинноеОбучение #Alibaba #Qwen
11.03.202509:48
👥 CN-AI-LEADERS | Знакомимся с лидерами индустрии
🤖 ViLLA и GO-1: Новый этап в развитии робототехники
Компания AgiBot Robotics представила две инновационные разработки, которые могут изменить подход к обучению роботов. Речь идет о новой архитектуре Vision-Language-Latent-Action (ViLLA) и универсальной базовой модели GO-1. Эти технологии позволяют роботам эффективно обучаться на основе видео, текста и реальных действий.
🔍 Проблема данных для обучения роботов:
Роботы требуют огромного количества данных для обучения, включая:
- Тексты и изображения для понимания мира.
- Видео действий людей и других роботов.
- Данные из симуляций и реальных операций.
Однако существующие системы, такие как VLA (Vision-Language-Action), не могут полноценно использовать видеоданные с действиями людей, что замедляет развитие робототехники.
🌟 Решение: ViLLA и GO-1
Новая архитектура ViLLA позволяет роботам использовать видео с действиями человека, преобразуя их в последовательности действий, понятные машинам. Это значительно ускоряет обучение и делает его более доступным.
Модель GO-1, построенная на основе ViLLA, объединяет визуальные, языковые и тактильные данные, чтобы роботы могли выполнять сложные задачи, например, вешать одежду или убирать стол.
📊 Результаты тестов:
- Успешность выполнения задач выросла на 32% (с 46% до 78%).
- Особенно впечатляют результаты в задачах "налить воду", "убрать стол" и "пополнить запасы напитков".
🌐 Открытые данные и будущее
AgiBot Robotics активно делится своими разработками, чтобы ускорить прогресс в робототехнике. Среди последних инициатив — открытый доступ к набору данных AgiBot World и симуляционному набору AgiBot Digital World.
С полной информацией можно ознакомиться здесь.
#КитайскийИИ #КитайAI #Робототехника #ИскусственныйИнтеллект #Технологии #AgiBot
🤖 ViLLA и GO-1: Новый этап в развитии робототехники
Компания AgiBot Robotics представила две инновационные разработки, которые могут изменить подход к обучению роботов. Речь идет о новой архитектуре Vision-Language-Latent-Action (ViLLA) и универсальной базовой модели GO-1. Эти технологии позволяют роботам эффективно обучаться на основе видео, текста и реальных действий.
🔍 Проблема данных для обучения роботов:
Роботы требуют огромного количества данных для обучения, включая:
- Тексты и изображения для понимания мира.
- Видео действий людей и других роботов.
- Данные из симуляций и реальных операций.
Однако существующие системы, такие как VLA (Vision-Language-Action), не могут полноценно использовать видеоданные с действиями людей, что замедляет развитие робототехники.
🌟 Решение: ViLLA и GO-1
Новая архитектура ViLLA позволяет роботам использовать видео с действиями человека, преобразуя их в последовательности действий, понятные машинам. Это значительно ускоряет обучение и делает его более доступным.
Модель GO-1, построенная на основе ViLLA, объединяет визуальные, языковые и тактильные данные, чтобы роботы могли выполнять сложные задачи, например, вешать одежду или убирать стол.
📊 Результаты тестов:
- Успешность выполнения задач выросла на 32% (с 46% до 78%).
- Особенно впечатляют результаты в задачах "налить воду", "убрать стол" и "пополнить запасы напитков".
🌐 Открытые данные и будущее
AgiBot Robotics активно делится своими разработками, чтобы ускорить прогресс в робототехнике. Среди последних инициатив — открытый доступ к набору данных AgiBot World и симуляционному набору AgiBot Digital World.
С полной информацией можно ознакомиться здесь.
#КитайскийИИ #КитайAI #Робототехника #ИскусственныйИнтеллект #Технологии #AgiBot
12.03.202508:49
🚀 Seedream 2.0: Новая эра двуязычной генерации изображений от ByteDance
ByteDance впервые раскрывает детали технологии базовой модели генерации изображений! Раскрыт весь процесс от обработки данных до RLHF. Модель уже используется в приложении Doubao и платформе JIMENG, обслуживая миллионы пользователей.
✨ Основные особенности:
1️⃣ Четырехмерная архитектура данных: Баланс качества и разнообразия данных через четыре уровня: качественные данные, поддержка распределения, инъекция знаний и направленное усиление.
2️⃣ Умный механизм аннотации: Трехуровневая система, улучшающая описание изображений и поддерживающая мультиязычность.
3️⃣ Инженерные улучшения: Оптимизация процессов обработки данных, что ускорило упаковку данных в 8 раз.
🎨 Преимущества Seedream 2.0:
- Лучшее понимание и визуализация текста на китайском и английском языках.
- Уникальная способность генерировать изображения с учетом культурных особенностей.
- Высокая точность в создании художественных и научных иллюстраций.
📊 Результаты тестов:
- На английских запросах модель превосходит Ideogram 2.0, Midjourney V6.1 и Flux 1.1 Pro.
- На китайских запросах достигает 78% доступности текста и 63% точности ответа на запросы.
🔗 Подробнее о технологии:
Полный отчет на arXiv
Сайт проекта
#КитайскийИИ #КитайAI #ГенерацияИзображений #Seedream2 #ByteDance
ByteDance впервые раскрывает детали технологии базовой модели генерации изображений! Раскрыт весь процесс от обработки данных до RLHF. Модель уже используется в приложении Doubao и платформе JIMENG, обслуживая миллионы пользователей.
✨ Основные особенности:
1️⃣ Четырехмерная архитектура данных: Баланс качества и разнообразия данных через четыре уровня: качественные данные, поддержка распределения, инъекция знаний и направленное усиление.
2️⃣ Умный механизм аннотации: Трехуровневая система, улучшающая описание изображений и поддерживающая мультиязычность.
3️⃣ Инженерные улучшения: Оптимизация процессов обработки данных, что ускорило упаковку данных в 8 раз.
🎨 Преимущества Seedream 2.0:
- Лучшее понимание и визуализация текста на китайском и английском языках.
- Уникальная способность генерировать изображения с учетом культурных особенностей.
- Высокая точность в создании художественных и научных иллюстраций.
📊 Результаты тестов:
- На английских запросах модель превосходит Ideogram 2.0, Midjourney V6.1 и Flux 1.1 Pro.
- На китайских запросах достигает 78% доступности текста и 63% точности ответа на запросы.
🔗 Подробнее о технологии:
Полный отчет на arXiv
Сайт проекта
#КитайскийИИ #КитайAI #ГенерацияИзображений #Seedream2 #ByteDance
07.03.202508:31
🔮 CN-AI-MODELS | ИИ модели Китая
🚀 INT8-квантование для DeepSeek R1: как снизить затраты на вычисления и повысить производительность
Команда Meituan представила новое решение для оптимизации модели DeepSeek R1. Благодаря использованию INT8-квантования, удалось добиться значительного увеличения пропускной способности при сохранении точности модели.
🧠 Что сделано:
- Разработаны два метода квантования: блочное (Block-wise) и канальное (Channel-wise).
- Оба метода позволяют использовать модель на GPU A100, что ранее было невозможно из-за ограничений FP8.
- Результаты:
- Блочное квантование увеличивает пропускную способность на 33%.
- Канальное квантование — до 50%!
🔧 Как это работает:
- Веса модели преобразуются из FP8 в BF16, а затем квантуются в INT8.
- Для активаций используется поэлементное квантование в реальном времени.
- Это позволяет существенно снизить требования к памяти и ускорить вычисления.
📊 Результаты тестов:
На тестах GSM8K и MMLU точность моделей с INT8 практически не отличается от оригинальной версии с BF16/FP8.
💻 Как попробовать:
Код и веса уже доступны на Hugging Face:
- Block-wise INT8
- Channel-wise INT8
Подробнее о реализации и инструкции по запуску можно найти в репозитории SGLang:
- Block-wise поддержка
- Channel-wise поддержка
🤔 Зачем это нужно:
Этот подход открывает возможность использования мощных моделей на устаревшем оборудовании, что особенно важно для разработчиков с ограниченными ресурсами.
#КитайскийИИ #КитайAI #ИИ #МашинноеОбучение #Оптимизация #DeepSeek
🚀 INT8-квантование для DeepSeek R1: как снизить затраты на вычисления и повысить производительность
Команда Meituan представила новое решение для оптимизации модели DeepSeek R1. Благодаря использованию INT8-квантования, удалось добиться значительного увеличения пропускной способности при сохранении точности модели.
🧠 Что сделано:
- Разработаны два метода квантования: блочное (Block-wise) и канальное (Channel-wise).
- Оба метода позволяют использовать модель на GPU A100, что ранее было невозможно из-за ограничений FP8.
- Результаты:
- Блочное квантование увеличивает пропускную способность на 33%.
- Канальное квантование — до 50%!
🔧 Как это работает:
- Веса модели преобразуются из FP8 в BF16, а затем квантуются в INT8.
- Для активаций используется поэлементное квантование в реальном времени.
- Это позволяет существенно снизить требования к памяти и ускорить вычисления.
📊 Результаты тестов:
На тестах GSM8K и MMLU точность моделей с INT8 практически не отличается от оригинальной версии с BF16/FP8.
💻 Как попробовать:
Код и веса уже доступны на Hugging Face:
- Block-wise INT8
- Channel-wise INT8
Подробнее о реализации и инструкции по запуску можно найти в репозитории SGLang:
- Block-wise поддержка
- Channel-wise поддержка
🤔 Зачем это нужно:
Этот подход открывает возможность использования мощных моделей на устаревшем оборудовании, что особенно важно для разработчиков с ограниченными ресурсами.
#КитайскийИИ #КитайAI #ИИ #МашинноеОбучение #Оптимизация #DeepSeek
Канал өзгерістері тарихы
Көбірек мүмкіндіктерді ашу үшін кіріңіз.