16.04.202517:04
Стрим: Новые reasoning модели от OpenAI o3 и o4-mini
— добавили возможность работать с изображениями (модель может смотреть на разные части изображения, и обрабатывать их используя утилиты python)
https://www.youtube.com/live/sq8GBPUb3rk?si=yIrS0pSPTko_Y1wo
— добавили возможность работать с изображениями (модель может смотреть на разные части изображения, и обрабатывать их используя утилиты python)
https://www.youtube.com/live/sq8GBPUb3rk?si=yIrS0pSPTko_Y1wo


27.02.202519:36
📄 Вышла системная карточка GPT-4.5
https://cdn.openai.com/gpt-4-5-system-card.pdf
Если коротко, лучше 4o, хуже o3-mini
https://cdn.openai.com/gpt-4-5-system-card.pdf
Если коротко, лучше 4o, хуже o3-mini


29.01.202515:23
2 нейронки от китайского режима подряд
Сначала deepseek, теперь qwen2.5-max. Холодная ии война
Сначала deepseek, теперь qwen2.5-max. Холодная ии война
无法访问
媒体内容
媒体内容


14.12.202422:30
Microsoft AI представили Phi-4 — Small Language Model 14 млрд
Так, результаты сопоставимы с гораздо более крупными моделями, такими как GPT-4 и Llama-3.
Ключевые особенности Phi-4:
• Synthetic Data Generation: Используются подходы вроде chain-of-thought prompting для создания данных, стимулирующих системное мышление,завещание у нотариуса, кофе душистый
• Post-Training Refinement: Direct Preference Optimization и rejection sampling для улучшения логической согласованности и точности ответов.
• Extended Context Length: Увеличенная длина контекста до 16K токенов для сложных задач с длинными цепочками рассуждений.
Результаты:
• GPQA: 56.1 (лучше GPT-4o с 40.9 и Llama-3 с 49.1).
• MATH: 80.4
📝 Phi-4 Технический Репорт
Так, результаты сопоставимы с гораздо более крупными моделями, такими как GPT-4 и Llama-3.
Ключевые особенности Phi-4:
• Synthetic Data Generation: Используются подходы вроде chain-of-thought prompting для создания данных, стимулирующих системное мышление,
• Post-Training Refinement: Direct Preference Optimization и rejection sampling для улучшения логической согласованности и точности ответов.
• Extended Context Length: Увеличенная длина контекста до 16K токенов для сложных задач с длинными цепочками рассуждений.
Результаты:
• GPQA: 56.1 (лучше GPT-4o с 40.9 и Llama-3 с 49.1).
• MATH: 80.4
📝 Phi-4 Технический Репорт




16.10.202416:47
🔥 Сегодня Mistral AI представила новые модели — Ministral 3B и Ministral 8B
Ministral 3B и Ministral 8B, разработанные для on-device вычислений. Эти модели предлагают превосходную производительность в задачах reasoning, commonsense и function-calling, поддерживая контекст до 128k токенов.
⚙️ Ministral 3B разработана для сверхэффективного использования на устройствах с ограниченными ресурсами (e.g.: смартфоны). Ministral 8B предлагает больше возможностей для сложных задач. Обе модели поддерживают до 128k контекста и используют передовые методы pruning и quantization для снижения нагрузки на железо.
Бенчмарки показывают неплохой буст в сравнение с существующими Llama 3.1 / 3.2 и Gemma 2 моделями.
🤖 Ministral 8B: ссылка на модель
Ministral 3B и Ministral 8B, разработанные для on-device вычислений. Эти модели предлагают превосходную производительность в задачах reasoning, commonsense и function-calling, поддерживая контекст до 128k токенов.
⚙️ Ministral 3B разработана для сверхэффективного использования на устройствах с ограниченными ресурсами (e.g.: смартфоны). Ministral 8B предлагает больше возможностей для сложных задач. Обе модели поддерживают до 128k контекста и используют передовые методы pruning и quantization для снижения нагрузки на железо.
Бенчмарки показывают неплохой буст в сравнение с существующими Llama 3.1 / 3.2 и Gemma 2 моделями.
🤖 Ministral 8B: ссылка на модель
05.04.202521:49
🦙 Meta представила Llama 4 — новую линейку MoE-моделей с рекордным качеством и контекстом до 10M токенов
Llama 4 — это эволюция в экосистеме LLM от Meta. Модели построены на архитектуре Mixture-of-Experts (MoE).
Основные модели:
🦅 Llama 4 Scout
— 17B активных параметров, 16 экспертов, 109B total
— Умещается в один NVIDIA H100 (в Int4)
— 10M context length (!), pre/post-trained на 256K
— Лучшая модель в классе для long-context reasoning, codebase QA, multi-doc summarization
— iRoPE: архитектура с interleaved attention без positional embeddings
— Превосходит Gemma 3, Gemini 2.0 Flash-Lite и Mistral 3.1
🚁 Llama 4 Maverick
— 17B активных, 128 экспертов, 400B total
— Бьёт GPT-4o, Gemini 2.0 Flash, близко к DeepSeek v3.1 на reasoning/coding
— ELO 1417 на LMArena (experimental chat version)
— Превосходный trade-off между качеством и затратами
— Построен через codistillation от Behemoth
🐘 Llama 4 Behemoth (preview)
— 288B активных, 16 экспертов, ~2T total
— Лучший performance на STEM-бенчмарках (GPQA Diamond, MATH-500)
— Использован как teacher для Scout и Maverick
— Обновлённая RL-инфраструктура и curriculum RL с динамическим фильтром сложности
🔬 Техдетали:
• Pretraining: 30T+ токенов (в 2× больше, чем у Llama 3), FP8 precision, early fusion мультимодальности (текст+видео+изображения)
• Post-training: новый pipeline → lightweight SFT → online RL → lightweight DPO (обучены на 200+ языках , включая визуальные задачи на 48 изображениях)
🔗 Доступны для скачивания: llama.com и Hugging Face
Llama 4 — это эволюция в экосистеме LLM от Meta. Модели построены на архитектуре Mixture-of-Experts (MoE).
Основные модели:
🦅 Llama 4 Scout
— 17B активных параметров, 16 экспертов, 109B total
— Умещается в один NVIDIA H100 (в Int4)
— 10M context length (!), pre/post-trained на 256K
— Лучшая модель в классе для long-context reasoning, codebase QA, multi-doc summarization
— iRoPE: архитектура с interleaved attention без positional embeddings
— Превосходит Gemma 3, Gemini 2.0 Flash-Lite и Mistral 3.1
🚁 Llama 4 Maverick
— 17B активных, 128 экспертов, 400B total
— Бьёт GPT-4o, Gemini 2.0 Flash, близко к DeepSeek v3.1 на reasoning/coding
— ELO 1417 на LMArena (experimental chat version)
— Превосходный trade-off между качеством и затратами
— Построен через codistillation от Behemoth
🐘 Llama 4 Behemoth (preview)
— 288B активных, 16 экспертов, ~2T total
— Лучший performance на STEM-бенчмарках (GPQA Diamond, MATH-500)
— Использован как teacher для Scout и Maverick
— Обновлённая RL-инфраструктура и curriculum RL с динамическим фильтром сложности
🔬 Техдетали:
• Pretraining: 30T+ токенов (в 2× больше, чем у Llama 3), FP8 precision, early fusion мультимодальности (текст+видео+изображения)
• Post-training: новый pipeline → lightweight SFT → online RL → lightweight DPO (обучены на 200+ языках , включая визуальные задачи на 48 изображениях)
🔗 Доступны для скачивания: llama.com и Hugging Face


26.02.202509:25
🤯 Я сейчас не шучу, Дональд Трамп сгенерировал видео и выложил на своей платформе Truth Social. Какая же это дичь..
https://truthsocial.com/@realDonaldTrump/posts/114068387897265338
https://truthsocial.com/@realDonaldTrump/posts/114068387897265338
23.01.202522:35
OpenAI запускают агента Operator
Упрощает рутину: от бронирования столика или покупки билетов в браузере до более сложного ассистирования.
🖥️ https://www.youtube.com/live/CSE77wAdDLg?si=-ZZQJ-zCByXW3NIB
Упрощает рутину: от бронирования столика или покупки билетов в браузере до более сложного ассистирования.
🖥️ https://www.youtube.com/live/CSE77wAdDLg?si=-ZZQJ-zCByXW3NIB
转发自:
Denis Sexy IT 🤖

08.12.202419:36
По Sora утекло новое видео, говорят показывают v2
* 1-минутные видео на выходе
* текст в видео
* текст+изображение в видео
* текст+видео в видео
Не долго мы жили без cam-rip в АИ видео ☕️
* 1-минутные видео на выходе
* текст в видео
* текст+изображение в видео
* текст+видео в видео
Не долго мы жили без cam-rip в АИ видео ☕️
无法访问
媒体内容
媒体内容
28.10.202414:05
📍 CoTracker3 — новый подход к трекингу точек
Модель команды Meta AI и Visual Geometry Group из Оксфорда обучали на реальных видео без аннотаций, используя псевдоразметку.
Особенности CoTracker3:
— Обучение на реальных видео в semi-supervised-режиме.
— Упрощённая архитектура требует 1000 раз меньший датасет без потери качества.
— Поддержка трекинга через окклюзии с другими объектами.
Результаты:
Модель значительно превосходит предыдущие трекеры (например, BootsTAPIR и LocoTrack) в задачах с обширной окклюзией и более стабильна. CoTracker3 демонстрирует высокую точность на стандартных бенчмарках. Из ограничений выделю трудности с трекингом на поверхностях без характерных особенностей, таких как небо или вода.
📄 paper
🤗 demo
💻 code
Модель команды Meta AI и Visual Geometry Group из Оксфорда обучали на реальных видео без аннотаций, используя псевдоразметку.
Особенности CoTracker3:
— Обучение на реальных видео в semi-supervised-режиме.
— Упрощённая архитектура требует 1000 раз меньший датасет без потери качества.
— Поддержка трекинга через окклюзии с другими объектами.
Результаты:
Модель значительно превосходит предыдущие трекеры (например, BootsTAPIR и LocoTrack) в задачах с обширной окклюзией и более стабильна. CoTracker3 демонстрирует высокую точность на стандартных бенчмарках. Из ограничений выделю трудности с трекингом на поверхностях без характерных особенностей, таких как небо или вода.
📄 paper
🤗 demo
💻 code




09.10.202411:05
🎓 Уже вторая Нобелевская премия за AI — на этот раз по химии. Половина премии за предсказание структуры белков» нейросетью Alpha Fold (от DeepMind)
Нобелевскую премию по химии 2024 года: одну половину — Дэвиду Бейкеру «за вычислительный дизайн белков», а другую половину — совместно Демису Хассабису и Джону М. Джамперу «за предсказание структуры белков».
Нобелевскую премию по химии 2024 года: одну половину — Дэвиду Бейкеру «за вычислительный дизайн белков», а другую половину — совместно Демису Хассабису и Джону М. Джамперу «за предсказание структуры белков».


05.03.202518:41
Подписчик пишет, что уже получил доступ к GPT-4.5 в подписке plus
https://chatgpt.com/?model=gpt-4-5
https://chatgpt.com/?model=gpt-4-5




24.02.202519:00
✳️ Claude 3.7 Sonnet доступна всем!
Anthropic представили Claude 3.7 Sonnet (лучшую на этой неделе) LLM в их линейке, обладающий гибридным режимом рассуждения. Это означает, что модель может выдавать мгновенные ответы или работать в расширенном reasoning-режиме.
🖥 Claude Code – интеллектуальный агент для разработки
Anthropic также представили Claude Code – инструмент для автоматизации программирования прямо из командной строки. Он умеет:
🔹 Анализировать код и редактировать файлы
🔹 Запускать тесты и отлаживать программы
🔹 Автоматически коммитить и пушить изменения в GitHub
🔹 Использовать командную строку для выполнения сложных задач
Результаты раннего тестирования показывают, что Claude Code сокращает время на выполнение сложных задач с 45 минут до одного запроса (прям так и пишут, ок, цитирую).
Но самое крутое то, что модель доступна всем, даже бесплатным пользователям!
💻 Го тестить: https://claude.ai/
Anthropic представили Claude 3.7 Sonnet (лучшую на этой неделе) LLM в их линейке, обладающий гибридным режимом рассуждения. Это означает, что модель может выдавать мгновенные ответы или работать в расширенном reasoning-режиме.
🖥 Claude Code – интеллектуальный агент для разработки
Anthropic также представили Claude Code – инструмент для автоматизации программирования прямо из командной строки. Он умеет:
🔹 Анализировать код и редактировать файлы
🔹 Запускать тесты и отлаживать программы
🔹 Автоматически коммитить и пушить изменения в GitHub
🔹 Использовать командную строку для выполнения сложных задач
Результаты раннего тестирования показывают, что Claude Code сокращает время на выполнение сложных задач с 45 минут до одного запроса (прям так и пишут, ок, цитирую).
Но самое крутое то, что модель доступна всем, даже бесплатным пользователям!
💻 Го тестить: https://claude.ai/
07.01.202502:35
NVIDIA / CES 2025
началось
https://www.youtube.com/live/k82RwXqZHY8?si=npSm8kNKuO2R8ANv
началось
https://www.youtube.com/live/k82RwXqZHY8?si=npSm8kNKuO2R8ANv
06.12.202418:01
✨ Стрим от OpenAI, День 2
Напоминаю, что вчера открыли доступ к полноценной o1, и представили новую pro подписку. Что было:
— Файнтюн o1 модели (позволяют обучать типу рассуждений, что полезно в узкоспециализированных доменах: право, генетика, etc)
👉 https://youtu.be/fMJMhBFa_Gc
Напоминаю, что вчера открыли доступ к полноценной o1, и представили новую pro подписку. Что было:
— Файнтюн o1 модели (позволяют обучать типу рассуждений, что полезно в узкоспециализированных доменах: право, генетика, etc)
👉 https://youtu.be/fMJMhBFa_Gc


22.10.202414:17
Состоялся релиз Stable Diffusion 3.5 8B Large
https://huggingface.co/stabilityai/stable-diffusion-3.5-large
https://huggingface.co/stabilityai/stable-diffusion-3.5-large




08.10.202410:52
🎓 Хинтон и Хопфилд получили Нобелевскую премию по физике за создание искусственных нейронных сетей
Нобелевскую премию по физике 2024 года Джону Дж. Хопфилду и Джеффри Э. Хинтону «за основополагающие открытия и изобретения, которые позволяют осуществлять машинное обучение с использованием искусственных нейронных сетей».
Нобелевскую премию по физике 2024 года Джону Дж. Хопфилду и Джеффри Э. Хинтону «за основополагающие открытия и изобретения, которые позволяют осуществлять машинное обучение с использованием искусственных нейронных сетей».
27.02.202520:08
Трансляция GPT-4.5
Pro — скоро
Plus юзеры — следующая неделя
Основная мысль: очень много претрейна (на нескольких датацентрах), что дало возможность получить лучшую unsupervised модель, они уже прогнали supervised-fine-tune и rlfh, получив отличные результаты базовой нон-ризонинг модели, и намекнули, что потенциальная новая ризонинг модель на базе GPT-4.5 может быть еще лучше, что логично.
https://www.youtube.com/live/cfRYp0nItZ8?si=QdHB5-bcFJd7KLq3
Pro — скоро
Plus юзеры — следующая неделя
Основная мысль: очень много претрейна (на нескольких датацентрах), что дало возможность получить лучшую unsupervised модель, они уже прогнали supervised-fine-tune и rlfh, получив отличные результаты базовой нон-ризонинг модели, и намекнули, что потенциальная новая ризонинг модель на базе GPT-4.5 может быть еще лучше, что логично.
https://www.youtube.com/live/cfRYp0nItZ8?si=QdHB5-bcFJd7KLq3
03.02.202500:00
Deep Research от OpenAI
Автоматизация исследования. Наверняка помнишь себя, гуглящую, сидящую на форумах, пересматривающую видео в поисках ответа. Благодаря Deep Research можно делегировать это GPT.
По сути это эволюция медленного мышления (chain-of-thought), которое мы наблюдали в o1 и о3 с тюном (o3 fine-tune) в строну работы с поисковиком и экстракции и обработки найденой информации.
Трансляция началась:
https://youtu.be/jv-lpIsnLOo
Автоматизация исследования. Наверняка помнишь себя, гуглящую, сидящую на форумах, пересматривающую видео в поисках ответа. Благодаря Deep Research можно делегировать это GPT.
По сути это эволюция медленного мышления (chain-of-thought), которое мы наблюдали в o1 и о3 с тюном (o3 fine-tune) в строну работы с поисковиком и экстракции и обработки найденой информации.
Трансляция началась:
https://youtu.be/jv-lpIsnLOo
01.01.202500:11
З Новим роком! שנה טובה С Новым годом! 🎄


08.11.202417:23


22.10.202400:46
Новая диффузионная модель от Nvidia: Sana
Основные особенности:
— DC-AE энкрдер, (если интересно вот ссылка) который понижает в 32 раза, вместо привычных 8ми для vqVAE, без сильных потерь
— Линейный DiT: по сути ViT, где фьюз происходит не через аттеншен, а через марицу рангом d << n (где, n это количество image token’ов). Подробнее про метод у Яныка на ютубе. Имхо это не аттеншн, но называйте как хотите.
— Вместо T5 взяли small LLM (decoder only), не прошло и 2 лет…
— Кастомный сэмплер: Flow-DPM-Solver
Обещают может и не лучшее качество, но супер быструю скорость и резолюшн 4096х4096 (благодаря DC-AE).
💻 Code (будет тут)
📝 paper
😈 demo на градио
p.s.: погененрил в демо, 1024х1024 работает норм, но пишет с ошибками.
Основные особенности:
— DC-AE энкрдер, (если интересно вот ссылка) который понижает в 32 раза, вместо привычных 8ми для vqVAE, без сильных потерь
— Линейный DiT: по сути ViT, где фьюз происходит не через аттеншен, а через марицу рангом d << n (где, n это количество image token’ов). Подробнее про метод у Яныка на ютубе. Имхо это не аттеншн, но называйте как хотите.
— Вместо T5 взяли small LLM (decoder only), не прошло и 2 лет…
— Кастомный сэмплер: Flow-DPM-Solver
Обещают может и не лучшее качество, но супер быструю скорость и резолюшн 4096х4096 (благодаря DC-AE).
💻 Code (будет тут)
📝 paper
😈 demo на градио
p.s.: погененрил в демо, 1024х1024 работает норм, но пишет с ошибками.


02.10.202417:47
🍎 Всех с Новым Годом, Шана Това!
显示 1 - 24 共 897
登录以解锁更多功能。