
Україна Online: Новини | Політика

Телеграмна служба новин - Україна

Резидент

Мир сегодня с "Юрий Подоляка"

Труха⚡️Україна

Николаевский Ванёк

Лачен пише

Реальний Київ | Украина

Реальна Війна

Україна Online: Новини | Політика

Телеграмна служба новин - Україна

Резидент

Мир сегодня с "Юрий Подоляка"

Труха⚡️Україна

Николаевский Ванёк

Лачен пише

Реальний Київ | Украина

Реальна Війна

Україна Online: Новини | Політика

Телеграмна служба новин - Україна

Резидент

red_mad_robot
Запускаем цифровые бизнесы и помогаем компаниям внедрять AI. Тут делимся аналитикой по рынку, интересными кейсами и рассказываем, что помогает нам быть в топе уже 16 лет.
redmadrobot.ru
Тоже мы: @design_jam, @red_mad_product, @daisygpt_bot.
redmadrobot.ru
Тоже мы: @design_jam, @red_mad_product, @daisygpt_bot.
Рэйтынг TGlist
0
0
ТыпПублічны
Вертыфікацыя
Не вертыфікаваныНадзейнасць
Не надзейныРазмяшчэннеРосія
МоваІншая
Дата стварэння каналаJan 11, 2018
Дадана ў TGlist
Oct 01, 2023Прыкрепленая група

red_mad_robot Chat
2
Рэкорды
21.04.202523:59
6KПадпісчыкаў25.02.202523:59
300Індэкс цытавання26.02.202523:59
2.4KАхоп 1 паста20.04.202512:50
705Ахоп рэкламнага паста18.02.202517:33
11.55%ER26.02.202523:59
43.74%ERRРазвіццё
Падпісчыкаў
Індэкс цытавання
Ахоп 1 паста
Ахоп рэкламнага паста
ER
ERR


26.03.202512:11
Как мы помогли ФСК снизить нагрузку на команду на 40% с помощью AI-агентов
«Есть ли в этой квартире панорамные окна?» — на такие вопросы AI должен отвечать точно. Один неверный ответ может стоить сделки. Для группы компаний ФСК, одного из крупнейших девелоперов России, мы внедрили смарт-платформу с двумя AI-агентами. Один работает с клиентами, второй помогает сотрудникам. В итоге — автоматизация обработки данных, управление знаниями и снижение нагрузки на поддержку и коммерческий департамент без риска для бизнеса.
🔗 Разложили всё на Хабре: как строили систему, какие технологии использовали и как проверяли точность. Читайте свежий кейс.
#AI_moment #роботайм
«Есть ли в этой квартире панорамные окна?» — на такие вопросы AI должен отвечать точно. Один неверный ответ может стоить сделки. Для группы компаний ФСК, одного из крупнейших девелоперов России, мы внедрили смарт-платформу с двумя AI-агентами. Один работает с клиентами, второй помогает сотрудникам. В итоге — автоматизация обработки данных, управление знаниями и снижение нагрузки на поддержку и коммерческий департамент без риска для бизнеса.
🔗 Разложили всё на Хабре: как строили систему, какие технологии использовали и как проверяли точность. Читайте свежий кейс.
#AI_moment #роботайм
20.04.202510:07
AI продолжает ускоряться — в вычислениях, понимании и взаимодействии
Аналитический центр red_mad_robot рассказывает и комментирует главные события индустрии на неделе с 14 по 18 апреля.
🟥OpenAI представила модели o3 и o4-mini: обе имеют расширенные навыки рассуждений, которые помогают использовать и комбинировать инструменты внутри ChatGPT. o3 подходит для сложных задач, o4-mini — для экономичных сценариев с быстрым откликом.
Почему это важно: OpenAI предлагает бизнесу выбор — не между моделью и человеком, а между скоростью и глубиной. Это позволяет точнее распределять задачи и расходы в AI-продуктах.
🟥Cohere выпустила Embed 4: новая эмбеддинг-модель упрощает поиск в сложных бизнес-документах, обрабатывает текст, изображения и графики, поддерживает до 128k токенов и заточена под отраслевые данные.
Почему это важно: в индустрии появляется надёжный инструмент для поиска и анализа сложных документов — от медицинских карт до технических спецификаций. Это снижает барьер для внедрения GenAI в регулируемых отраслях и ускоряет принятие решений.
🟥Meta* представила инструменты для развития AMI (Artificial Multimodal Intelligence): Perception Encoder — для обработки изображений и видео, Perception Language Model — для сложного визуального распознавания, а также Collaborative Reasoner — для оценки и улучшения взаимодействия между агентами и людьми и агентами и агентами.
Почему это важно: AI-рынок движется к более сложным формам взаимодействия между агентами и пользователями. Meta* работает на стыке восприятия и коммуникации — это шаг к созданию AI-систем, которые не просто выполняют задачи, а понимают контекст и умеют работать в команде. Для бизнеса это основа новых интерфейсов и форматов коллаборации.
* Запрещена в РФ
Также на неделе:
• Google выпустил Gemini 2.5 Flash с управляемым бюджетом reasoning
• OpenAI представила семейство GPT-4.1, включая версии mini и nano
• NVIDIA показала гибридные модели на базе Mamba и Transformer
• Anthropic добавит в Claude интеграцию с Google Workspace, инструмент глубоких исследований и голосовой режим
• Microsoft разработал 1-битную модель, работающую на CPU
• OpenAI запустила локального программного агента для терминала
• Яндекс обновил Алису и научил распознаванию объектов, работе с файлами и глубокому рассуждению
#AI_moment #трендвотчинг
@Redmadnews
Аналитический центр red_mad_robot рассказывает и комментирует главные события индустрии на неделе с 14 по 18 апреля.
🟥OpenAI представила модели o3 и o4-mini: обе имеют расширенные навыки рассуждений, которые помогают использовать и комбинировать инструменты внутри ChatGPT. o3 подходит для сложных задач, o4-mini — для экономичных сценариев с быстрым откликом.
Почему это важно: OpenAI предлагает бизнесу выбор — не между моделью и человеком, а между скоростью и глубиной. Это позволяет точнее распределять задачи и расходы в AI-продуктах.
🟥Cohere выпустила Embed 4: новая эмбеддинг-модель упрощает поиск в сложных бизнес-документах, обрабатывает текст, изображения и графики, поддерживает до 128k токенов и заточена под отраслевые данные.
Почему это важно: в индустрии появляется надёжный инструмент для поиска и анализа сложных документов — от медицинских карт до технических спецификаций. Это снижает барьер для внедрения GenAI в регулируемых отраслях и ускоряет принятие решений.
🟥Meta* представила инструменты для развития AMI (Artificial Multimodal Intelligence): Perception Encoder — для обработки изображений и видео, Perception Language Model — для сложного визуального распознавания, а также Collaborative Reasoner — для оценки и улучшения взаимодействия между агентами и людьми и агентами и агентами.
Почему это важно: AI-рынок движется к более сложным формам взаимодействия между агентами и пользователями. Meta* работает на стыке восприятия и коммуникации — это шаг к созданию AI-систем, которые не просто выполняют задачи, а понимают контекст и умеют работать в команде. Для бизнеса это основа новых интерфейсов и форматов коллаборации.
* Запрещена в РФ
Также на неделе:
• Google выпустил Gemini 2.5 Flash с управляемым бюджетом reasoning
• OpenAI представила семейство GPT-4.1, включая версии mini и nano
• NVIDIA показала гибридные модели на базе Mamba и Transformer
• Anthropic добавит в Claude интеграцию с Google Workspace, инструмент глубоких исследований и голосовой режим
• Microsoft разработал 1-битную модель, работающую на CPU
• OpenAI запустила локального программного агента для терминала
• Яндекс обновил Алису и научил распознаванию объектов, работе с файлами и глубокому рассуждению
#AI_moment #трендвотчинг
@Redmadnews
24.03.202512:59
red_mad_robot и билайн заключили стратегическое партнёрство в сфере AI
Объединили усилия с билайн, чтобы вместе разрабатывать и внедрять GenAI-решения — от внутренних инструментов до продуктов для корпоративных клиентов и розницы.
Фокус — на реальных задачах. Будем создавать виртуальных ассистентов, системы управления знаниями, мультиагентные платформы и интеллектуальные сервисы. Всё — чтобы ускорить принятие решений, повысить операционную эффективность и упростить сложные процессы в бизнесе.
Отдельное направление — персонализированные AI-сервисы для клиентов билайна с подбором продуктов, управлением подписками и поддержкой в различных сферах. Команды уже в деле ✅
Фаундер red_mad_robot Алексей Макин:
#AI_moment #роботайм
Объединили усилия с билайн, чтобы вместе разрабатывать и внедрять GenAI-решения — от внутренних инструментов до продуктов для корпоративных клиентов и розницы.
Фокус — на реальных задачах. Будем создавать виртуальных ассистентов, системы управления знаниями, мультиагентные платформы и интеллектуальные сервисы. Всё — чтобы ускорить принятие решений, повысить операционную эффективность и упростить сложные процессы в бизнесе.
Отдельное направление — персонализированные AI-сервисы для клиентов билайна с подбором продуктов, управлением подписками и поддержкой в различных сферах. Команды уже в деле ✅
Фаундер red_mad_robot Алексей Макин:
Технологии и экспертиза red_mad_robot в области AI, объединённые с опытом билайна в работе с клиентами и масштабными сервисами, позволят создавать прорывные AI-решения, востребованные как в бизнесе, так и в повседневной жизни пользователей. Вместе мы сможем ускорить внедрение передовых технологий и сделать их доступнее.
#AI_moment #роботайм
03.04.202515:15
AI, который понимает мир — не метафора, а roadmap на 3 года. Зачем он нужен бизнесу?
Следующий этап в развитии AI — системы, которые понимают физический мир и умеют в нём действовать. Над этим уже работают Meta и Google. Собрали главные мысли техлидеров.
Ⓜ️ Глава Meta AI* Ян Лекун заменяет термин AGI (общий искусственный интеллект) продвинутым машинным интеллектом — AMI. По его словам, человеческий разум слишком привязан к контексту и узко решает конкретные задачи — копировать его нет смысла. Цель — построить архитектуру, которая обучается, рассуждает, предсказывает и адаптируется под среду. До первых жизнеспособных систем нам осталось около 3-5 лет.
🌐 CEO Google DeepMind Демис Хассабис говорит о том же: мы научились побеждать в Go, но пока не можем перенести эти навыки в реальный мир. AGI начнётся с систем, которые работают в условиях неопределённости и действия, а не в симуляциях.
AGI как финальная форма ещё впереди, но AI уже берёт на себя его функции. Мы переходим от генерации — к действию. Это меняет архитектуру продуктов, API, подход к разработке и сборке команд. Для бизнеса это не теория, а сдвиг в инфраструктуре: от прототипов — к интеграции в процессы, от чат-ботов — к агентам.
* Запрещена в РФ
#AI_moment #трендвотчинг
Следующий этап в развитии AI — системы, которые понимают физический мир и умеют в нём действовать. Над этим уже работают Meta и Google. Собрали главные мысли техлидеров.
Ⓜ️ Глава Meta AI* Ян Лекун заменяет термин AGI (общий искусственный интеллект) продвинутым машинным интеллектом — AMI. По его словам, человеческий разум слишком привязан к контексту и узко решает конкретные задачи — копировать его нет смысла. Цель — построить архитектуру, которая обучается, рассуждает, предсказывает и адаптируется под среду. До первых жизнеспособных систем нам осталось около 3-5 лет.
🌐 CEO Google DeepMind Демис Хассабис говорит о том же: мы научились побеждать в Go, но пока не можем перенести эти навыки в реальный мир. AGI начнётся с систем, которые работают в условиях неопределённости и действия, а не в симуляциях.
AGI как финальная форма ещё впереди, но AI уже берёт на себя его функции. Мы переходим от генерации — к действию. Это меняет архитектуру продуктов, API, подход к разработке и сборке команд. Для бизнеса это не теория, а сдвиг в инфраструктуре: от прототипов — к интеграции в процессы, от чат-ботов — к агентам.
* Запрещена в РФ
#AI_moment #трендвотчинг


01.04.202514:58
Когда участвуешь в хакатоне и приносишь готовый продукт за 12 часов. Ой, то есть хотели сказать, что red_mad_robot оказался в числе лучших на AI-хакатоне ⚡️
Выбрали трек с использованием AI в производстве и собрали систему, которая превращает требования аналитиков в архитектурные схемы и описания. Один цикл — без ручной отрисовки и лишних итераций.
В основе — Cursor, Claude, GigaChat, LangGraph, PlantUML и Streamlit. Сценарий, который обычно занимает неделю, теперь укладывается в день. За счёт AI-first подхода и вайб-кодинга: код схем генерируется напрямую из смысла.
Валерий Ковальский, CEO NDT by red_mad_robot:
#AI_moment #роботайм
Выбрали трек с использованием AI в производстве и собрали систему, которая превращает требования аналитиков в архитектурные схемы и описания. Один цикл — без ручной отрисовки и лишних итераций.
В основе — Cursor, Claude, GigaChat, LangGraph, PlantUML и Streamlit. Сценарий, который обычно занимает неделю, теперь укладывается в день. За счёт AI-first подхода и вайб-кодинга: код схем генерируется напрямую из смысла.
Валерий Ковальский, CEO NDT by red_mad_robot:
Настоящий бизнес-прорыв происходит на пересечении двух искусств: упрощения сложного и стратегического усложнения простого. В нахождении тонкого баланса между этими противоположностями раскрывается секрет, позволяющий не только экономить время, но и создавать принципиально новую ценность.
#AI_moment #роботайм
28.03.202512:51
Что произошло в GenAI
Главные события индустрии с 24 по 28 марта — с комментариями стратегических аналитиков red_mad_robot о том, что стоит за заголовками и почему это важно для бизнеса.
🟥Arc Prize Foundation представил ARC-AGI-2: новый тест для оценки LLM требует не просто мощности, а интуиции и адаптивности. В центре внимания — способность к обобщению.
🟥Microsoft разработала Knowledge Base-Augmented Language Models (KBLaM): архитектура для включения внешних знаний в LLM демонстрирует лучшие результаты по сравнению с RAG и файнтюном. KBLaM работает быстрее, избегает галлюцинаций и отказывается отвечать при отсутствии данных.
🟥Tencent выпустила Hunyuan-T: ещё одна новая reasoning AI-модель незначительно превосходит DeepSeek R1 и GPT‑4.5, но уступает o1 в ряде бенчмарков. LLM лучше справляется с лаконичностью, длинными текстами, требует меньше ресурсов и генерирует до 60–80 токенов в секунду при низком уровне галлюцинаций.
🟥OpenAI добавил 4o Image Generation: GPT‑4o теперь может анализировать и учиться на загруженных пользователем картинках, интегрировать их детали в контекст, создавать читаемый текст без опечаток и работать со сложными промтами.
🟥Alibaba выпустила Qwen2.5-Omni-7B: мультимодальная модель одновременно обрабатывает текст, изображения, аудио и видео, отвечает голосом или текстом. Энергоэффективность достигается благодаря архитектурным решениям — Thinker-Talker, TMRoPE и Block-wise Streaming Processing.
Также на неделе:
• Microsoft выпустила агентов Researcher и Analyst
• DeepSeek обновила V3 с упором на программирование и frontend
• Reve AI вырвалась в лидеры генерации изображений
• Databricks создала метод обучения без размеченных данных
• Groq и PlayAI выпустили модель с реалистичной генерацией речи
• Google представила Gemini 2.5 Pro с окном на 1 млн токенов
#AI_moment #трендвотчинг
Главные события индустрии с 24 по 28 марта — с комментариями стратегических аналитиков red_mad_robot о том, что стоит за заголовками и почему это важно для бизнеса.
🟥Arc Prize Foundation представил ARC-AGI-2: новый тест для оценки LLM требует не просто мощности, а интуиции и адаптивности. В центре внимания — способность к обобщению.
Тест снижает уровень неопределённости вокруг идеи скорого появления AGI. Вместо громких заявлений — чёткая проверка пределов возможностей моделей. Это сдвигает фокус индустрии: от накачки параметров к глубокому разбору слабых мест. И даёт импульс новым исследованиям, которых давно не хватало индустрии.
🟥Microsoft разработала Knowledge Base-Augmented Language Models (KBLaM): архитектура для включения внешних знаний в LLM демонстрирует лучшие результаты по сравнению с RAG и файнтюном. KBLaM работает быстрее, избегает галлюцинаций и отказывается отвечать при отсутствии данных.
KBLaM предлагает более устойчивый способ подключать внешние знания — без переобучения и роста затрат. Это снижает барьер внедрения LLM в реальные процессы: модель становится не хранилищем всего, а гибким исполнителем, работающим на актуальных данных. Стратегически это шаг к более управляемому и масштабируемому GenAI в продуктах.
🟥Tencent выпустила Hunyuan-T: ещё одна новая reasoning AI-модель незначительно превосходит DeepSeek R1 и GPT‑4.5, но уступает o1 в ряде бенчмарков. LLM лучше справляется с лаконичностью, длинными текстами, требует меньше ресурсов и генерирует до 60–80 токенов в секунду при низком уровне галлюцинаций.
Китайские разработчики делают ставку не на абсолютную мощность, а на эффективность. Hunyuan-T1 быстрее, проще и доступнее в запуске — такие модели могут стать основой для дешёвых, прикладных AI-решений.
🟥OpenAI добавил 4o Image Generation: GPT‑4o теперь может анализировать и учиться на загруженных пользователем картинках, интегрировать их детали в контекст, создавать читаемый текст без опечаток и работать со сложными промтами.
Теперь GPT‑4o работает не только с текстом, но и с визуальными задачами — в одном потоке, без смены инструмента. В перспективе это упрощает и ускоряет создание профессионального визуального контента, меняет подход к работе с пользовательскими материалами и делает модель фактически универсальным генератором для бизнеса и креаторов.
🟥Alibaba выпустила Qwen2.5-Omni-7B: мультимодальная модель одновременно обрабатывает текст, изображения, аудио и видео, отвечает голосом или текстом. Энергоэффективность достигается благодаря архитектурным решениям — Thinker-Talker, TMRoPE и Block-wise Streaming Processing.
Модель позволяет интегрировать несколько видов данных в одном диалоге, сокращая разрыв между человеком и AI в реальных сценариях взаимодействия. Это приближает индустрию к созданию универсальных мультимодальных ассистентов.
Также на неделе:
• Microsoft выпустила агентов Researcher и Analyst
• DeepSeek обновила V3 с упором на программирование и frontend
• Reve AI вырвалась в лидеры генерации изображений
• Databricks создала метод обучения без размеченных данных
• Groq и PlayAI выпустили модель с реалистичной генерацией речи
• Google представила Gemini 2.5 Pro с окном на 1 млн токенов
#AI_moment #трендвотчинг
25.03.202515:36
Исследователи METR (специализируются на оценке AI-моделей и рисков) замерили, как AI справляется с длинными и сложными кейсами. С 2019 года каждые 7 месяцев LLM удваивают способность выполнять такие задания с 50% показателем успешности. METR называют это «своеобразным законом Мура для AI-агентов» — как когда-то увеличивалась мощность чипов, теперь растёт эффективность GenAI в прикладных сценариях.
Чтобы отследить прогресс, команда разработала бенчмарк на основе 170 реальных инженерных задач из датасетов HCAST, RE-Bench и SWAA и ввела две метрики. Первая — human baseline — фиксирует, сколько времени на выполнение заданий тратят люди. Вторая — task-completion time horizon — отслеживает, за сколько AI может выполнить те же задачи с определённой долей успеха.
↗️ Результаты исследования:
2019: модели с трудом справляются с задачами длиннее минуты
2023: уверенно закрывают 50% заданий продолжительностью 5–30 минут
2025: передовые LLM (например, Claude 3.7 Sonnet) выполняют 50% сценариев, которые у человека заняли бы час
Если рост сохранится, к 2030 AI-агенты смогут брать на себя половину инженерных задач месячной сложности.
↗️ Что это меняет для бизнеса:
GenAI выходит из песочницы: AI-агенты берут в работу задачи с глубиной — не просто отклик, а выполнение, сопоставимое по сложности с тем, как это делает человек.
Порог входа уже пройден: компании, которые начинают внедрять агентов уже сейчас, быстрее переходят к операционной автоматизации.
GenAI пока не берёт на себя креатив и живое взаимодействие. Но в задачах, где важны структура, повторяемость и скорость — уже обходит человека. И делает это быстрее, чем мы привыкли думать.
#AI_moment #трендвотчинг
Чтобы отследить прогресс, команда разработала бенчмарк на основе 170 реальных инженерных задач из датасетов HCAST, RE-Bench и SWAA и ввела две метрики. Первая — human baseline — фиксирует, сколько времени на выполнение заданий тратят люди. Вторая — task-completion time horizon — отслеживает, за сколько AI может выполнить те же задачи с определённой долей успеха.
↗️ Результаты исследования:
2019: модели с трудом справляются с задачами длиннее минуты
2023: уверенно закрывают 50% заданий продолжительностью 5–30 минут
2025: передовые LLM (например, Claude 3.7 Sonnet) выполняют 50% сценариев, которые у человека заняли бы час
Если рост сохранится, к 2030 AI-агенты смогут брать на себя половину инженерных задач месячной сложности.
↗️ Что это меняет для бизнеса:
GenAI выходит из песочницы: AI-агенты берут в работу задачи с глубиной — не просто отклик, а выполнение, сопоставимое по сложности с тем, как это делает человек.
Порог входа уже пройден: компании, которые начинают внедрять агентов уже сейчас, быстрее переходят к операционной автоматизации.
GenAI пока не берёт на себя креатив и живое взаимодействие. Но в задачах, где важны структура, повторяемость и скорость — уже обходит человека. И делает это быстрее, чем мы привыкли думать.
#AI_moment #трендвотчинг
04.04.202513:19
Рынок AI расширяет границы — от визуального анализа до прототипов в браузере
Аналитический центр red_mad_robot рассказывает и комментирует главные события индустрии на неделе с 31 марта по 4 апреля.
🟥Alibaba выпустил QVQ-Max: новая визуальная reasoning-модель понимает содержание фото и видео, анализирует контекст и предлагает решения. В планах — создание визуального AI-агента, способного управлять устройствами.
Почему это важно: Qwen2.5-VL, Omni и теперь QVQ-Max — китайские LLM последовательно наращивают мультимодальные возможности. Модели всё лучше ориентируются в визуальном мире: не просто «видят», а понимают, что происходит, и умеют на это реагировать. Это фундамент для создания AI-агентов, которые действуют в физическом мире.
🟥«Авито» представил стратегию по GenAI: компания инвестирует 12 млрд рублей в развитие GenAI до 2028 года, запускает образовательные программы с вузами и уже использует собственные модели: A-Vibe (текст) и A-Vision (мультимодальная). LLM должны обновить существующие функции внутри платформы.
Почему это важно: на российском рынке формируется новая группа игроков, готовых не просто внедрять чужие решения, а развивать собственные. Помимо Сбера, Яндекса и Т-Банка, появляются компании, которые инвестируют в локальный стек и двигают рынок вперёд. Такой подход позволяет не только сократить временные затраты, но и найти возможности для получения финансовой выгоды.
🟥Amazon запустил Nova Act: AI-агент может управлять браузером и имитировать простые действия человека. Во внутренних тестах Nova Act превосходит Operator от OpenAI и Computer Use от Anthropic. Вместе с агентом доступен SDK для прототипирования.
Почему это важно: Amazon не в топе AI-лабораторий, но у компании — инфраструктура и миллионы пользователей. Если Nova Act окажется полезным в реальных сценариях, это может стать переломным моментом для рынка агентов. Либо наоборот — подорвать к ним доверие.
Также на неделе:
• MTS AI представила LLM для бизнеса и будущих отраслевых агентов
• Яндекс запустил RAG-платформу для создания персональных баз знаний
• Китайский Zhipu AI вывел на рынок агента для глубоких исследований
• OpenAI работает над открытой LLM с продвинутым логическим выводом
• Amazon начал тестировать агентскую функцию Buy for Me
• Midjourney выпустила первое обновление почти за год
#AI_moment #трендвотчинг
Аналитический центр red_mad_robot рассказывает и комментирует главные события индустрии на неделе с 31 марта по 4 апреля.
🟥Alibaba выпустил QVQ-Max: новая визуальная reasoning-модель понимает содержание фото и видео, анализирует контекст и предлагает решения. В планах — создание визуального AI-агента, способного управлять устройствами.
Почему это важно: Qwen2.5-VL, Omni и теперь QVQ-Max — китайские LLM последовательно наращивают мультимодальные возможности. Модели всё лучше ориентируются в визуальном мире: не просто «видят», а понимают, что происходит, и умеют на это реагировать. Это фундамент для создания AI-агентов, которые действуют в физическом мире.
🟥«Авито» представил стратегию по GenAI: компания инвестирует 12 млрд рублей в развитие GenAI до 2028 года, запускает образовательные программы с вузами и уже использует собственные модели: A-Vibe (текст) и A-Vision (мультимодальная). LLM должны обновить существующие функции внутри платформы.
Почему это важно: на российском рынке формируется новая группа игроков, готовых не просто внедрять чужие решения, а развивать собственные. Помимо Сбера, Яндекса и Т-Банка, появляются компании, которые инвестируют в локальный стек и двигают рынок вперёд. Такой подход позволяет не только сократить временные затраты, но и найти возможности для получения финансовой выгоды.
🟥Amazon запустил Nova Act: AI-агент может управлять браузером и имитировать простые действия человека. Во внутренних тестах Nova Act превосходит Operator от OpenAI и Computer Use от Anthropic. Вместе с агентом доступен SDK для прототипирования.
Почему это важно: Amazon не в топе AI-лабораторий, но у компании — инфраструктура и миллионы пользователей. Если Nova Act окажется полезным в реальных сценариях, это может стать переломным моментом для рынка агентов. Либо наоборот — подорвать к ним доверие.
Также на неделе:
• MTS AI представила LLM для бизнеса и будущих отраслевых агентов
• Яндекс запустил RAG-платформу для создания персональных баз знаний
• Китайский Zhipu AI вывел на рынок агента для глубоких исследований
• OpenAI работает над открытой LLM с продвинутым логическим выводом
• Amazon начал тестировать агентскую функцию Buy for Me
• Midjourney выпустила первое обновление почти за год
#AI_moment #трендвотчинг
Увайдзіце, каб разблакаваць больш функцый.