28.04.202518:21
Знакомые запустили опенсорсный MCP коннектор у базам данным. https://github.com/centralmind/gateway
Позволяет подключать ее ко всяким курсорам или продуктам и "чатиться" с вашими данными.
Вот что пишут:
Автоматическая генерация API — создание API на основе схемы таблицы и выборочных данных с помощью LLM
🗄️ Поддержка структурированных баз данных — PostgreSQL, MySQL, ClickHouse, Snowflake, MSSQL, BigQuery, Oracle Database, SQLite, ElasticSearch
🌍 Поддержка множества протоколов — предоставление API в формате REST или MCP Server, включая режим SSE
📜 Документация по API — автоматическая генерация документации Swagger и спецификации OpenAPI 3.1.0
🔒 Защита PII — внедрение плагина на основе регулярных выражений или Microsoft Presidio для маскировки персональных данных
⚡ Гибкая конфигурация — легко расширяемая через YAML-конфигурацию и систему плагинов
🐳 Варианты развёртывания — запуск в виде бинарного файла или Docker-контейнера, готовые Helm-чарты
🤖 Поддержка множества AI-провайдеров — OpenAI, Anthropic, Amazon Bedrock, Google Gemini и Google VertexAI
📦 Локальное и корпоративное размещение — поддержка самостоятельного размещения LLM через настраиваемые конечные точки и модели
🔑 Безопасность на уровне строк (RLS) — детальный контроль доступа к данным с использованием Lua-скриптов
🔐 Опции аутентификации — встроенная поддержка API-ключей и OAuth
👀 Комплексный мониторинг — интеграция с OpenTelemetry (OTel) для отслеживания запросов и ведения журналов аудита
🏎️ Оптимизация производительности — реализация стратегий кэширования на основе времени и LRU (Least Recently Used)
Позволяет подключать ее ко всяким курсорам или продуктам и "чатиться" с вашими данными.
Вот что пишут:
Автоматическая генерация API — создание API на основе схемы таблицы и выборочных данных с помощью LLM
🗄️ Поддержка структурированных баз данных — PostgreSQL, MySQL, ClickHouse, Snowflake, MSSQL, BigQuery, Oracle Database, SQLite, ElasticSearch
🌍 Поддержка множества протоколов — предоставление API в формате REST или MCP Server, включая режим SSE
📜 Документация по API — автоматическая генерация документации Swagger и спецификации OpenAPI 3.1.0
🔒 Защита PII — внедрение плагина на основе регулярных выражений или Microsoft Presidio для маскировки персональных данных
⚡ Гибкая конфигурация — легко расширяемая через YAML-конфигурацию и систему плагинов
🐳 Варианты развёртывания — запуск в виде бинарного файла или Docker-контейнера, готовые Helm-чарты
🤖 Поддержка множества AI-провайдеров — OpenAI, Anthropic, Amazon Bedrock, Google Gemini и Google VertexAI
📦 Локальное и корпоративное размещение — поддержка самостоятельного размещения LLM через настраиваемые конечные точки и модели
🔑 Безопасность на уровне строк (RLS) — детальный контроль доступа к данным с использованием Lua-скриптов
🔐 Опции аутентификации — встроенная поддержка API-ключей и OAuth
👀 Комплексный мониторинг — интеграция с OpenTelemetry (OTel) для отслеживания запросов и ведения журналов аудита
🏎️ Оптимизация производительности — реализация стратегий кэширования на основе времени и LRU (Least Recently Used)


24.04.202513:03
Воу, вот что конкуренция животворящая делает.
OpenAI накинул дип ресерчей в Plus подписку, теперь 25 в месяц, а не 10
OpenAI накинул дип ресерчей в Plus подписку, теперь 25 в месяц, а не 10
23.04.202511:07
Все основные графики и резюме из AI Index от Стэнфорда
Reposted from:
Machinelearning

17.04.202521:06
🔥 Google только что выпустил Gemini 2.5 Flash
Ключевые особенности:
В 25 раз дешевле, чем Claude Sonnet 3.7 и Grok-3 и в 5–10 раз дешевле, чем Gemini‑2.5‑Pro.
Новая функция динамического «размышления» над сложными задачами.
Настраиваемый «бюджет мышления» (вы сами решаете, сколько токенов выделить на этап «размышлений»)
Делит #2, место на Арене вместе с GPT 4.5 Preview и Grok‑3.
🏆 Делит первое место в задачах
💠 Входит в топ‑4 по всем категориям
Gemini Flash 2.5 — это лучшее соотношение цена/производительность. Google снова на высоте.
Бегом тестить
@ai_machinelearning_big_data
#Gemini
Ключевые особенности:
В 25 раз дешевле, чем Claude Sonnet 3.7 и Grok-3 и в 5–10 раз дешевле, чем Gemini‑2.5‑Pro.
Новая функция динамического «размышления» над сложными задачами.
Настраиваемый «бюджет мышления» (вы сами решаете, сколько токенов выделить на этап «размышлений»)
Делит #2, место на Арене вместе с GPT 4.5 Preview и Grok‑3.
🏆 Делит первое место в задачах
Hard Prompts, Coding и Longer Query
💠 Входит в топ‑4 по всем категориям
Gemini Flash 2.5 — это лучшее соотношение цена/производительность. Google снова на высоте.
Бегом тестить
@ai_machinelearning_big_data
#Gemini


16.04.202515:04
Ого, Грок быстро догоняет
https://vc.ru/ai/1929777-grok-studio-rezhim-redaktirovaniya
В Grok появился режим редактирования — аналог Canvas в ChatGPT. Поле открывается автоматически, когда пользователь просит написать текст, код, отчёт или создать игру.
Для работы с документами добавили возможность форматировать заголовки, текст и списки.
В окне Preview можно увидеть, как будет выглядеть анимация, инфографика или игра, код для которой пишет чат-бот. Есть поддержка HTML, Python, C++, JavaScript, TypeScript и Bash-скриптов.
В Grok также добавили поддержку Google Drive. Теперь чат-боту можно прислать не только файл с компьютера, но и документ, электронную таблицу или презентацию с «Диска». Для этого придётся подключить аккаунт Google и дать Grok доступ к файлам.
https://vc.ru/ai/1929777-grok-studio-rezhim-redaktirovaniya
В Grok появился режим редактирования — аналог Canvas в ChatGPT. Поле открывается автоматически, когда пользователь просит написать текст, код, отчёт или создать игру.
Для работы с документами добавили возможность форматировать заголовки, текст и списки.
В окне Preview можно увидеть, как будет выглядеть анимация, инфографика или игра, код для которой пишет чат-бот. Есть поддержка HTML, Python, C++, JavaScript, TypeScript и Bash-скриптов.
В Grok также добавили поддержку Google Drive. Теперь чат-боту можно прислать не только файл с компьютера, но и документ, электронную таблицу или презентацию с «Диска». Для этого придётся подключить аккаунт Google и дать Grok доступ к файлам.
14.04.202519:20
Посмотрел подобно док.
https://openai.com/index/gpt-4-1/
Хорошая моделька получилась. По умолчанию во всех ботах и агентских системах можно на нее переходить. Чуть дешевле, при этом качество в кодинге и следовании инструкциям прям сильно выше рабочей лошадки 4o. А для всяких быстрых проверок или низкой задержки (типа голоса) можно брать 4.1-mini
https://openai.com/index/gpt-4-1/
Хорошая моделька получилась. По умолчанию во всех ботах и агентских системах можно на нее переходить. Чуть дешевле, при этом качество в кодинге и следовании инструкциям прям сильно выше рабочей лошадки 4o. А для всяких быстрых проверок или низкой задержки (типа голоса) можно брать 4.1-mini


25.04.202515:07
О, ChatGPT обновили функционал запуска по расписанию и сделали подраздел Tasks, и теперь они запускаются на o3 или o4-mini https://help.openai.com/en/articles/10291617-scheduled-tasks-in-chatgpt
23.04.202520:45
Картиночки от OpenAI теперь и в API - GPT-Image-1
https://platform.openai.com/docs/models/gpt-image-1
Входные токены стоят 5 баксов за миллион (на уровне больших моделей), а генерация картинки 1024х1024 - в зависимости от качества (хм): 1.1 цент, 4.2 или 16.7. Интересно сравнить разницу в качестве этих режимов трех, но в целом идущий на 2-3-4 местах в топах по качеству HiDream стоит 3 цента за фото, Recraft и Imagen 4 цента. Можно делать какой-нибудь претест-промптинг на low, а потом финальный результат фигачить на high, возможно так и будет выходить.
https://platform.openai.com/docs/models/gpt-image-1
Входные токены стоят 5 баксов за миллион (на уровне больших моделей), а генерация картинки 1024х1024 - в зависимости от качества (хм): 1.1 цент, 4.2 или 16.7. Интересно сравнить разницу в качестве этих режимов трех, но в целом идущий на 2-3-4 местах в топах по качеству HiDream стоит 3 цента за фото, Recraft и Imagen 4 цента. Можно делать какой-нибудь претест-промптинг на low, а потом финальный результат фигачить на high, возможно так и будет выходить.
22.04.202520:55
Anthropic вчера опубликовал, а сегодня на хабре перевели отличный гайд по использованию агентов в программировании, чтобы не ругаться на тупой chatgpt или Claude, когда он вам пол-проекта перепишет :)
Например там про то, чтобы план составить сначала:
https://habr.com/ru/articles/902422/
Например там про то, чтобы план составить сначала:
https://habr.com/ru/articles/902422/
17.04.202509:28
Подписавшись на супер-полезную рассылку для продакт-менеджеров от Lenny Rachitsky на год можно получить десяток годовых подписок на сервисы, вау!
Подписка стоит 200 баксов, одними только вайб-код-инструментами можно окупить
https://www.lennysnewsletter.com/p/an-unbelievable-offer-now-get-one
Вот что входит:
Bolt: One year of the Pro plan ($240 value)
Cursor: One year of the Pro plan ($240 value)
Lovable: One year of the Starter plan ($240 value)
Replit: One year of the Core plan ($360 value)
v0: One year of the Premium plan ($240 value)
Granola: One year of the Business plan for you and your team—up to 100 seats ($10,000+ value)
Notion: One year of the Plus plan (plus unlimited AI) for you and your team—up to 10 seats ($2,000+ value)
Linear: One year of the Business plan—two seats ($336 value)
Superhuman: One year of the Starter plan ($300 value)
Perplexity: One year of the Pro plan ($240 value)
Подписка стоит 200 баксов, одними только вайб-код-инструментами можно окупить
https://www.lennysnewsletter.com/p/an-unbelievable-offer-now-get-one
Вот что входит:
Bolt: One year of the Pro plan ($240 value)
Cursor: One year of the Pro plan ($240 value)
Lovable: One year of the Starter plan ($240 value)
Replit: One year of the Core plan ($360 value)
v0: One year of the Premium plan ($240 value)
Granola: One year of the Business plan for you and your team—up to 100 seats ($10,000+ value)
Notion: One year of the Plus plan (plus unlimited AI) for you and your team—up to 10 seats ($2,000+ value)
Linear: One year of the Business plan—two seats ($336 value)
Superhuman: One year of the Starter plan ($300 value)
Perplexity: One year of the Pro plan ($240 value)


16.04.202510:26
А вот GPT-4.1-Mini выглядит прям на удивление хорошо для типичных задач. Стоит $0.40 за вход и $1.60 за выход по сравнению с GPT-4o с ценами в $2.50 и $10.00, при даже лучшем качестве. То есть затраты можно снизить в 6 раз при лучшем качестве и скорости.
11.04.202521:31
OpenAI жалуется, как тяжело было тренировать GPT-4.5
https://youtu.be/6nJZopACRuQ
📅 Планирование проекта GPT-4.5 началось за ~2 года до запуска.
🎯 Цель - ~10-кратное эффективное увеличение вычислений по сравнению с GPT-4.
📈 Переход к большему количеству GPU делает редкие сбои (аппаратные, программные, данные) гораздо более частыми и значимыми.
🏃 Большие запуски часто начинаются с нерешенными проблемами; исправления и улучшения происходят в процессе работы.
🐞 Ошибка в torch.sum вызывала проблемы с корректностью в течение ~40 % времени выполнения.
💾 Доступность данных становится более узким местом, чем вычисления.
💡 Предварительное обучение действует как сжатие; меньшие потери сильно коррелируют с лучшими возможностями.
🛠 Переобучение GPT-4 в настоящее время потребует лишь части первоначальных усилий (сейчас - 5-10 человек)
https://youtu.be/6nJZopACRuQ
📅 Планирование проекта GPT-4.5 началось за ~2 года до запуска.
🎯 Цель - ~10-кратное эффективное увеличение вычислений по сравнению с GPT-4.
📈 Переход к большему количеству GPU делает редкие сбои (аппаратные, программные, данные) гораздо более частыми и значимыми.
🏃 Большие запуски часто начинаются с нерешенными проблемами; исправления и улучшения происходят в процессе работы.
🐞 Ошибка в torch.sum вызывала проблемы с корректностью в течение ~40 % времени выполнения.
💾 Доступность данных становится более узким местом, чем вычисления.
💡 Предварительное обучение действует как сжатие; меньшие потери сильно коррелируют с лучшими возможностями.
🛠 Переобучение GPT-4 в настоящее время потребует лишь части первоначальных усилий (сейчас - 5-10 человек)
Reposted from:
Малоизвестное интересное



25.04.202515:04
ИИ читает спикера за секунды, угадывая успех выступления по первым фразам.
Модели GPT и Gemini оценивают научный доклад уже после 15–60 слов — и попадают в точку.
До сих пор сверхвозможности больших языковых моделей мы видели в «текстовом океане» — когда нужно осмыслить миллиарды слов. Новая работа Michigan State University показала, что те же модели не менее точны в микромире: по первым двум-трем предложениям (≈ 1-5 % текста, меньше полуминуты речи) они с корреляцией 0,7 предсказывают, как доклад оценят живые эксперты.
Иными словами, ИИ выхватывает те самые сигналы, по которым мы подсознательно решаем: «слушать дальше или переключиться». Это приближает к эмпирической проверке популярного «7-second rule» Роджера Айлза (авторы уточняют: точное число секунд условно) - популярный постулат о публичных выступлениях, ораторском мастерстве и деловом общении:
Эти семь секунд включают момент выхода на сцену, первые слова, мимику, контакт глаз, позу и темп голоса - т.е. касаются в основном невербальной коммуникации. Авторы новой работы перенесли этот подход на вербальную коммуникацию, опираясь прежде всего на классическую «тонко-ломтевую» (thin-slice) линию исследований, начатую в 1990-е Натали Амбади и Робертом Розенталем (их эксперименты показали, что по 30-секундным беззвучным отрывкам можно с высокой точностью предсказывать оценки преподавателей студентами).
С тех пор на основе “тонких срезов” вырос целый корпус работ. Например:
• «speed-dating»: по нескольким секундам общения оценивали перспективу отношений
• микроданные невербального поведения на собеседованиях
• сигналы эмоций через невербальные каналы
• восприятие харизмы только по голосу (и шире - по акустике речи)
• мгновенные решения о доверии и компетентности по выражению лица
• как впечатления о спикере влияют на восприятие самого контента
Всё это - фундамент доказательства, что крошечные отрывки поведения и речи несут достаточную информацию о навыках, эмоциях и чертах личности.
Но лишь революция ChatGPT позволила применить подобный подход в языково-текстовом микромире (где нет ни голоса, ни внешности, а есть только стенограмма).
Как это делали:
• 128 докладов,
• 2 модели GPT-4o-mini и Gemini 1.5
• срезы размером 1-75 % текста стенограмм
• оценки моделей сравнивали с 60 экспертами - людьми
Что из этого следует для нас?
1) Золотое правило «зацепи аудиторию в первую минуту» получило эмпирическое подтверждение: если первые фразы скучны, дальше уже поздно спасать ситуацию.
2) LLM открывают дорогу к молниеносной, практически бесплатной обратной связи для преподавателей, политиков, учёных и всех, кому важно говорить убедительно. Соединяя идеи «тонких срезов» и возможности ИИ, мы получаем масштабируемый, надёжный и валидный инструмент, который поможет прокачивать публичные выступления и доводить их восприятие аудиторией до максимума (в пределах харизмы спикера).
3) А уж какая лафа ожидается в деловом общении с использованием презентаций и иных публичных выступлений (для клиентов, партнеров, инвесторов …)!
Вангую: очень скоро к LLM-анализу «тонких срезов» стенограмм добавится анализ тонких срезов аудио и видео выступлений (т.е. мультимедийный синтез всех каналов вербальной и невербальной коммуникации).
И тогда ИИ станет незаменимым инструментом для политтехнологов, спичрайтеров и имиджмейкеров.
А уж из совсем крышесносных перспектив - преодоление несжимаемости эволюционного опыта Homo sapiens.
#ВовлечениеАудитории #ИнтеллектуальнаяПродуктивность #LLMvsHomo
Модели GPT и Gemini оценивают научный доклад уже после 15–60 слов — и попадают в точку.
До сих пор сверхвозможности больших языковых моделей мы видели в «текстовом океане» — когда нужно осмыслить миллиарды слов. Новая работа Michigan State University показала, что те же модели не менее точны в микромире: по первым двум-трем предложениям (≈ 1-5 % текста, меньше полуминуты речи) они с корреляцией 0,7 предсказывают, как доклад оценят живые эксперты.
Иными словами, ИИ выхватывает те самые сигналы, по которым мы подсознательно решаем: «слушать дальше или переключиться». Это приближает к эмпирической проверке популярного «7-second rule» Роджера Айлза (авторы уточняют: точное число секунд условно) - популярный постулат о публичных выступлениях, ораторском мастерстве и деловом общении:
«Слушатели (или собеседники) составляют первичное и часто стойкое мнение о спикере за первые семь секунд после его появления».
Эти семь секунд включают момент выхода на сцену, первые слова, мимику, контакт глаз, позу и темп голоса - т.е. касаются в основном невербальной коммуникации. Авторы новой работы перенесли этот подход на вербальную коммуникацию, опираясь прежде всего на классическую «тонко-ломтевую» (thin-slice) линию исследований, начатую в 1990-е Натали Амбади и Робертом Розенталем (их эксперименты показали, что по 30-секундным беззвучным отрывкам можно с высокой точностью предсказывать оценки преподавателей студентами).
С тех пор на основе “тонких срезов” вырос целый корпус работ. Например:
• «speed-dating»: по нескольким секундам общения оценивали перспективу отношений
• микроданные невербального поведения на собеседованиях
• сигналы эмоций через невербальные каналы
• восприятие харизмы только по голосу (и шире - по акустике речи)
• мгновенные решения о доверии и компетентности по выражению лица
• как впечатления о спикере влияют на восприятие самого контента
Всё это - фундамент доказательства, что крошечные отрывки поведения и речи несут достаточную информацию о навыках, эмоциях и чертах личности.
Но лишь революция ChatGPT позволила применить подобный подход в языково-текстовом микромире (где нет ни голоса, ни внешности, а есть только стенограмма).
Как это делали:
• 128 докладов,
• 2 модели GPT-4o-mini и Gemini 1.5
• срезы размером 1-75 % текста стенограмм
• оценки моделей сравнивали с 60 экспертами - людьми
Что из этого следует для нас?
1) Золотое правило «зацепи аудиторию в первую минуту» получило эмпирическое подтверждение: если первые фразы скучны, дальше уже поздно спасать ситуацию.
2) LLM открывают дорогу к молниеносной, практически бесплатной обратной связи для преподавателей, политиков, учёных и всех, кому важно говорить убедительно. Соединяя идеи «тонких срезов» и возможности ИИ, мы получаем масштабируемый, надёжный и валидный инструмент, который поможет прокачивать публичные выступления и доводить их восприятие аудиторией до максимума (в пределах харизмы спикера).
3) А уж какая лафа ожидается в деловом общении с использованием презентаций и иных публичных выступлений (для клиентов, партнеров, инвесторов …)!
Вангую: очень скоро к LLM-анализу «тонких срезов» стенограмм добавится анализ тонких срезов аудио и видео выступлений (т.е. мультимедийный синтез всех каналов вербальной и невербальной коммуникации).
И тогда ИИ станет незаменимым инструментом для политтехнологов, спичрайтеров и имиджмейкеров.
А уж из совсем крышесносных перспектив - преодоление несжимаемости эволюционного опыта Homo sapiens.
#ВовлечениеАудитории #ИнтеллектуальнаяПродуктивность #LLMvsHomo
23.04.202515:34
Интересное от Байрама Аннакова (создателя App in the Air, а теперь - AI-сервисов для отдела продаж) - что нового произошло в GenAI-мире с начала года:
За 18 месяцев «стоимость интеллекта» упала в 280 раз — продукты можно продавать «в минус», зная, что через квартал себестоимость снова просядет.
Модели дешевеют и умнеют:
- GPT-4.1-mini и Groq + Mixtral дают топ-качество по цене < 2 $/M токенов.
- Claude 3.7 объединил «быстрое» и «глубокое» мышление в одной сети.
- GPT-o3 научился сам выбирать инструменты (поиск, Python) прямо в reasoning.
«Чувства, мысли, действия»:
- Распознавание речи и картинок уже выше human-level, а цена всё ниже.
- Генерация: GPT-4o генерация лидирует по изображениям, Sora/Kling/Veo2 быстро подтягивают видео.
- Роботы учатся по тем же LLM-методам — Figure 01 и Tesla Bot уже на улице.
- 2025 объявлен «годом AI-агентов»: компании буду платить тысячи $/мес. за микросейлз- или митинг-ботов
- Google и OpenAI выкатили собственные Agent SDK — готовят почву для «магазинов агентов» и жёсткого vendor lock-in.
Что дальше. Две школы мысли:
1. «AI 2027» — автоматический AI-research ускорит прогресс до уровня опасности, возможна национализация компаний разработчиков AI.
2. «AI как электричество» — полное внедрение в бизнес займёт 30–40 лет.
Что ждать в ближайшие 3–6 месяцев: код-агенты в IDE, real-time дубляж голосом студийного качества и первый публичный Agent Store.
TL;DR: интеллект дешевеет, возможности растут, следующий виток — это массовое появление узкоспециализированных агентов и борьба за их экосистемы.
https://youtu.be/R5TYcdPrEnU.
Презентация в аттаче.
За 18 месяцев «стоимость интеллекта» упала в 280 раз — продукты можно продавать «в минус», зная, что через квартал себестоимость снова просядет.
Модели дешевеют и умнеют:
- GPT-4.1-mini и Groq + Mixtral дают топ-качество по цене < 2 $/M токенов.
- Claude 3.7 объединил «быстрое» и «глубокое» мышление в одной сети.
- GPT-o3 научился сам выбирать инструменты (поиск, Python) прямо в reasoning.
«Чувства, мысли, действия»:
- Распознавание речи и картинок уже выше human-level, а цена всё ниже.
- Генерация: GPT-4o генерация лидирует по изображениям, Sora/Kling/Veo2 быстро подтягивают видео.
- Роботы учатся по тем же LLM-методам — Figure 01 и Tesla Bot уже на улице.
- 2025 объявлен «годом AI-агентов»: компании буду платить тысячи $/мес. за микросейлз- или митинг-ботов
- Google и OpenAI выкатили собственные Agent SDK — готовят почву для «магазинов агентов» и жёсткого vendor lock-in.
Что дальше. Две школы мысли:
1. «AI 2027» — автоматический AI-research ускорит прогресс до уровня опасности, возможна национализация компаний разработчиков AI.
2. «AI как электричество» — полное внедрение в бизнес займёт 30–40 лет.
Что ждать в ближайшие 3–6 месяцев: код-агенты в IDE, real-time дубляж голосом студийного качества и первый публичный Agent Store.
TL;DR: интеллект дешевеет, возможности растут, следующий виток — это массовое появление узкоспециализированных агентов и борьба за их экосистемы.
https://youtu.be/R5TYcdPrEnU.
Презентация в аттаче.
21.04.202519:33
Netflix рассказывает, как сделал одну большую модель для персональных рекомендаций
https://netflixtechblog.com/foundation-model-for-personalized-recommendation-1a0bd8e02d39
Раньше в Netflix использовались десятки отдельных моделей:
одна рекомендовала контент на главной,
другая — при поиске,
третья — для уведомлений и e-mail.
Это было сложно масштабировать и поддерживать. Поэтому они решили создать одну универсальную модель, которую можно использовать везде.
Transformer, обученный на миллиардных объемах событий:
просмотры,
скроллы,
клики,
добавления в список,
рейтинги.
Модель предсказывает "следующее действие" пользователя, учитывая весь контекст (устройство, время, сессию и др.).
Используется multi-task learning: одна модель решает сразу множество задач (например, "покажи на главной" и "выведи в поиске").
Входные данные: токены, представляющие действия, контент и контекст
Обучение идет на огромных логах взаимодействий. Используется self-supervised learning: модель учится предсказывать недостающие или следующие токены (например, какой фильм человек посмотрит).
Модель уже используется:
в рекомендациях на главной странице,
в системе "похожие фильмы",
в ранжировании результатов поиска.
Netflix называет это шагом к Unified Personalization Model — будущему, где весь UX будет персонализирован одной системой.
https://netflixtechblog.com/foundation-model-for-personalized-recommendation-1a0bd8e02d39
Раньше в Netflix использовались десятки отдельных моделей:
одна рекомендовала контент на главной,
другая — при поиске,
третья — для уведомлений и e-mail.
Это было сложно масштабировать и поддерживать. Поэтому они решили создать одну универсальную модель, которую можно использовать везде.
Transformer, обученный на миллиардных объемах событий:
просмотры,
скроллы,
клики,
добавления в список,
рейтинги.
Модель предсказывает "следующее действие" пользователя, учитывая весь контекст (устройство, время, сессию и др.).
Используется multi-task learning: одна модель решает сразу множество задач (например, "покажи на главной" и "выведи в поиске").
Входные данные: токены, представляющие действия, контент и контекст
Обучение идет на огромных логах взаимодействий. Используется self-supervised learning: модель учится предсказывать недостающие или следующие токены (например, какой фильм человек посмотрит).
Модель уже используется:
в рекомендациях на главной странице,
в системе "похожие фильмы",
в ранжировании результатов поиска.
Netflix называет это шагом к Unified Personalization Model — будущему, где весь UX будет персонализирован одной системой.
16.04.202520:20
Кажется у OpenAI будет собственный vibe-редактор кода
https://www.bloomberg.com/news/articles/2025-04-16/openai-said-to-be-in-talks-to-buy-windsurf-for-about-3-billion
https://www.bloomberg.com/news/articles/2025-04-16/openai-said-to-be-in-talks-to-buy-windsurf-for-about-3-billion


16.04.202508:23
Европейцы продолжают пытаться в свои LLM - выпустили Teuken-7B-Base & Teuken-7B-Instruct, натренированные на 24 европейских языках (русского нет).
Все вроде как правильно сделали, но результаты оказались хуже базовой старенькой Meta Llama-3.1.
https://arxiv.org/abs/2410.03730
Все вроде как правильно сделали, но результаты оказались хуже базовой старенькой Meta Llama-3.1.
https://arxiv.org/abs/2410.03730
11.04.202521:21
Очень хочу найти время вдумчиво почитать State of the AI, но пока только выводы
Производительность ИИ на сложных тестах продолжает расти. В 2023 году исследователи представили новые бенчмарки — MMMU, GPQA и SWE-bench — для проверки возможностей продвинутых ИИ-систем. Уже через год их производительность резко выросла: показатели улучшились на 18,8, 48,9 и 67,3 процентных пункта соответственно. Помимо тестов, ИИ-системы значительно продвинулись в генерации качественного видео, а в некоторых случаях агенты на базе языковых моделей превзошли людей в задачах программирования с ограниченным временем.
ИИ всё глубже внедряется в повседневную жизнь. От здравоохранения до транспорта — ИИ быстро выходит из лабораторий в реальный мир. В 2023 году FDA одобрила 223 медицинских устройства с ИИ, тогда как в 2015 году их было всего 6. На дорогах беспилотные автомобили перестали быть экспериментом: Waymo делает уже более 150 000 автономных поездок в неделю в США, а флот доступных роботакси Apollo Go от Baidu уже обслуживает множество городов Китая.
Бизнес полностью делает ставку на ИИ, способствуя рекордным инвестициям и росту использования. В 2024 году частные инвестиции в ИИ в США достигли $109,1 млрд — почти в 12 раз больше, чем в Китае ($9,3 млрд), и в 24 раза больше, чем в Великобритании ($4,5 млрд). Генеративный ИИ особенно популярен, привлекая $33,9 млрд частных инвестиций по всему миру (+18,7% к 2023 году). Использование ИИ в бизнесе также ускоряется: 78% организаций сообщили об использовании ИИ в 2024 году (против 55% годом ранее). Всё больше исследований подтверждают, что ИИ повышает производительность и помогает сократить разрыв в навыках сотрудников.
США продолжают лидировать в разработке топовых ИИ-моделей, но Китай сокращает отставание. В 2024 году институты из США создали 40 заметных ИИ-моделей, Китай — 15, Европа — 3. Несмотря на количественное лидерство США, китайские модели быстро сокращают разрыв по качеству: различия в производительности на таких бенчмарках, как MMLU и HumanEval, уменьшились с двузначных до почти нулевых в 2024 году. Китай по-прежнему лидирует по количеству публикаций и патентов в области ИИ. Разработка моделей становится всё более глобальной, включая Ближний Восток, Латинскую Америку и Юго-Восточную Азию.
Экосистема ответственного ИИ развивается неравномерно. Количество инцидентов, связанных с ИИ, резко растёт, но стандартизированные оценки RAI (Responsible AI — Ответственный ИИ) остаются редкими среди ведущих промышленных разработчиков. Однако новые бенчмарки, такие как HELM Safety, AIR-Bench и FACTS, предлагают перспективные инструменты оценки правдивости и безопасности. Среди компаний сохраняется разрыв между осознанием рисков RAI и реальными действиями. В отличие от этого, правительства начинают действовать активнее: в 2024 году усилилось международное сотрудничество в области регулирования ИИ, включая инициативы от ОЭСР, ЕС, ООН и Африканского союза по обеспечению прозрачности, доверия и других ключевых принципов ответственного ИИ.
Оптимизм по поводу ИИ в мире растёт, но сохраняются региональные различия. В таких странах, как Китай (83%), Индонезия (80%) и Таиланд (77%), подавляющее большинство считает ИИ-продукты и сервисы полезными. В то же время в Канаде (40%), США (39%) и Нидерландах (36%) уровень оптимизма значительно ниже. Тем не менее, настроение меняется: с 2022 года оптимизм вырос в странах, ранее настроенных скептически, включая Германию (+10%), Францию (+10%), Канаду (+8%), Великобританию (+8%) и США (+4%).
ИИ становится более эффективным, доступным и дешёвым. Благодаря более мощным малым моделям, стоимость инференса (исполнения модели) для уровня GPT-3.5 снизилась более чем в 280 раз с ноября 2022 по октябрь 2024. Аппаратные издержки упали на 30% в год, а энергоэффективность улучшалась на 40% ежегодно. Модели с открытым доступом к весам почти догнали закрытые: разрыв в производительности сократился с 8% до 1,7% за год. Эти тренды резко снижают барьеры к использованию продвинутого ИИ.
Производительность ИИ на сложных тестах продолжает расти. В 2023 году исследователи представили новые бенчмарки — MMMU, GPQA и SWE-bench — для проверки возможностей продвинутых ИИ-систем. Уже через год их производительность резко выросла: показатели улучшились на 18,8, 48,9 и 67,3 процентных пункта соответственно. Помимо тестов, ИИ-системы значительно продвинулись в генерации качественного видео, а в некоторых случаях агенты на базе языковых моделей превзошли людей в задачах программирования с ограниченным временем.
ИИ всё глубже внедряется в повседневную жизнь. От здравоохранения до транспорта — ИИ быстро выходит из лабораторий в реальный мир. В 2023 году FDA одобрила 223 медицинских устройства с ИИ, тогда как в 2015 году их было всего 6. На дорогах беспилотные автомобили перестали быть экспериментом: Waymo делает уже более 150 000 автономных поездок в неделю в США, а флот доступных роботакси Apollo Go от Baidu уже обслуживает множество городов Китая.
Бизнес полностью делает ставку на ИИ, способствуя рекордным инвестициям и росту использования. В 2024 году частные инвестиции в ИИ в США достигли $109,1 млрд — почти в 12 раз больше, чем в Китае ($9,3 млрд), и в 24 раза больше, чем в Великобритании ($4,5 млрд). Генеративный ИИ особенно популярен, привлекая $33,9 млрд частных инвестиций по всему миру (+18,7% к 2023 году). Использование ИИ в бизнесе также ускоряется: 78% организаций сообщили об использовании ИИ в 2024 году (против 55% годом ранее). Всё больше исследований подтверждают, что ИИ повышает производительность и помогает сократить разрыв в навыках сотрудников.
США продолжают лидировать в разработке топовых ИИ-моделей, но Китай сокращает отставание. В 2024 году институты из США создали 40 заметных ИИ-моделей, Китай — 15, Европа — 3. Несмотря на количественное лидерство США, китайские модели быстро сокращают разрыв по качеству: различия в производительности на таких бенчмарках, как MMLU и HumanEval, уменьшились с двузначных до почти нулевых в 2024 году. Китай по-прежнему лидирует по количеству публикаций и патентов в области ИИ. Разработка моделей становится всё более глобальной, включая Ближний Восток, Латинскую Америку и Юго-Восточную Азию.
Экосистема ответственного ИИ развивается неравномерно. Количество инцидентов, связанных с ИИ, резко растёт, но стандартизированные оценки RAI (Responsible AI — Ответственный ИИ) остаются редкими среди ведущих промышленных разработчиков. Однако новые бенчмарки, такие как HELM Safety, AIR-Bench и FACTS, предлагают перспективные инструменты оценки правдивости и безопасности. Среди компаний сохраняется разрыв между осознанием рисков RAI и реальными действиями. В отличие от этого, правительства начинают действовать активнее: в 2024 году усилилось международное сотрудничество в области регулирования ИИ, включая инициативы от ОЭСР, ЕС, ООН и Африканского союза по обеспечению прозрачности, доверия и других ключевых принципов ответственного ИИ.
Оптимизм по поводу ИИ в мире растёт, но сохраняются региональные различия. В таких странах, как Китай (83%), Индонезия (80%) и Таиланд (77%), подавляющее большинство считает ИИ-продукты и сервисы полезными. В то же время в Канаде (40%), США (39%) и Нидерландах (36%) уровень оптимизма значительно ниже. Тем не менее, настроение меняется: с 2022 года оптимизм вырос в странах, ранее настроенных скептически, включая Германию (+10%), Францию (+10%), Канаду (+8%), Великобританию (+8%) и США (+4%).
ИИ становится более эффективным, доступным и дешёвым. Благодаря более мощным малым моделям, стоимость инференса (исполнения модели) для уровня GPT-3.5 снизилась более чем в 280 раз с ноября 2022 по октябрь 2024. Аппаратные издержки упали на 30% в год, а энергоэффективность улучшалась на 40% ежегодно. Модели с открытым доступом к весам почти догнали закрытые: разрыв в производительности сократился с 8% до 1,7% за год. Эти тренды резко снижают барьеры к использованию продвинутого ИИ.
25.04.202515:04
Очередное подтверждение, что ваши первые пол-минуты выступления важнее всего остального. Теперь это даже ИИ понимает.
23.04.202511:07
Перевод AI Index 2025 от Стэнфордского университета
Лидеры венчура. США - $109,1 млрд (в 12 раз больше, чем Китай с $9,3 млрд, и в 24 раз больше, чем Великобритания с $4,5 млрд).
Выигрыши. 49% отметили экономию в сервисных операциях, 71% - рост выручки в маркетинге и продажах.
Робототехника. В Китае установлено >276 300 промышленных роботов (51,1% мирового рынка, 2023).
Готовность учителей. 81% считают, что основы ИИ нужно учить в школе, но менее половины уверены в готовности преподавать ML и LLM.
https://habr.com/ru/amp/publications/902602/
Лидеры венчура. США - $109,1 млрд (в 12 раз больше, чем Китай с $9,3 млрд, и в 24 раз больше, чем Великобритания с $4,5 млрд).
Выигрыши. 49% отметили экономию в сервисных операциях, 71% - рост выручки в маркетинге и продажах.
Робототехника. В Китае установлено >276 300 промышленных роботов (51,1% мирового рынка, 2023).
Готовность учителей. 81% считают, что основы ИИ нужно учить в школе, но менее половины уверены в готовности преподавать ML и LLM.
https://habr.com/ru/amp/publications/902602/
Reposted from:
Точки над ИИ

Could not access
the media content
the media content
19.04.202512:14
Canva показала гору новых AI-фич
Ребята из Canva решили, что мало просто делать красивые картинки и презентации. На своей конференции Create 2025 они запустили AI на полную.
Вот 5 основных фич, которые цепляют больше всего:
1. Canva Code
Теперь превращать идеи в готовые дизайны можно без кода. Просто опиши, что тебе надо, и AI всё сделает сам.
2. Magic Formulas и Magic Insights
AI-функции внутри Canva Sheets, которые сами проанализируют данные и подскажут, что дальше с ними делать.
3. Промпт голосом, текстом или картинкой
Скажи, напиши или покажи, что хочешь получить, и Canva за секунды соберёт презентацию, графику или документ.
4. Кнопка перевода и локализации
Всё, что делаешь, сразу переводится на разные языки. Пригодится тем, кто работает с контентом на зарубежную аудиторию.
5. Magic Charts
Превращают любые данные в стильные, интерактивные графики за один клик.
Ознакомиться можно тут.
#design@TochkiNadAI
Ребята из Canva решили, что мало просто делать красивые картинки и презентации. На своей конференции Create 2025 они запустили AI на полную.
Вот 5 основных фич, которые цепляют больше всего:
1. Canva Code
Теперь превращать идеи в готовые дизайны можно без кода. Просто опиши, что тебе надо, и AI всё сделает сам.
2. Magic Formulas и Magic Insights
AI-функции внутри Canva Sheets, которые сами проанализируют данные и подскажут, что дальше с ними делать.
3. Промпт голосом, текстом или картинкой
Скажи, напиши или покажи, что хочешь получить, и Canva за секунды соберёт презентацию, графику или документ.
4. Кнопка перевода и локализации
Всё, что делаешь, сразу переводится на разные языки. Пригодится тем, кто работает с контентом на зарубежную аудиторию.
5. Magic Charts
Превращают любые данные в стильные, интерактивные графики за один клик.
Ознакомиться можно тут.
#design@TochkiNadAI
Reposted from:
эйай ньюз

16.04.202517:39
o3 и o4-mini от OpenAI релизятся
Главная фишка — новые модели натренировали использовать тулы прямо во время ризонинга. То есть они могут не только искать в интернете, но и исполнять код и пользоваться другими тулами. Обе модели мультимодальные и могут использовать это во время размышлений.
По бенчам — разнос всего, даже недавно релизнутой Gemini 2.5 Pro Experimental. Но оно и не удивительно — на тренировку o3 ушло более чем в 10x больше компьюта чем у o1.
Модели начинают раскатывать уже в ChatGPT для Pro и Plus планов, остальным через неделю. Какие лимиты — не сказали, так что скорее всего будут как у прошлых моделей. Для Pro подписчиков обещают и o3-pro, но релизнут её немного позже.
В API релизят тоже сегодня, но пока что без тулюза. Цена за o3 — $10/$40 за миллион токенов, это на треть дешевле чем o1 и в 15 (!) раз дешевле o1-pro. При этом o1 для решения задачи нужно больше токенов чем o3, поэтому o1 собираются полностью заменить на o3. А вот o3-mini стоит столько же сколько o4-mini — $1.1/$4.4 за миллион токенов, но интеллекта на доллар там тоже больше, из-за чего и o3-mini полностью заменят на o4-mini.
@ai_newz
Главная фишка — новые модели натренировали использовать тулы прямо во время ризонинга. То есть они могут не только искать в интернете, но и исполнять код и пользоваться другими тулами. Обе модели мультимодальные и могут использовать это во время размышлений.
По бенчам — разнос всего, даже недавно релизнутой Gemini 2.5 Pro Experimental. Но оно и не удивительно — на тренировку o3 ушло более чем в 10x больше компьюта чем у o1.
Модели начинают раскатывать уже в ChatGPT для Pro и Plus планов, остальным через неделю. Какие лимиты — не сказали, так что скорее всего будут как у прошлых моделей. Для Pro подписчиков обещают и o3-pro, но релизнут её немного позже.
В API релизят тоже сегодня, но пока что без тулюза. Цена за o3 — $10/$40 за миллион токенов, это на треть дешевле чем o1 и в 15 (!) раз дешевле o1-pro. При этом o1 для решения задачи нужно больше токенов чем o3, поэтому o1 собираются полностью заменить на o3. А вот o3-mini стоит столько же сколько o4-mini — $1.1/$4.4 за миллион токенов, но интеллекта на доллар там тоже больше, из-за чего и o3-mini полностью заменят на o4-mini.
@ai_newz


15.04.202518:18
У меня сегодня день рождения (вместе с Пугачёвой, ага, в центре весны), так что новостей не будет, но зато вот традиционная уже фоточка в стиле Action Figure, сгенерированная Gpt-4o.
Прогресс в AI просто взрывает мозг каждый день, так что пожелание на этот год - чтобы AGI был добрым к человечеству 😇. Я лично всегда говорю спасибо LLM-кам :)
Прогресс в AI просто взрывает мозг каждый день, так что пожелание на этот год - чтобы AGI был добрым к человечеству 😇. Я лично всегда говорю спасибо LLM-кам :)
11.04.202521:21
Государства активизируются в сфере ИИ — через регулирование и инвестиции. В 2024 году федеральные агентства США ввели 59 нормативных актов, связанных с ИИ — более чем вдвое больше, чем в 2023 году. Упоминания ИИ в законодательных актах выросли на 21,3% в 75 странах с 2023 года (рост в 9 раз с 2016 года). Параллельно растут инвестиции: Канада пообещала $2,4 млрд, Китай запустил фонд в $47,5 млрд для полупроводников, Франция — €109 млрд, Индия — $1,25 млрд, а инициатива Transcendence в Саудовской Аравии представляет собой проект на $100 млрд.
Образование в сфере ИИ и информатики расширяется, но сохраняются пробелы в доступности. Две трети стран уже предлагают или планируют предлагать компьютерные науки (CS) в школах (K–12), что вдвое больше, чем в 2019 году. Африка и Латинская Америка показали наибольший прогресс. В США количество выпускников бакалавриата в области CS выросло на 22% за последние 10 лет. Тем не менее, доступ к ИИ ограничен во многих африканских странах из-за проблем с базовой инфраструктурой, такой как электричество. В США 81% учителей CS считают, что ИИ должен быть частью базового образования, но менее половины готовы его преподавать.
Индустрия лидирует в разработке ИИ — но передний край становится конкуретнее. Почти 90% заметных ИИ-моделей в 2024 году были созданы в индустрии (против 60% в 2023), хотя научная среда остаётся главным источником наиболее цитируемых исследований. Масштабы моделей продолжают расти: вычислительные ресурсы удваиваются каждые 5 месяцев, датасеты — каждые 8 месяцев, энергопотребление — ежегодно. При этом разрывы в производительности уменьшаются: разница в рейтинге Elo между первой и десятой моделью сократилась с 11,9% до 5,4%, а между первой и второй — всего 0,7%. Конкуренция на переднем крае усиливается.
ИИ получает признание за вклад в науку. Это отражается в наградах: две Нобелевские премии были присуждены за работы, связанные с глубинным обучением (физика) и применением ИИ к прогнозированию структуры белков (химия), а премия Тьюринга — за достижения в области обучения с подкреплением.
Сложные рассуждения остаются трудной задачей. Хотя ИИ-модели справляются с задачами уровня Международной математической олимпиады, они по-прежнему испытывают трудности с более сложными задачами логики и планирования, например на PlanBench. Часто модели не способны надёжно решать логические задачи даже при наличии проверяемо правильного решения, что ограничивает их применение в критически важных областях, где требуется высокая точность.
https://hai-production.s3.amazonaws.com/files/hai_ai_index_report_2025.pdf
Образование в сфере ИИ и информатики расширяется, но сохраняются пробелы в доступности. Две трети стран уже предлагают или планируют предлагать компьютерные науки (CS) в школах (K–12), что вдвое больше, чем в 2019 году. Африка и Латинская Америка показали наибольший прогресс. В США количество выпускников бакалавриата в области CS выросло на 22% за последние 10 лет. Тем не менее, доступ к ИИ ограничен во многих африканских странах из-за проблем с базовой инфраструктурой, такой как электричество. В США 81% учителей CS считают, что ИИ должен быть частью базового образования, но менее половины готовы его преподавать.
Индустрия лидирует в разработке ИИ — но передний край становится конкуретнее. Почти 90% заметных ИИ-моделей в 2024 году были созданы в индустрии (против 60% в 2023), хотя научная среда остаётся главным источником наиболее цитируемых исследований. Масштабы моделей продолжают расти: вычислительные ресурсы удваиваются каждые 5 месяцев, датасеты — каждые 8 месяцев, энергопотребление — ежегодно. При этом разрывы в производительности уменьшаются: разница в рейтинге Elo между первой и десятой моделью сократилась с 11,9% до 5,4%, а между первой и второй — всего 0,7%. Конкуренция на переднем крае усиливается.
ИИ получает признание за вклад в науку. Это отражается в наградах: две Нобелевские премии были присуждены за работы, связанные с глубинным обучением (физика) и применением ИИ к прогнозированию структуры белков (химия), а премия Тьюринга — за достижения в области обучения с подкреплением.
Сложные рассуждения остаются трудной задачей. Хотя ИИ-модели справляются с задачами уровня Международной математической олимпиады, они по-прежнему испытывают трудности с более сложными задачами логики и планирования, например на PlanBench. Часто модели не способны надёжно решать логические задачи даже при наличии проверяемо правильного решения, что ограничивает их применение в критически важных областях, где требуется высокая точность.
https://hai-production.s3.amazonaws.com/files/hai_ai_index_report_2025.pdf
Shown 1 - 24 of 77
Log in to unlock more functionality.