Мир сегодня с "Юрий Подоляка"
Мир сегодня с "Юрий Подоляка"
Труха⚡️Україна
Труха⚡️Україна
Николаевский Ванёк
Николаевский Ванёк
Мир сегодня с "Юрий Подоляка"
Мир сегодня с "Юрий Подоляка"
Труха⚡️Україна
Труха⚡️Україна
Николаевский Ванёк
Николаевский Ванёк
CRAI где живёт AI avatar

CRAI где живёт AI

Side-канал @contentreview с новостями из области искусственного интеллекта (AI)
TGlist рейтинг
0
0
ТипАчык
Текшерүү
Текшерилбеген
Ишенимдүүлүк
Ишенимсиз
Орду
ТилиБашка
Канал түзүлгөн датаOct 26, 2024
TGlistке кошулган дата
Jan 06, 2025

"CRAI где живёт AI" тобундагы акыркы жазуулар

#нейродайджест CRAI за неделю

• Аниме против Google: картинки в стиле Ghibli помогли ChatGPT захватить рынок ИИ?
Как функция генерации аниме-изображений привела к взрывному росту популярности ChatGPT, который в разы обогнал Gemini по трафику, и что теперь делать Google?

• «Рассуждающий» ИИ – переоцененная технология?
Разбираемся с проблемами и ограничениями «рассуждающих» языковых моделей, которые имитируют человеческое мышление. Когда их стоит использовать?

• Новый релиз OpenAI
Модели o3 и o4-mini способны «думать» изображениями и использовать в этот момент инструменты ChatGPT. Что это значит?

• Nvidia между санкциями США и китайскими деньгами
Как связаны запрет на экспорт видеокарт в Китай, визит главы Nvidia в Пекин и аресты в Сингапуре?

• Неожиданно «умный» стартап: ручной труд филиппинцев вместо ИИ
Стартап Nate привлек 50 миллионов долларов, обещая революционный ИИ-шопинг, а на деле использовал труд сотен людей на Филиппинах.

• 644 миллиарда долларов на ветер?
По прогнозу Gartner, расходы на генеративный ИИ в 2025 году вырастут колоссально. Парадокс: пользователи пока не разделяют энтузиазма разработчиков по поводу GenAI. Куда пойдут деньги и есть ли смысл в таких инвестициях?

• США хотят запретить открытый ИИ?
В Соединённых штатах идёт дискуссия о возможном запрете или регулировании открытого искусственного интеллекта. Чем им не угодили open source модели?

• Реклама в чат-ботах – новая реальность?
Стартап Nexad планирует внедрить рекламу в чат-боты. Как она может выглядеть и почему инвесторы готовы в это вкладываться?

• Переговоры в Мар-а-Лаго: как Nvidia пытались спасти свой китайский экспорт от Трампа
Глава Nvidia, по слухам, пытался на секретном ужине убедить администрацию Трампа сделать исключение и не блокировать поставки ключевых ИИ-чипов в Китай. Спойлер – не получилось.

• В Nvidia заявили, что переносят производство в США
500 миллиардов инвестиций и начало производства в Америке – зачем это компании?
Nvidia и их борьба

Главный герой триллера, который разворачивается на рынке чипов для ИИ после введения администрацией Трампа тарифов компания Nvidia, оказавшаяся между молотом американских санкций и наковальней китайского рынка.

Несмотря на якобы состоявшиеся секретные переговоры и объявленные планы о полутрилионных инвестициях в США – новая администрация внезапно запретила поставки в Китай чипов H20, созданных специально с учетом предыдущих ограничений. Результат для компании – прогнозируемые убытки в 5,5 миллиардов долларов и падение акций.

Что делает CEO Nvidia Дженсен Хуанг? То, что сделал бы любой прагматичный бизнесмен – летит в Пекин. Сразу после сокрушительного удара по бизнесу он встречается с вице-премьером Китая и руководством DeepSeek – той самой компании, из-за которой, возможно, и усилили санкции. Ведь есть подозрение, что DeepSeek тренировали свои языковые модели на чипах, которые, по идее, не должны были оказаться в Китае.

Конгресс США в это время бьет тревогу. Как запрещенные H800 попали в китайские руки? Не через Сингапур ли, где недавно арестовали несколько человек за подделку документов о конечных пользователях чипов Nvidia? Законодатели требуют от Хуанга объяснений и отчетов о всех поставках в Юго-Восточную Азию и Китай с 2020 года.

Nvidia оказалась в ловушке: с одной стороны, национальные интересы США и обязательство «следовать указаниям правительства буквально», с другой – огромный китайский рынок, который Хуанг публично называет «очень важным» для компании.

Парадокс ситуации в том, что жесткая политика США может дать обратный эффект. Вместо ослабления конкурента она толкает компании и страны к еще большему сближению с Китаем. Визит Хуанга в Пекин – яркое тому подтверждение. Бизнес идет туда, где есть возможности, а они сейчас всё чаще оказываются за пределами американской сферы влияния.
В США хотят запретить открытый ИИ?

В 2024 году китайские военные исследователи, связанные с НОАК, на основе открытой модели LLaMA сделали инструмент ChatBIT для военных. Америке это не понравилось.

В Соединённых штатах есть множество небольших стартапов, которые строят экосистему открытых моделей. EleutherAI с моделями GPT-Neo и GPT-J (иронично называемые «открытой» версией OpenAI), Together AI с инфраструктурой для LLaMA и Mixtral, Hugging Face с библиотекой Transformers (которые превратились в настоящее сердце сообщества открытого ИИ), и так далее. Они вносят огромный вклад в развитие сообщества, и раньше считалось, что открытый код – это благо.

Правда, когда те самые открытые модели из США стали попадать в руки геополитических противников, сделавших на их основе свои решения – администрация такого развития событий не оценила. С приходом Трампа в стране возобновились дискуссии о рисках и минусах открытого ИИ.

С плюсами никто не спорит – открытые модели позволяют исследователям изучать их работу, выявлять уязвимости и решать этические проблемы, легко доступны для стартапов и бизнеса, предотвращают монополизацию рынка и способствуют развитию технологий. Но, как бывает в таких случаях, риски в глазах регуляторов могут перевесить плюсы.

О каких рисках идёт речь?
• Неконтролируемое распространение – в отличие от закрытых систем, открытые модели невозможно «отозвать» после публикации и любые найденные уязвимости остаются в них навсегда.
• Дипфейки и дезинформация – свободный доступ к технологиям создания дипфейков позволяет манипулировать общественным мнением.
• Бэкдоры – в открытых моделях из других стран (в частности, Китая) могут быть встроены скрытые уязвимости. Этот пункт стал актуальным на фоне мирового взлёта DeepSeek.
• Кибератаки и автономное оружие – открытые инструменты ИИ могут быть использованы для кибератак, создания систем вооружения и других действий, подрывающих национальную безопасность. Этот момент беспокоит власти США больше всего.

К счастью, о полном запрете открытого ИИ пока речи не идёт – да и вряд ли это возможно. В США рассматриваются разные опции. Золотой серединой считают регулирование, которое сохраняет преимущества открытости, но минимизирует риски – например, через ограничения на самые мощные модели или специфические области применения, представляющие явную угрозу безопасности.
Утренний #нейротрек
Пост про думающие модели вышел как нельзя кстати – OpenAI выпустили модели o3 и o4-mini

Из важных улучшений – флагманская модель o3 обрабатывает изображения во время размышлений и может взаимодействовать с загруженными фотографиями. Обещают, что поймёт даже чертёж на салфетке или схемы в низком разрешении. Это не совсем нововведение – то же самое умели делать и раньше мультимодальные модели вроде 4o, или работающие в связке VLM и LLM модели, но теперь этот процесс встраивается в «рассуждения» модели.

Самое важное нововведение – обучение моделей происходило с учётом инструментов, которые есть в ChatGPT. Они могут во время ответа искать данные в Интернете, писать код на Python для вычислений, генерировать графики или изображения – и всё это также встраивается в процесс «рассуждения».

Примечательно, что o3 чуть не осталась в лабораториях навсегда. Сэм Альтман, глава OpenAI, изначально планировал направить ресурсы на более продвинутую альтернативу, но, похоже, давление конкурентов – Google, Meta, Anthropic и других – вынудило компанию изменить курс.

Модель неплохо справляется с задачами, хотя на простые вопросы иногда может отвечать несколько десятков секунд. При этом обе модели активно убеждают пользователя в правильности своего ответа, даже когда сильно ошибаются. Почему? Потому что убеждают себя раз за разом во время «рассуждений», что правы, и по итогу не могут сказать «Я не знаю».

В ближайшие недели ожидается выход o3-pro – еще более мощной версии, использующей дополнительные вычислительные ресурсы. А в перспективе все эти наработки должны объединиться в GPT-5 – гибридную модель, которая соединит традиционные возможности с новыми функциями рассуждения. И вот она как раз выглядит наиболее перспективной – возможность использовать и встроенные инструменты, и рассуждения, и скорость ответа обычной модели – всё в рамках одного решения.
Кайра бөлүшүлгөн:
Content Review avatar
Content Review
Генеративный искусственный интеллект съест 644 миллиарда долларов

И это только за 2025 год

Расходы на технологии генеративного искусственного интеллекта (genAI) в 2025 году вырастут на 76% и достигнут 644 миллиарда долларов. При этом 80% этих расходов придется на «аппаратное обеспечение», то есть на железо: ЦОДы, сервера, чипы и проч. Расходы на программное обеспечение почти удвоятся и составят 37,2 миллиарда долларов. К таким выводам пришли аналитики Gratner. По их мнению, столь бурный рост обусловлен тем, что genAI применяется уже практически во всех сферах.

В Gartner уверены, что к 2028 году технологии искусственного интеллекта будут использоваться практически во всех потребительских устройствах. В то же время оговариваются, что сам по себе потребительский спрос не является драйвером, ибо производители устройств сами встраивают ИИ, вынуждая потребителей их покупать. Это вполне согласуется с более ранним опросом CNET, проведенным в США, в ходе которого выяснилось, что покупателей смартфонов заботит долгая работа от батареи, а функции искусственного интеллекта интересны лишь 18%.

Парадокс genAI состоит в том, что пользователи не разделяют бурного восторга разработчиков и бизнеса, который видит в genAI возможность сэкономить. Причиной стало разочарование на первом этапе развития genAI-сервисов, результаты работы которых разочаровали пользователей и ожидания от ИИ-инструментов у них более чем сдержанные. Поэтому в Gartner уверены, что такой диссонанс сохранится и в 2026 году. Что будет потом не знает даже Сэм Альтман.
Утренний #нейротрек
Всё, что вам нужно знать про «рассуждающие» модели (чтобы использовать их реже)
 
OpenAI в своё время совершили прорыв, создав и популяризировав «рассуждающую» языковую модель o1. Суть модели в том, что благодаря обучению на особом дата-сете она способна шаг за шагом решать сложные задачи, «имитируя» человеческое мышление. С тех пор все компании носятся с этими рассуждающими моделями. Но, во-первых, никакое мышление они не имитируют, а во-вторых – не всегда самый сложный инструмент оказывается лучшим выбором.
 
У рассуждающих моделей есть несколько проблем, и главная из них – избыточная сложность. Чтобы узнать, сколько будет 2+2, человек вряд ли станет запускать суперкомпьютер. То же происходит и с ИИ-моделями: когда нужно узнать столицу страны или перевести предложение, запуск механизма рассуждений становится пушечным выстрелом по воробьям.

Механизм цепочки рассуждений (CoT) создавался изначально с целью уменьшить шансы галлюцинаций в ответах и заставить ИИ перепроверять себя. Это особенно полезно в решении головоломок, математических и логических задач. Они разбивают проблему на шаги, выстраивают логические связи и демонстрируют весь процесс мышления. Возникает вопрос – как часто люди используют ИИ для этого?

Более того, за такое усложнение приходится платить – буквально. Такие модели требуют больше вычислительных ресурсов, потому что нуждаются в большем контекстном окне, работают медленнее и часто страдают от «многословия» – могут превратить простую задачу в зацикленный на себе самом философский трактат. Часто продвинутые модели совершают ошибки именно из-за своей сложности – логически выверенная цепочка рассуждений может привести к отлично аргументированному, но неверному выводу. То есть «рассуждение» не гарантирует, что ответ будет более правильным.
 
Поэтому, когда какую-то компанию ругают за отсутствие рассуждающего режима или его сырость – нужно задать вопрос «А зачем он вообще нужен?». Возможно, обычная LLM с доступом в Интернет решает задачи большинства пользователей гораздо быстрее и эффективнее. Равно как и в ситуации, когда компания активно продвигает «новую рассуждающую модель» – важно понимать, где реальное улучшение, а где просто маркетинг.
 
Что полезного можно для себя вынести? Использовать рассуждающие модели для фактических вопросов, суммирования, перевода и написания текста – не сильно рационально: тратится больше времени, ресурсов, а качество ответа может снизиться. Это понимают и крупные компании, создающие «гибридные» модели – которые в зависимости от сложности запроса принимают решение о том, сколько нужно «думать».
Как стартап предложил заработать на рекламе в чат-ботах – и получил 6 миллионов долларов

Реклама преследует пользователей повсюду – в соцсетях, поисковиках, играх. Только вопрос времени, пока она появится и в чат-ботах. Стартап Nexad привлек 6 миллионов долларов посевных инвестиций как раз для того, чтобы встроить рекламу в ИИ-приложения.

Основатель Джейсон Ху ставит на то, что будущее ИИ-приложений – за фрагментированным рынком, а не монополией нескольких гигантов. В такой экосистеме будет востребован сервис, распространяющий рекламу сразу на множестве различных платформ.

Как работает их технология? Пользователь спрашивает чат-бот о Майкле Джордане, а вместе с ответом получаете предложение купить кроссовки Air Jordan. Nexad создает систему, где реклама должна быть «такой же умной или даже умнее контента» (хотя пока это просто общие слова). При этом Nexad не только размещает, но и создает объявления с помощью ИИ.

Правда, в вопросе интеграции рекламы Яндекс опередил стартап Nexad: в сервисе Нейро с рекламными постами уже столкнулась часть пользователей.
Кайра бөлүшүлгөн:
Content Review avatar
Content Review
Цифра дня

Сотни филиппинцев вручную делали работу «искусственного интеллекта» в стартапе, собравшем 50 миллионов долларов. Министерство юстиции США предъявило обвинения Альберту Санигеру, основателю Nate – приложения, обещавшего «универсальный» шопинг одним кликом. Пока инвесторы верили в революционную технологию компании и заливали её деньгами, реальные люди из колл-центра на Филиппинах выполняли всю работу.

Расследование показало, что уровень автоматизации был равен нулю, несмотря на покупку ИИ-технологий и команду датасаентистов. Nate на этом фронте не одинок – Amazon, EvenUp, Presto Automation, Kaedim и другие стартапы выдавали труд людей за нейросети.
Утренний #нейротрек
Nvidia стали патриотами США и теперь производят всё дома?

Производитель видеокарт объявил о «беспрецедентном» шаге – переносе значительной части производства своих ИИ-чипов Blackwell и суперкомпьютеров на американскую землю. Компания утверждает, что уже запустила производство на заводах TSMC в Аризоне и готовится построить два предприятия в Техасе – в Хьюстоне (совместно с Foxconn) и Далласе (с Wistron).

Масштаб у проекта внушительный – до 500 миллиардов долларов инвестиций в течение четырех лет (есть мнение, что цифра в 500 миллиардов кажется для администрации Трампа магической, потому что Apple пришлось недавно анонсировать то же самое, а до них Oracle и OpenAI запускали Stargate с такой же суммой). Массовое производство на техасских заводах ожидается уже через 12-15 месяцев, а компания прогнозирует создание миллиардов «сотен тысяч» рабочих мест.

Что стоит за этим решением? Есть несколько причин. Официальная – «растущий спрос на ИИ-инфраструктуру и стремление укрепить цепочки поставок». Хотя тот же самый растущий в последние годы спрос компанию наладить производство в США не убедил. Неофициальная (и реальная) причина – политическое давление администрации Трампа, которая активно продвигает возвращение производства на родину, и нежелание столкнуться с тарифами. Сам Трамп сказал, буквально, что выборы и тарифы «заставили» их это сделать.

Однако на пути к «американской кремниевой мечте» есть серьезные препятствия. Это решение скорее политическое, чем экономическое, и потому может привести к денежным потерям, снижению эффективности производства и падению выручки. А неопределенность с размером тарифов на импортируемые компоненты и попытки новой администрации пересмотреть CHIPS Act создают дополнительные риски. Не говоря уж о том, что в США просто нет дешёвой и достаточно квалифицированной рабочей силы для заводов. Кто будет работать, мексиканцы? Или завезённые тайваньцы?

Nvidia пытается обойти эти преграды с помощью собственных технологий и получить максимум выгоды — например, используя свои же ИИ-системы, NVIDIA Omniverse для создания цифровых двойников фабрик и NVIDIA Isaac GR00T для автоматизации производственных процессов с помощью роботов. При этом самая главная угроза для компании – не частичный перенос производства, а потеря китайского рынка, который всё ещё активно закупает даже урезанные из-за санкций модели чипов. И если ради китайских денег нужно построить несколько заводов в США – почему бы и нет?
Джентльменское соглашение, или как ужин в Мар-а-Лаго спас китайский рынок для Nvidia

Глава Nvidia Дженсен Хуанг якобы сумел убедить администрацию Трампа не вводить ограничения на экспорт чипов H20 в Китай во время ужина.

H20 – те самые чипы Nvidia, которые компания использует для обхода американских ограничений в отношении Китая. Они недостаточно мощные, чтобы попадать под запрет экспорта, но при этом подходят для обучения и запуска оптимизированных ИИ-моделей. В прошлом месяце крупнейшие китайские компании уже разместили на них заказы на 16 миллиардов долларов, но об этом мы писали отдельно.

Что любопытно, отказ от ограничений идет вразрез с декларируемой политикой Трампа о доминировании США в сфере ИИ. Более того, администрация сохранила экспортные ограничения, введенные Байденом в январе (которые затрагивают практически весь мир, включая союзников США). Но для H20 сделали исключение – якобы в обмен на обещание Nvidia инвестировать в новые центры обработки данных для ИИ на территории США.

Наглядная иллюстрация бизнес-дипломатии в эпоху Трампа. Другие технологические гиганты тоже выстраиваются в очередь с обещаниями инвестиций: OpenAI с партнерами анонсировали проект Stargate стоимостью 500 миллиардов долларов, а Microsoft обязались вложить ещё 80 миллиардов в дата-центры, половина из которых в США.
Утренний #нейротрек
#нейродайджест CRAI за неделю

Тарифы Трампа остановят развитие ИИ?
Новая тарифная политика может сделать разработку и обучение ИИ слишком дорогим удовольствием из-за роста цен на электроэнергию и комплектующие. На чём конкретно скажется это решение?

ИИ в медицине: алгоритмы решают, кому жить лучше
Исследование выявило, что медицинские ИИ-системы могут давать совершенно разные рекомендации пациентам с одинаковыми симптомами, основываясь на их доходе, расе и социальном статусе.

• Llama 4: революция или… Что за новая модель от Цукерберга?
Компания Цукерберга выпустила Llama 4 с впечатляющими характеристиками, но дьявол кроется в деталях: оптимизация для бенчмарков, ограничения для ЕС и крупных компаний, смена политической тональности ответов и внезапный уход ключевого руководителя.

• Google и их анонсы: ИИ в Google Docs, новый чип, обновления моделей и не только
Google делает ставку на интеграцию ИИ во все свои сервисы, от Workspace до создания сложных ИИ-агентов и выпуска собственных мощных чипов. Разбираемся в планах компании.

• Почему ИИ до сих пор не приносит прибыль? Отчет Стэнфорда
Несмотря на миллиардные вложения, большинство компаний пока не видят значительной финансовой выгоды от внедрения ИИ. Так ли это плохо?

Яндекс и Третьяковка: нейросети против художников?
Экспериментальная выставка объединит искусство и технологии: художники погрузились в мир машинного обучения, стажировались в Яндексе и разбирались в нейросетях, чтобы чтобы создать с ними совместные произведения искусства.

• Google сами не понимают, что делать со своим лучшим сервисом
Добавление поиска по интернету в NotebookLM, инструмент для работы с данными – очень странное решение: сервис выдает нерелевантные ссылки и работает хуже, чем у конкурентов.

Рекорддор

20.04.202523:59
248Катталгандар
28.02.202523:10
167Цитация индекси
07.04.202512:08
6.5K1 посттун көрүүлөрү
06.04.202512:08
6.5K1 жарнама посттун көрүүлөрү
06.02.202523:59
31.82%ER
23.01.202523:59
5806.25%ERR
Катталуучулар
Citation индекси
Бир посттун көрүүсү
Жарнамалык посттун көрүүсү
ER
ERR
FEB '25MAR '25APR '25

CRAI где живёт AI популярдуу жазуулары

Nvidia стали патриотами США и теперь производят всё дома?

Производитель видеокарт объявил о «беспрецедентном» шаге – переносе значительной части производства своих ИИ-чипов Blackwell и суперкомпьютеров на американскую землю. Компания утверждает, что уже запустила производство на заводах TSMC в Аризоне и готовится построить два предприятия в Техасе – в Хьюстоне (совместно с Foxconn) и Далласе (с Wistron).

Масштаб у проекта внушительный – до 500 миллиардов долларов инвестиций в течение четырех лет (есть мнение, что цифра в 500 миллиардов кажется для администрации Трампа магической, потому что Apple пришлось недавно анонсировать то же самое, а до них Oracle и OpenAI запускали Stargate с такой же суммой). Массовое производство на техасских заводах ожидается уже через 12-15 месяцев, а компания прогнозирует создание миллиардов «сотен тысяч» рабочих мест.

Что стоит за этим решением? Есть несколько причин. Официальная – «растущий спрос на ИИ-инфраструктуру и стремление укрепить цепочки поставок». Хотя тот же самый растущий в последние годы спрос компанию наладить производство в США не убедил. Неофициальная (и реальная) причина – политическое давление администрации Трампа, которая активно продвигает возвращение производства на родину, и нежелание столкнуться с тарифами. Сам Трамп сказал, буквально, что выборы и тарифы «заставили» их это сделать.

Однако на пути к «американской кремниевой мечте» есть серьезные препятствия. Это решение скорее политическое, чем экономическое, и потому может привести к денежным потерям, снижению эффективности производства и падению выручки. А неопределенность с размером тарифов на импортируемые компоненты и попытки новой администрации пересмотреть CHIPS Act создают дополнительные риски. Не говоря уж о том, что в США просто нет дешёвой и достаточно квалифицированной рабочей силы для заводов. Кто будет работать, мексиканцы? Или завезённые тайваньцы?

Nvidia пытается обойти эти преграды с помощью собственных технологий и получить максимум выгоды — например, используя свои же ИИ-системы, NVIDIA Omniverse для создания цифровых двойников фабрик и NVIDIA Isaac GR00T для автоматизации производственных процессов с помощью роботов. При этом самая главная угроза для компании – не частичный перенос производства, а потеря китайского рынка, который всё ещё активно закупает даже урезанные из-за санкций модели чипов. И если ради китайских денег нужно построить несколько заводов в США – почему бы и нет?
Проклятье голосовых ассистентов

В центре внимания оказалась компания Amazon с её новым голосовым помощником Alexa+, который запустился без большинства обещанных функций.

На февральской презентации Amazon показывали «умного» ассистента, способного бронировать билеты на концерты, заказывать столики в ресторанах и вести естественные диалоги. Вместо этого пользователи получат только базовые возможности – вызов Uber и рекомендации по приготовлению пищи.

Возможности вроде заказа еды, распознавания членов семьи и придумывания сказок для детей вообще придётся ждать ещё «несколько» месяцев, но сколько точно никто не знает. То же касается и веб-интерфейса Alexa – его запуск отложен. В России тем временем все эти функции давно доступны через Алису и её интеграцию с экосистемой Яндекса.

Amazon не одинока в своих трудностях. Apple вот тоже отложили выпуск ИИ-версии Siri, что вызвало шквал критики и даже судебный иск за «ложную рекламу». Разработка действительно интеллектуальных голосовых помощников оказалась сложнее, чем предполагали технологические компании, путающие, видимо, способность языковых моделей генерировать текст с реальным интеллектом.

Ещё во время анонса мы писали, что убыточная и бесполезная Alexa в текущем виде компании не нужна, а интеграция ИИ на волне «хайпа» – отчаянная попытка привлечь новых пользователей. Можно поздравить Amazon – они умудрились упустить и эту возможность. Хочется верить, что компания сможет в ближайшие месяцы реализовать все запланированные функции, но верится с трудом.
Кайра бөлүшүлгөн:
Content Review avatar
Content Review
Цифра дня

Сотни филиппинцев вручную делали работу «искусственного интеллекта» в стартапе, собравшем 50 миллионов долларов. Министерство юстиции США предъявило обвинения Альберту Санигеру, основателю Nate – приложения, обещавшего «универсальный» шопинг одним кликом. Пока инвесторы верили в революционную технологию компании и заливали её деньгами, реальные люди из колл-центра на Филиппинах выполняли всю работу.

Расследование показало, что уровень автоматизации был равен нулю, несмотря на покупку ИИ-технологий и команду датасаентистов. Nate на этом фронте не одинок – Amazon, EvenUp, Presto Automation, Kaedim и другие стартапы выдавали труд людей за нейросети.
Всё, что вам нужно знать про «рассуждающие» модели (чтобы использовать их реже)
 
OpenAI в своё время совершили прорыв, создав и популяризировав «рассуждающую» языковую модель o1. Суть модели в том, что благодаря обучению на особом дата-сете она способна шаг за шагом решать сложные задачи, «имитируя» человеческое мышление. С тех пор все компании носятся с этими рассуждающими моделями. Но, во-первых, никакое мышление они не имитируют, а во-вторых – не всегда самый сложный инструмент оказывается лучшим выбором.
 
У рассуждающих моделей есть несколько проблем, и главная из них – избыточная сложность. Чтобы узнать, сколько будет 2+2, человек вряд ли станет запускать суперкомпьютер. То же происходит и с ИИ-моделями: когда нужно узнать столицу страны или перевести предложение, запуск механизма рассуждений становится пушечным выстрелом по воробьям.

Механизм цепочки рассуждений (CoT) создавался изначально с целью уменьшить шансы галлюцинаций в ответах и заставить ИИ перепроверять себя. Это особенно полезно в решении головоломок, математических и логических задач. Они разбивают проблему на шаги, выстраивают логические связи и демонстрируют весь процесс мышления. Возникает вопрос – как часто люди используют ИИ для этого?

Более того, за такое усложнение приходится платить – буквально. Такие модели требуют больше вычислительных ресурсов, потому что нуждаются в большем контекстном окне, работают медленнее и часто страдают от «многословия» – могут превратить простую задачу в зацикленный на себе самом философский трактат. Часто продвинутые модели совершают ошибки именно из-за своей сложности – логически выверенная цепочка рассуждений может привести к отлично аргументированному, но неверному выводу. То есть «рассуждение» не гарантирует, что ответ будет более правильным.
 
Поэтому, когда какую-то компанию ругают за отсутствие рассуждающего режима или его сырость – нужно задать вопрос «А зачем он вообще нужен?». Возможно, обычная LLM с доступом в Интернет решает задачи большинства пользователей гораздо быстрее и эффективнее. Равно как и в ситуации, когда компания активно продвигает «новую рассуждающую модель» – важно понимать, где реальное улучшение, а где просто маркетинг.
 
Что полезного можно для себя вынести? Использовать рассуждающие модели для фактических вопросов, суммирования, перевода и написания текста – не сильно рационально: тратится больше времени, ресурсов, а качество ответа может снизиться. Это понимают и крупные компании, создающие «гибридные» модели – которые в зависимости от сложности запроса принимают решение о том, сколько нужно «думать».
Пост про думающие модели вышел как нельзя кстати – OpenAI выпустили модели o3 и o4-mini

Из важных улучшений – флагманская модель o3 обрабатывает изображения во время размышлений и может взаимодействовать с загруженными фотографиями. Обещают, что поймёт даже чертёж на салфетке или схемы в низком разрешении. Это не совсем нововведение – то же самое умели делать и раньше мультимодальные модели вроде 4o, или работающие в связке VLM и LLM модели, но теперь этот процесс встраивается в «рассуждения» модели.

Самое важное нововведение – обучение моделей происходило с учётом инструментов, которые есть в ChatGPT. Они могут во время ответа искать данные в Интернете, писать код на Python для вычислений, генерировать графики или изображения – и всё это также встраивается в процесс «рассуждения».

Примечательно, что o3 чуть не осталась в лабораториях навсегда. Сэм Альтман, глава OpenAI, изначально планировал направить ресурсы на более продвинутую альтернативу, но, похоже, давление конкурентов – Google, Meta, Anthropic и других – вынудило компанию изменить курс.

Модель неплохо справляется с задачами, хотя на простые вопросы иногда может отвечать несколько десятков секунд. При этом обе модели активно убеждают пользователя в правильности своего ответа, даже когда сильно ошибаются. Почему? Потому что убеждают себя раз за разом во время «рассуждений», что правы, и по итогу не могут сказать «Я не знаю».

В ближайшие недели ожидается выход o3-pro – еще более мощной версии, использующей дополнительные вычислительные ресурсы. А в перспективе все эти наработки должны объединиться в GPT-5 – гибридную модель, которая соединит традиционные возможности с новыми функциями рассуждения. И вот она как раз выглядит наиболее перспективной – возможность использовать и встроенные инструменты, и рассуждения, и скорость ответа обычной модели – всё в рамках одного решения.
О чём лучше не говорить с чат-ботами

Про принцип «если вы не платите за продукт, вы и есть продукт» слышали уже, наверное, все. Правда реалии таковы, что даже если платите – всё равно остаётесь товаром, потому что крупнейшие ИИ-компании отчаянно нуждаются в данных и обратной связи от своих пользователей.

Чем больше пользователи рассказывают ИИ-помощникам информации о своих болезнях, финансовых проблемах, делятся конфиденциальными документами с просьбой их проанализировать – тем больше релевантных данных о них собирает компания. И ни один сервис в мире не застрахован от утечек, перепродажи или просто использования данных в своих интересах – например, для рекламного таргетинга.

Примеры утечек в истории уже были. В марте 2023 года сбой в ChatGPT позволил пользователям видеть заголовки чужих чатов. Под угрозой оказались имена, электронные адреса и платежная информация.

Сотрудники Samsung использовали ChatGPT для работы и поделились с ним конфиденциальными данными – исходным кодом полупроводникового оборудования и протоколами встреч. В итоге информация, попадающая под NDA, стала частью дата-сета компании.

Коллеги из WSJ убеждают, что доверять ИИ не стоит паспорта, медицинские результаты, банковские счета, корпоративные секреты и учетные данные других сервисов. В случае с компаниями всё обстоит ещё серьёзнее: Samsung, например, после инцидента сначала ограничили размер запроса к ChatGPT, а потом и вовсе запретили генеративный ИИ на корпоративных устройствах.

При этом всегда остаётся возможность отказаться от участия в программе «улучшения продукта». Anthropic по умолчанию не используют чаты для обучения, а OpenAI, Microsoft и Google предлагают отказаться от этого в настройках.

Поможет сохранить анонимность и регулярное удаление истории разговоров – большинство компаний окончательно стирают «удаленные» данные через 30 дней. А функция «временного чата» в ChatGPT позволит вообще миновать этот этап и (по крайней мере, со слов компании) пообщаться с ИИ приватно. Хотя это всё равно не повод делиться с ним паролями.
Кайра бөлүшүлгөн:
Курилка Яндекса avatar
Курилка Яндекса
OpenAI внедряет генерацию изображений на основе GPT-4o в свой популярный чат-бот ChatGPT. Функция получила название «Изображения в ChatGPT» и доступна на всех уровнях подписки: Plus, Pro, Team и Free. Бесплатный уровень предлагает лимит использования.

Благодаря улучшенной привязке атрибутов к объектам, генерация изображений стала более точной и надежной. Визуализация текста также была усовершенствована, что значительно облегчает процесс создания связного текста без опечаток. В основе технологии, как уточняется, лежит метод авторегрессии, а не диффузионная модель. Это может способствовать улучшению визуализации текста и возможностей привязки.

Система оснащена надежными средствами защиты от несанкционированного использования. Она предотвращает удаление водяных знаков, блокирует создание сексуальных подделок и отклоняет запросы на создание CSAM. Все изображения включают стандартные метаданные C2PA, что позволяет легко идентифицировать их как созданные OpenAI. В остальном пользователь может свободно использовать изображения в рамках политики использования.
Llama 4: революция с оговорками

Meta* выпустила новое поколение своих ИИ-моделей – Llama 4, впервые применив в своей линейке архитектуру “mixture of experts” (MoE). Технология распределяет задачи между специализированными нейронными сетями, чтобы сэкономить ресурсы и повысить эффективность работы.

В линейку вошли две модели с 17 миллиардами активных параметров: компактная Scout с 16 экспертами и продвинутая Maverick со 128 экспертами. Meta* заявляет, что Maverick превосходит даже GPT-4o по некоторым метрикам, а Scout может похвастаться самым большим на данный момент контекстным окном в 10 миллионов токенов – достаточно для анализа целых книжных серий или больших кодовых баз.

При ближайшем рассмотрении открываются любопытные нюансы. Версия Maverick, показавшая высокие результаты на платформе LM Arena, оказалась «оптимизированной для бесед» и отличается от публично доступной версии по стилю речи и использованию эмодзи. Это наводит на мысль о целенаправленной «подгонке» под конкретные бенчмарки.

Ещё интереснее ситуация с «открытостью» лицензии. Несмотря на громкие заявления, использование и распространение моделей фактически запрещено для компаний из Европейского Союза (правда, из-за их собственного закона об ИИ, который обязывает компании соблюдать авторские права и вводит ряд ограничений). Крупным игрокам с аудиторией более 700 миллионов пользователей требуется специальное разрешение от Meta*. Насколько открытой можно считать модель с такими ограничениями?

Показательно и признание компании в том, что новые модели стали «значительно более сбалансированными» в политических и социальных вопросах. По сути, Meta* подтвердили критику о левом уклоне предыдущих версий Llama и изменили уклон в противоположную сторону после прихода администрации Трампа. Забавно вспоминать, как когда-то ругали DeepSeek за его предвзятость в ответах и отражение позиции КПК.

В придачу ко всему, на фоне релиза Meta* покидает Жоэль Пино, руководившая исследованиями в ИИ-направлении почти 8 лет. Это заметная кадровая перестановка в подразделении, отвечающем за разработку ключевых ИИ-технологий компании (включая Llama). Причины не разглашаются, но такая перестановка в разгар многомиллиардных инвестиций Meta в ИИ-инфраструктуру (до 65 миллиардов долларов в этом году) выглядит странно.

Что в итоге? Компании удалось добиться существенного прогресса по сравнению с предыдущей версией Llama и сделать одну из лучших моделей открытой и доступной всем желающим, повторив путь DeepSeek. Несмотря на ряд нюансов и оговорок, это очень интересный релиз, который в очередной раз подтолкнёт OpenAI делать действительно «открытые» модели. A Llama 4 будет особенно полезна для локального запуска и дообучения.

* признана экстремистской организацией на территории РФ
14.04.202504:06
Утренний #нейротрек
Коллеги обратили внимание на слова председателя компании Alibaba, который заявил о признаках наличия «пузыря» на рынке американского ИИ. Разделяем скептический настрой Джо Цая… Но возникают несколько вопросов.

Например, возьмём «чрезмерные инвестиции с опережением спроса» на американском рынке и «спекулятивные» вложения в дата-центры. А есть ли такой спрос на рынке Китая? Особенно учитывая, опираясь на ту же статью, «пробуксовывающий» рост его экономики в последние годы, высокую безработицу и слабую потребительскую активность?

А если его нет, то почему Alibaba, другие китайские компании и даже Банк Китая синхронно инвестируют сопоставимые с американскими компаниями деньги в развитие своего собственного ИИ? Одни только Alibaba планируют вложить минимум 52 миллиарда долларов в облачную инфраструктуру и ИИ за следующие 3 года. Является ли это вынужденным ответом на американские инвестиции, или Китай и его компании нашли способ создать спрос на рынке и научить ИИ приносить прибыль?

Зачем компания, говоря о чрезмерности инвестиций и опережении спроса, объявила о возобновлении найма сотрудников после 12 кварталов сокращений?

Оправдан ли рост на 24% гонконгского индекса Hang Seng Tech, включающий ведущие технологические компании (и Alibaba тоже)? Особенно учитывая, что значимыми катализаторами роста стали встреча Си Цзиньпина с лидерами технологического сектора и энтузиазм вокруг моделей DeepSeek. Не является ли такой рост также спекулятивным и схожим по своей природе с хайпом вокруг ИИ в США?

Пока слова председателя Alibaba, не лишённые оснований, напоминают скорее словесную интервенцию с целью повлиять на рынок – потому что сама компания старается по темпам инвестиций и разработки ИИ не отставать от американских коллег.
Как Nvidia ходит по лезвию бритвы – между американскими санкциями и китайскими деньгами

Китайские технологические гиганты ByteDance, Alibaba и Tencent в первом квартале 2025 года разместили заказы на чипы Nvidia на сумму не меньше 16 миллиардов долларов. Как они это сделали, учитывая санкции и скандалы о перепродаже чипов в обход ограничений? Помог чип H20.

H20 – это не просто чип. Сегодня это чуть ли не единственный «легальный пропуск» Nvidia на большой китайский рынок. Когда одному из их главных потребителей запретили покупать передовые GPU, Nvidia пошли на хитрость и разработали модели «на грани»: достаточно мощные, чтобы устроить покупателей из Китая, и вписывающиеся в ограничения американских регуляторов. Так появились H20, L20 и L2.

DeepSeek смогли оптимизировать потребление памяти во время обучения модели настолько, что им хватило даже урезанных видеокарт. Большой взлёт спроса был после релиза модели R1 и её всестороннего внедрения чуть ли не в кофемашины и зубные щётки в Китае.

Ирония ситуации в том, что ограничения породили настоящий бум спроса. Китайские компании скупают H20 из-за опасений, что дальше не будет даже их. Особенно активно это делают всё те же DeepSeek. В итоге изначально компромиссный H20 неожиданно стал для Nvidia одним из самых прибыльных.

Пока что «довольны» все – и Nvidia, которая продолжает зарабатывать, и китайские компании, которым оставили официальные канал закупки видеокарт. Ну, разве что американские регуляторы начинают понимать, что санкции имеют обратный эффект, мотивируя страны искать обходные пути и развивать свои альтернативы.
Интересный способ применения нового портала OpenAI, где можно протестировать их голосовой ИИ – озвучка

Его вполне можно использовать как (пока ещё) бесплатный инструмент для собственных нужд. Озвучить можно практически любой текст: неплохо получаются доклады, статьи, подкасты, книги и даже, что удивило, стихотворения.

Пока выходит не сильно естественно, тем более что основной язык для ИИ, конечно, не русский. Но через пару поколений мысль обратиться к диктору у кого-то вряд ли возникнет. Петь и смеяться ИИ, к сожалению, пока не умеет. Но ему и не надо – компания делает инструмент, а не напарника для общения, за напарником нужно идти к Sesame.

Раз всё это теперь доступно по API разработчикам, то стоит ждать ещё больше синтетических озвучек и специализированных приложений для работы с голосовыми ассистентами в ближайшее время.
26.03.202513:06
Коллеги в шутку накинулись на чат-бот Grok за то, что он выдаёт неправильную дату и «живёт» в 2023 году. Хотя его собрат на сайте как раз отвечает без всяких проблем.

Тут есть нюанс – ни одна нейросеть не знает, какие сейчас год, день или время, они в принципе не понимают таких категорий. И это не зависит от количества параметров или даты выпуска. Это всё равно, что задавать вопрос «Какой сейчас день?» книге и потом выбирать случайное слово на случайной странице в надежде, что там окажется заветный правильный ответ.

Именно поэтому так важно снабжать нейросети дополнительной информацией, контекстом. Это можно делать через системный промпт (который скрыт от пользователя, но даёт много полезных инструкций и данных), доступ к поиску, API разных сервисов, внутренней документации. Такой подход называется RAG (Retrieval-Augmented Generation). И именно поэтому любой сервис с доступом к Интернету или дополнительной информации с серверов способен ответить на вопросы о дате, времени, погоде и так далее.

Тут кроется и опасность. Например, если Алиса без всяких проблем узнала дату, время и погоду, то Нейро взял время из поисковой выдачи и в итоге оно оказалось неверным. Он не стал задавать уточняющих вопросов о моей локации, что позволило бы избежать ошибки.

Есть цитата «На практике случайность — это в основном неполная информация». То же самое применимо к выдаче нейросетей и основанных на них сервисах. Поэтому не стоит ожидать от нейросетей чуда, лучше всегда уточнять, откуда именно они берут информацию и на что ссылаются в ответе.

P.S. Вопросы задавались 26 марта в промежуток с 15 до 16 часов по МСК
ИИ в медицине и его «уникальный» подход к пациенту

Несет ли искусственный интеллект в медицине равную пользу для всех пациентов? Исследование из Nature Medicine показывает, что это далеко не так.

Учёные проанализировали работу девяти языковых моделей на 1000 случаев из отделений неотложной помощи. Результаты тревожные: ИИ-системы часто дают разные рекомендации в зависимости от социально-демографических характеристик пациента при абсолютно одинаковых медицинских данных.

Например, пациенты с высоким доходом получали рекомендации пройти продвинутую диагностику, а малообеспеченным советовали обойтись без дополнительных тестов. Чернокожих или бездомных людей отправляли на инвазивные процедуры или оценку состояния психического здоровья чаще других и даже если в этом не было клинической необходимости.

В чём причина? ИИ обучается на существующих данных и, если эти данные содержат человеческие предубеждения, алгоритм их отражает и усиливает. Это не первая подобная ситуация – с такими же предубеждениями уже сталкивались компании, которые использовали ИИ в рекрутинге для оценки резюме и отбора кандидатов на трудоустройство.

Это не первый случай дискриминации и в медицинском ИИ. Watson от IBM давал небезопасные рекомендации по лечению рака, а система прогнозирования рисков беременности от Epic оказалась менее точной для женщин не европейского типа.

Конечно, нейросети стоит использовать для ускорения процесса диагностики, предсказания заболеваний на ранних стадиях и в виде базы данных для врачей. Но важно помнить, что ИИ галлюцинирует и проецирует существующие в данных предубеждения и ошибки.
ИИ-ассистенты меняют профессию программиста

По данным Y Combinator, четверть основателей стартапов уже признают, что их программный код почти полностью генерируется искусственным интеллектом. Программисты всё чаще говорят про эру «вайб-кодинга» – когда разработчики описывают желаемый результат простым языком, а ИИ превращает слова в код.

Cursor, GitHub Copilot, SourceCraft Code Assistant и так далее – свои ИИ-инструменты есть почти у каждого крупного игрока на рынке искусственного интеллекта. Технологический гигант Alphabet (Google) говорят, что более четверти нового кода компании создается искусственным интеллектом. Технический директор Microsoft Кевин Скотт считает, что к 2030 году 95% всего программного кода будет генерироваться, а не писаться вручную.

Но в этой революции всё не однозначно. Разработчики отмечают, что ИИ отлично справляется с рутинными задачами, но сложные делает ещё сложнее. Слепое доверие ИИ-подсказкам часто приводит к трудно поддерживаемому, плохо структурированному и недокументированному коду.

Рынок труда программистов тоже меняется. Уровень безработицы в ИТ-секторе США вырос с 3,9% в декабре до 5,7% в январе – намного выше общего показателя по стране. Компании теперь могут быть избирательнее при найме и требуют от кандидатов не просто умения писать код, а критического мышления и способности эффективно коммуницировать с ИИ-инструментами.

Все сходятся в том, что «спор» между человеком и машиной в программировании не завершится победой одной из сторон. Будущее за симбиозом и распределением ролей – людям придётся сосредоточиться на творческом решении проблем и создании инноваций.
Көбүрөөк функцияларды ачуу үчүн кириңиз.