Мир сегодня с "Юрий Подоляка"
Мир сегодня с "Юрий Подоляка"
Труха⚡️Україна
Труха⚡️Україна
Николаевский Ванёк
Николаевский Ванёк
Мир сегодня с "Юрий Подоляка"
Мир сегодня с "Юрий Подоляка"
Труха⚡️Україна
Труха⚡️Україна
Николаевский Ванёк
Николаевский Ванёк
CRAI где живёт AI avatar

CRAI где живёт AI

Side-канал @contentreview с новостями из области искусственного интеллекта (AI)
TGlist rating
0
0
TypePublic
Verification
Not verified
Trust
Not trusted
Location
LanguageOther
Channel creation dateOct 26, 2024
Added to TGlist
Jan 06, 2025

Latest posts in group "CRAI где живёт AI"

#нейродайджест CRAI за неделю

• Perplexity хочет стать «ByteDance Америки»
Perplexity больше не просто «нейропоиск»: компания строит экосистему с ИИ-ассистентом, соцсетью Discover, интеграцией с магазинами и браузером Comet для сбора персональных данных. Зачем им это нужно?

• Новые ИИ-модели думают больше – и при этом больше ошибаются
Последнее поколение ИИ «галлюцинирует» вдвое чаще предшественников и проваливается в простых математических задачах. Что за термин «неровной границы» в ИИ и как с этим жить?

Sora от OpenAI уже почти соцсеть: мемы, общение пользователей и борьба с цензурой
Пользователи сервиса генерации видео Sora создали подобие соцсети: они обошли ограничение на публикацию текстовых постов с помощью… Текста на картинках.

Говорите ИИ «спасибо», вам зачтётся
Вежливые запросы не только приятны, но и повышают качество ответов языковых моделей.

Как алгоритмы решают, кто виновен (ещё до преступления)
Мы оказались в «Особом мнении» Спилберга – алгоритмы анализируют данные, чтобы предсказать преступления. Но так ли они безошибочны? Спойлер: нет, и это опасно.

Продуктивность на стероидах? Почему измерить пользу от ИИ так сложно
Компании внедряют ИИ, но обещанного скачка продуктивности не видно. Проблема в метриках: как оценить работу ИИ, если это не конвейер? Предлагаем свой вариант оценки.

Рекламу для Microsoft снял ИИ, сэкономив 90% бюджета
Microsoft призналась, что создала рекламный ролик Surface с помощью GenAI, сэкономив 90% времени и затрат. ИИ писал сценарий, генерировал картинки и видео.

ChatGPT против Google
Несмотря на 160 миллионов ежедневных пользователей ChatGPT, Google не сдаётся. Что победит – энергия стартапа или экосистема с миллиардной аудиторией?

• Adobe сделали аналог robots.txt для картинок
Adobe запустили сервис, позволяющий авторам запрещать использование их изображений для обучения нейросетей с помощью специальных метаданных.
У ChatGPT 160 миллионов ежедневных пользователей. Это угроза для империи Google?

Google в последнее время сталкивается с серьезными вызовами: антимонопольные иски, рост операционных расходов, потенциальное снижение рекламной выручки из-за изменений в таможенной политике США.

На другом фланге – OpenAI с впечатляющими показателями использования ChatGPT: около 160 миллионов ежедневных пользователей (против примерно 35 миллионов у Gemini). Более того, OpenAI пытаются выдавить Google с рынка и даже заинтересованы в покупке браузера Chrome. Неужели это конец Google?

Зависит от того, как смотреть на цифры. У Google есть козырь в рукаве – масштаб экосистемы. Когда речь заходит об интеграции ИИ в поиск с его 1,5 миллиардами ежедневных пользователей, миллиарды устройств Android и Chromebook, картина кардинально меняется. Предустановка Gemini на Android-устройства уже привела к четырехкратному росту пользовательской базы (хотя понятно, что это экстенсивный рост).

Более того, Google всё ещё имеют продвинутые ИИ-модели с бóльшим контекстным окном, чем у OpenAI, более низкой ценой и более высокой скоростью инференса. То есть с технической точки зрения у них больше преимуществ, чем у конкурента, а это облегчит масштабирование и обучение последующих моделей. И, в отличие от OpenAI, у них есть другие источники заработка помимо ИИ – поэтому, несмотря на экономические трудности и юридическое давление, Google инвестируют 75 миллиардов долларов в искусственный интеллект и расширение дата-центров.

Сегодня OpenAI лидирует по вовлеченности пользователей за счёт бренда (они просто начали развивать это направление раньше и многие никогда не пользовались другими чат-ботами) и очень узкой ориентированности на ИИ. Тогда как Google делает ставку на интеграцию нейросетей как инструмента в существующую экосистему, получая доступ к гораздо более широкой базе пользователей для продажи подписки и сбора персональных данных.
Microsoft выпустила в январе минутный рекламный ролик про устройства Surface. А спустя 3 месяца они признались, что сэкономили 90% времени и затрат за счёт использования в рекламе генеративного ИИ. Инструмент был использован, чтобы показать ноутбук в разных условиях работы (на природе, на стройке, в офисах и так далее), но без необходимости выездных съёмок.

Некоторые кадры сняты вживую (например, крупные планы с печатающими руками), а другие полностью сгенерированы искусственным интеллектом. Более того, команда использовала чат-ботов даже на этапе написания сценария.

Процесс работы выглядел так:
1. Чат-бот пишет сценарий и определяет, какие кадры понадобятся.
2. Дальше он генерирует промпты для создания нужных картинок.
3. Картинки генерируются в стороннем сервисе.
4. И потом эти изображения отправляются в видеогенераторы Hailuo и Kling, чтобы на их основе получить видео для рекламы.

Что удивляет – 3 месяца никто этого не замечал. Если знать, куда смотреть, то увидеть сгенерированные кадры не проблема – текст на бумаге явно не написан от руки, банка в кадре выглядит неестественно и другие мелочи выдают использование нейросетей. Но, оказалось, никто не вглядывается.

Почему это показательный случай? ИИ уже становится обычным инструментом для продакшена разных уровней, даже у больших компаний с деньгами. Сейчас ИИ уже работает на таком уровне, что при совмещении с живыми кадрами зрители не заметят разницы. На этот счёт директор по дизайну Microsoft сказал, что работа дизайнера превращается в обычное редактирование.
Утренний #нейротрек
Изучили интересный разговор с основателем 🧘Perplexity Аравиндом Шринивасом на канале TBPN. В ближайшем будущем Perplexity ждёт много изменений – сервис перестанет быть просто нейропоиском и амбициозно хочет стать “ByteDance of America”. О чём конкретно говорили в видео?

Вслед за релизом ассистента для Андроида компания выпустила его и на платформе Apple, превратив в прямого конкурента Siri (которая всё ещё скорее мертва, чем жива). Правда, учитывая ограничения iOS, многого пока реализовать не получилось – например, ставить будильники или регулировать громкость ассистент не умеет. И Аравинд не думает, что система станет более открытой в будущем. На Андроиде таких проблем нет – но есть другие.

Например, практика принудительной привязки OEM-производителей к сервисам Google. Perplexity хочет дать пользователям больше гибкости в выборе ассистента, поиска и других сервисов, без автоматической предустановки приложений экосистемы Google. Аравинд считает, что Gemini «ужасен как продукт», несмотря на качественную модель, и неправильно навязывать его пользователям по умолчанию.

Чтобы избавиться от ярлыка «нейропоиска», компания делает новые сервисы. Например, Discover – социальную платформу с алгоритмической выдачей контента (свой TikTok). А в сфере электронной коммерции компания предлагает возможность совершать покупки прямо через нейропоиск благодаря интеграции с Shopify.

Самая противоречивая часть видео – рассказ про ИИ-браузер Comet, запуск которого ожидается в мае. Аравинд говорит, что люди часто пользуются Perplexity для работы – и поэтому собираемые сервисом данные не слишком персональные и не всегда отражают предпочтения пользователей. Браузер как раз станет источником персональных данных для таргетинга премиум-рекламы – компания хочет знать, что пользователи покупают, где едят, какие видео смотрят и так далее. То есть браузер делается не просто как дорогая игрушка, а с целью заработать.

Что в итоге? Perplexity пытаются строить свою экосистему – с браузером, поиском, соцсетью, рекламным инвентарём и прямыми покупками товаров. Всё это на основе ИИ и рекомендательных алгоритмов. Очень амбициозный план – если не сказать больше.
⏫Adobe сделали сервис, который позволяет запретить использовать изображения для обучения нейросетей – что-то вроде robots.txt у сайтов.

Content Authenticity App позволяет авторам добавлять к изображениям метаданные, подтверждающие подлинность файла и указывающие на владельца. Отдельной галочкой можно запретить или разрешить использовать картинки для обучения ИИ-моделей. Метаданные встраиваются в различные пиксели изображения и сохраняются даже если его конвертировать, обрезать или каким-то иным образом обработать, а в будущем то же самое будет работать с видео и аудио.

Интересный ход Adobe, которые часто хвалятся тем, что обучают свои модели исключительно на лицензированных файлах со стоков (с их слов даже доплачивая собственникам) и не используют данные пользователей. Правда, на те файлы, которые уже есть в Интернете, маркировку добавить не получится. Да и не всем пользователям захочется перед публикацией делать лишний шаг и заходить на сайт сервиса.

Ключевой вопрос тут – будут ли разработчики ИИ-моделей соблюдать эти ограничения? Adobe ведут переговоры с несколькими крупными компаниями, но пока никаких соглашений не заключено. А чтобы действительно защитить контент, такой формат маркировки придётся делать стандартом, и потом законодательно запрещать использовать маркированные файлы при обучении ИИ-моделей, что вряд ли случится. Пока же это приложение выглядит скорее как пиар-история для Adobe.
Утренний #нейротрек
В тексте про рассуждающие модели, который случайно вышел прямо перед релизом нового поколения нейросетей от OpenAI, мы писали о минусах таких моделей. И вот, спустя какое-то время, появилось подтверждение – новое поколение бьёт рекорды в одних задачах, но сильно хуже справляется с другими.

По-прежнему не изменился тот факт, что новые функции работают впечатляюще – доступ к инструментам ChatGPT сделал работу с o3 гораздо более простой и интуитивной (подробнее можно почитать в тексте про них). Релиз приближает нас к тому дню, когда не нужно будет разбираться в стилях, промптах, настройках сервиса, версиях моделей, а достаточно просто будет описывать несколькими словами задачу и получать результат. Но пока этот момент, к сожалению, не наступил.

Свой рекорд с по привлечению пользователей картинками в стиле Гибли компания не побила, но даже здесь смогла завируситься – благодаря навыку ИИ определять место съемки практически любой цифровой фотографии (работает это за счёт того, что модель понимает фотографии, умеет их приближать, вращать, изучать, писать скрипты на Питоне и проводить поиск в Интернете, что в совокупности позволяет определить локацию).

Всё бы ничего, но пока любое усложнение модели ведёт к дополнительным проблемам. Новое поколение думающих моделей, благодаря тому, что думают больше – парадоксально и больше ошибаются. Они не справляются с величиной контекста, в случае ошибки не пытаются её исправить, а придумывают аргументы и убеждают себя в правильности ответа. o3 делает ошибки в математике, иногда обманывает и «галлюцинирует» в два раза чаще своего предшественника. Даже в финансовом анализе, где o3 лидирует среди конкурентов, точность составляет всего 48,3%.

Появился термин «неровной границы» (jagged frontier) – когда в одних задачах ИИ превосходит человека по скорости и качеству работы в десятки раз, а в других на него в принципе нельзя положиться. А вывод, как в случае с измерением продуктивности – не нужно пытаться использовать ИИ там, где от него нет толку, и проблем не будет.
Утренний #нейротрек
Почему так сложно измерить влияние ИИ на продуктивность

Вспомним конвейер Форда – классический пример линейного процесса массового производства, где автоматизация равна росту производительности. А теперь подумаем о мастере, создающем скрипки на заказ – конвейер ему не сильно поможет. Это сравнение как раз показывает главную проблему внедрения искусственного интеллекта в производственный процесс.

Если верить исследованиям, 20-40% работников в США и около 13,5% компаний в ЕС уже применяют ИИ. А где обещанный экономический эффект? Почему ИИ, который должен повышать эффективность и снижать траты компаний, требует со временем от них больше инвестиций? Особенно в сфере услуг – консалтинге, юриспруденции, медиа и так далее.

Всё дело в метриках. Точнее, в их отсутствии – сложно измерить влияние ИИ на производительность. В случае с конвейером считаем штуки за единицу времени, чем больше произвели, тем лучше. Но можно ли так оценивать тексты? Или изображения? Или количество документов, на основе которых ИИ сделал выжимку?

Если посмотреть шире, то все инновации дают людям возможность экономить время. И в последнее время чаще звучат разговоры, что именно экономия времени может стать главным фактором для оценки повышения или понижения продуктивности после внедрения ИИ.

Здесь стоит задать вопрос – для чего в компании внедряется ИИ: сэкономить деньги или рассказать об этом на конференции. Если первое, то нужно искать линейные процессы и стараться их оптимизировать – например, транскрибацию текста, генерацию и улучшение картинок, суммаризацию документов, брейнсторминг, создание аудио и так далее. В данном случае ИИ-сервисы действительно могут заменить многочасовую работу, для которой пришлось бы держать работников в штате (или привлекать со стороны).

Если цель похвастаться на конференции созданием ИИ, который умеет сам и с клиентами общаться, и тексты в соцсети писать, и делать другие задачи, требующие индивидуального подхода (а в свободное время ещё музыку сочиняет) – лучше просто объявить о внедрении ИИ и забыть о нём поскорее. Потому что затраченное на задачи время он только удлинит. Возможно, стоит просто попросить сотрудников меньше общаться возле кулера, и продуктивность вырастет сама.

Сегодня все говорят об агентах, виртуальных сотрудниках, автоматизации вертикальных процессов, где ИИ пока интегрировать довольно бесполезно, а отдачу измерить – сложно. Хотя если говорить о более простых инструментах, которые сокращают время выполнения линейных процессов, то картина меняется.
#нейродайджест CRAI за неделю

• Аниме против Google: картинки в стиле Ghibli помогли ChatGPT захватить рынок ИИ?
Как функция генерации аниме-изображений привела к взрывному росту популярности ChatGPT, который в разы обогнал Gemini по трафику, и что теперь делать Google?

• «Рассуждающий» ИИ – переоцененная технология?
Разбираемся с проблемами и ограничениями «рассуждающих» языковых моделей, которые имитируют человеческое мышление. Когда их стоит использовать?

• Новый релиз OpenAI
Модели o3 и o4-mini способны «думать» изображениями и использовать в этот момент инструменты ChatGPT. Что это значит?

• Nvidia между санкциями США и китайскими деньгами
Как связаны запрет на экспорт видеокарт в Китай, визит главы Nvidia в Пекин и аресты в Сингапуре?

• Неожиданно «умный» стартап: ручной труд филиппинцев вместо ИИ
Стартап Nate привлек 50 миллионов долларов, обещая революционный ИИ-шопинг, а на деле использовал труд сотен людей на Филиппинах.

• 644 миллиарда долларов на ветер?
По прогнозу Gartner, расходы на генеративный ИИ в 2025 году вырастут колоссально. Парадокс: пользователи пока не разделяют энтузиазма разработчиков по поводу GenAI. Куда пойдут деньги и есть ли смысл в таких инвестициях?

• США хотят запретить открытый ИИ?
В Соединённых штатах идёт дискуссия о возможном запрете или регулировании открытого искусственного интеллекта. Чем им не угодили open source модели?

• Реклама в чат-ботах – новая реальность?
Стартап Nexad планирует внедрить рекламу в чат-боты. Как она может выглядеть и почему инвесторы готовы в это вкладываться?

• Переговоры в Мар-а-Лаго: как Nvidia пытались спасти свой китайский экспорт от Трампа
Глава Nvidia, по слухам, пытался на секретном ужине убедить администрацию Трампа сделать исключение и не блокировать поставки ключевых ИИ-чипов в Китай. Спойлер – не получилось.

• В Nvidia заявили, что переносят производство в США
500 миллиардов инвестиций и начало производства в Америке – зачем это компании?
Nvidia и их борьба

Главный герой триллера, который разворачивается на рынке чипов для ИИ после введения администрацией Трампа тарифов компания Nvidia, оказавшаяся между молотом американских санкций и наковальней китайского рынка.

Несмотря на якобы состоявшиеся секретные переговоры и объявленные планы о полутрилионных инвестициях в США – новая администрация внезапно запретила поставки в Китай чипов H20, созданных специально с учетом предыдущих ограничений. Результат для компании – прогнозируемые убытки в 5,5 миллиардов долларов и падение акций.

Что делает CEO Nvidia Дженсен Хуанг? То, что сделал бы любой прагматичный бизнесмен – летит в Пекин. Сразу после сокрушительного удара по бизнесу он встречается с вице-премьером Китая и руководством DeepSeek – той самой компании, из-за которой, возможно, и усилили санкции. Ведь есть подозрение, что DeepSeek тренировали свои языковые модели на чипах, которые, по идее, не должны были оказаться в Китае.

Конгресс США в это время бьет тревогу. Как запрещенные H800 попали в китайские руки? Не через Сингапур ли, где недавно арестовали несколько человек за подделку документов о конечных пользователях чипов Nvidia? Законодатели требуют от Хуанга объяснений и отчетов о всех поставках в Юго-Восточную Азию и Китай с 2020 года.

Nvidia оказалась в ловушке: с одной стороны, национальные интересы США и обязательство «следовать указаниям правительства буквально», с другой – огромный китайский рынок, который Хуанг публично называет «очень важным» для компании.

Парадокс ситуации в том, что жесткая политика США может дать обратный эффект. Вместо ослабления конкурента она толкает компании и страны к еще большему сближению с Китаем. Визит Хуанга в Пекин – яркое тому подтверждение. Бизнес идет туда, где есть возможности, а они сейчас всё чаще оказываются за пределами американской сферы влияния.
В США хотят запретить открытый ИИ?

В 2024 году китайские военные исследователи, связанные с НОАК, на основе открытой модели LLaMA сделали инструмент ChatBIT для военных. Америке это не понравилось.

В Соединённых штатах есть множество небольших стартапов, которые строят экосистему открытых моделей. EleutherAI с моделями GPT-Neo и GPT-J (иронично называемые «открытой» версией OpenAI), Together AI с инфраструктурой для LLaMA и Mixtral, Hugging Face с библиотекой Transformers (которые превратились в настоящее сердце сообщества открытого ИИ), и так далее. Они вносят огромный вклад в развитие сообщества, и раньше считалось, что открытый код – это благо.

Правда, когда те самые открытые модели из США стали попадать в руки геополитических противников, сделавших на их основе свои решения – администрация такого развития событий не оценила. С приходом Трампа в стране возобновились дискуссии о рисках и минусах открытого ИИ.

С плюсами никто не спорит – открытые модели позволяют исследователям изучать их работу, выявлять уязвимости и решать этические проблемы, легко доступны для стартапов и бизнеса, предотвращают монополизацию рынка и способствуют развитию технологий. Но, как бывает в таких случаях, риски в глазах регуляторов могут перевесить плюсы.

О каких рисках идёт речь?
• Неконтролируемое распространение – в отличие от закрытых систем, открытые модели невозможно «отозвать» после публикации и любые найденные уязвимости остаются в них навсегда.
• Дипфейки и дезинформация – свободный доступ к технологиям создания дипфейков позволяет манипулировать общественным мнением.
• Бэкдоры – в открытых моделях из других стран (в частности, Китая) могут быть встроены скрытые уязвимости. Этот пункт стал актуальным на фоне мирового взлёта DeepSeek.
• Кибератаки и автономное оружие – открытые инструменты ИИ могут быть использованы для кибератак, создания систем вооружения и других действий, подрывающих национальную безопасность. Этот момент беспокоит власти США больше всего.

К счастью, о полном запрете открытого ИИ пока речи не идёт – да и вряд ли это возможно. В США рассматриваются разные опции. Золотой серединой считают регулирование, которое сохраняет преимущества открытости, но минимизирует риски – например, через ограничения на самые мощные модели или специфические области применения, представляющие явную угрозу безопасности.
Утренний #нейротрек
Пост про думающие модели вышел как нельзя кстати – OpenAI выпустили модели o3 и o4-mini

Из важных улучшений – флагманская модель o3 обрабатывает изображения во время размышлений и может взаимодействовать с загруженными фотографиями. Обещают, что поймёт даже чертёж на салфетке или схемы в низком разрешении. Это не совсем нововведение – то же самое умели делать и раньше мультимодальные модели вроде 4o, или работающие в связке VLM и LLM модели, но теперь этот процесс встраивается в «рассуждения» модели.

Самое важное нововведение – обучение моделей происходило с учётом инструментов, которые есть в ChatGPT. Они могут во время ответа искать данные в Интернете, писать код на Python для вычислений, генерировать графики или изображения – и всё это также встраивается в процесс «рассуждения».

Примечательно, что o3 чуть не осталась в лабораториях навсегда. Сэм Альтман, глава OpenAI, изначально планировал направить ресурсы на более продвинутую альтернативу, но, похоже, давление конкурентов – Google, Meta, Anthropic и других – вынудило компанию изменить курс.

Модель неплохо справляется с задачами, хотя на простые вопросы иногда может отвечать несколько десятков секунд. При этом обе модели активно убеждают пользователя в правильности своего ответа, даже когда сильно ошибаются. Почему? Потому что убеждают себя раз за разом во время «рассуждений», что правы, и по итогу не могут сказать «Я не знаю».

В ближайшие недели ожидается выход o3-pro – еще более мощной версии, использующей дополнительные вычислительные ресурсы. А в перспективе все эти наработки должны объединиться в GPT-5 – гибридную модель, которая соединит традиционные возможности с новыми функциями рассуждения. И вот она как раз выглядит наиболее перспективной – возможность использовать и встроенные инструменты, и рассуждения, и скорость ответа обычной модели – всё в рамках одного решения.

Records

26.04.202523:59
256Subscribers
28.02.202523:10
167Citation index
07.04.202512:08
6.5KAverage views per post
06.04.202512:08
6.5KAverage views per ad post
06.02.202516:55
31.82%ER
23.01.202523:59
5806.25%ERR
Subscribers
Citation index
Avg views per post
Avg views per ad post
ER
ERR
FEB '25MAR '25APR '25

Popular posts CRAI где живёт AI

Nvidia стали патриотами США и теперь производят всё дома?

Производитель видеокарт объявил о «беспрецедентном» шаге – переносе значительной части производства своих ИИ-чипов Blackwell и суперкомпьютеров на американскую землю. Компания утверждает, что уже запустила производство на заводах TSMC в Аризоне и готовится построить два предприятия в Техасе – в Хьюстоне (совместно с Foxconn) и Далласе (с Wistron).

Масштаб у проекта внушительный – до 500 миллиардов долларов инвестиций в течение четырех лет (есть мнение, что цифра в 500 миллиардов кажется для администрации Трампа магической, потому что Apple пришлось недавно анонсировать то же самое, а до них Oracle и OpenAI запускали Stargate с такой же суммой). Массовое производство на техасских заводах ожидается уже через 12-15 месяцев, а компания прогнозирует создание миллиардов «сотен тысяч» рабочих мест.

Что стоит за этим решением? Есть несколько причин. Официальная – «растущий спрос на ИИ-инфраструктуру и стремление укрепить цепочки поставок». Хотя тот же самый растущий в последние годы спрос компанию наладить производство в США не убедил. Неофициальная (и реальная) причина – политическое давление администрации Трампа, которая активно продвигает возвращение производства на родину, и нежелание столкнуться с тарифами. Сам Трамп сказал, буквально, что выборы и тарифы «заставили» их это сделать.

Однако на пути к «американской кремниевой мечте» есть серьезные препятствия. Это решение скорее политическое, чем экономическое, и потому может привести к денежным потерям, снижению эффективности производства и падению выручки. А неопределенность с размером тарифов на импортируемые компоненты и попытки новой администрации пересмотреть CHIPS Act создают дополнительные риски. Не говоря уж о том, что в США просто нет дешёвой и достаточно квалифицированной рабочей силы для заводов. Кто будет работать, мексиканцы? Или завезённые тайваньцы?

Nvidia пытается обойти эти преграды с помощью собственных технологий и получить максимум выгоды — например, используя свои же ИИ-системы, NVIDIA Omniverse для создания цифровых двойников фабрик и NVIDIA Isaac GR00T для автоматизации производственных процессов с помощью роботов. При этом самая главная угроза для компании – не частичный перенос производства, а потеря китайского рынка, который всё ещё активно закупает даже урезанные из-за санкций модели чипов. И если ради китайских денег нужно построить несколько заводов в США – почему бы и нет?
Проклятье голосовых ассистентов

В центре внимания оказалась компания Amazon с её новым голосовым помощником Alexa+, который запустился без большинства обещанных функций.

На февральской презентации Amazon показывали «умного» ассистента, способного бронировать билеты на концерты, заказывать столики в ресторанах и вести естественные диалоги. Вместо этого пользователи получат только базовые возможности – вызов Uber и рекомендации по приготовлению пищи.

Возможности вроде заказа еды, распознавания членов семьи и придумывания сказок для детей вообще придётся ждать ещё «несколько» месяцев, но сколько точно никто не знает. То же касается и веб-интерфейса Alexa – его запуск отложен. В России тем временем все эти функции давно доступны через Алису и её интеграцию с экосистемой Яндекса.

Amazon не одинока в своих трудностях. Apple вот тоже отложили выпуск ИИ-версии Siri, что вызвало шквал критики и даже судебный иск за «ложную рекламу». Разработка действительно интеллектуальных голосовых помощников оказалась сложнее, чем предполагали технологические компании, путающие, видимо, способность языковых моделей генерировать текст с реальным интеллектом.

Ещё во время анонса мы писали, что убыточная и бесполезная Alexa в текущем виде компании не нужна, а интеграция ИИ на волне «хайпа» – отчаянная попытка привлечь новых пользователей. Можно поздравить Amazon – они умудрились упустить и эту возможность. Хочется верить, что компания сможет в ближайшие месяцы реализовать все запланированные функции, но верится с трудом.
Reposted from:
Content Review avatar
Content Review
Цифра дня

Сотни филиппинцев вручную делали работу «искусственного интеллекта» в стартапе, собравшем 50 миллионов долларов. Министерство юстиции США предъявило обвинения Альберту Санигеру, основателю Nate – приложения, обещавшего «универсальный» шопинг одним кликом. Пока инвесторы верили в революционную технологию компании и заливали её деньгами, реальные люди из колл-центра на Филиппинах выполняли всю работу.

Расследование показало, что уровень автоматизации был равен нулю, несмотря на покупку ИИ-технологий и команду датасаентистов. Nate на этом фронте не одинок – Amazon, EvenUp, Presto Automation, Kaedim и другие стартапы выдавали труд людей за нейросети.
Всё, что вам нужно знать про «рассуждающие» модели (чтобы использовать их реже)
 
OpenAI в своё время совершили прорыв, создав и популяризировав «рассуждающую» языковую модель o1. Суть модели в том, что благодаря обучению на особом дата-сете она способна шаг за шагом решать сложные задачи, «имитируя» человеческое мышление. С тех пор все компании носятся с этими рассуждающими моделями. Но, во-первых, никакое мышление они не имитируют, а во-вторых – не всегда самый сложный инструмент оказывается лучшим выбором.
 
У рассуждающих моделей есть несколько проблем, и главная из них – избыточная сложность. Чтобы узнать, сколько будет 2+2, человек вряд ли станет запускать суперкомпьютер. То же происходит и с ИИ-моделями: когда нужно узнать столицу страны или перевести предложение, запуск механизма рассуждений становится пушечным выстрелом по воробьям.

Механизм цепочки рассуждений (CoT) создавался изначально с целью уменьшить шансы галлюцинаций в ответах и заставить ИИ перепроверять себя. Это особенно полезно в решении головоломок, математических и логических задач. Они разбивают проблему на шаги, выстраивают логические связи и демонстрируют весь процесс мышления. Возникает вопрос – как часто люди используют ИИ для этого?

Более того, за такое усложнение приходится платить – буквально. Такие модели требуют больше вычислительных ресурсов, потому что нуждаются в большем контекстном окне, работают медленнее и часто страдают от «многословия» – могут превратить простую задачу в зацикленный на себе самом философский трактат. Часто продвинутые модели совершают ошибки именно из-за своей сложности – логически выверенная цепочка рассуждений может привести к отлично аргументированному, но неверному выводу. То есть «рассуждение» не гарантирует, что ответ будет более правильным.
 
Поэтому, когда какую-то компанию ругают за отсутствие рассуждающего режима или его сырость – нужно задать вопрос «А зачем он вообще нужен?». Возможно, обычная LLM с доступом в Интернет решает задачи большинства пользователей гораздо быстрее и эффективнее. Равно как и в ситуации, когда компания активно продвигает «новую рассуждающую модель» – важно понимать, где реальное улучшение, а где просто маркетинг.
 
Что полезного можно для себя вынести? Использовать рассуждающие модели для фактических вопросов, суммирования, перевода и написания текста – не сильно рационально: тратится больше времени, ресурсов, а качество ответа может снизиться. Это понимают и крупные компании, создающие «гибридные» модели – которые в зависимости от сложности запроса принимают решение о том, сколько нужно «думать».
Пост про думающие модели вышел как нельзя кстати – OpenAI выпустили модели o3 и o4-mini

Из важных улучшений – флагманская модель o3 обрабатывает изображения во время размышлений и может взаимодействовать с загруженными фотографиями. Обещают, что поймёт даже чертёж на салфетке или схемы в низком разрешении. Это не совсем нововведение – то же самое умели делать и раньше мультимодальные модели вроде 4o, или работающие в связке VLM и LLM модели, но теперь этот процесс встраивается в «рассуждения» модели.

Самое важное нововведение – обучение моделей происходило с учётом инструментов, которые есть в ChatGPT. Они могут во время ответа искать данные в Интернете, писать код на Python для вычислений, генерировать графики или изображения – и всё это также встраивается в процесс «рассуждения».

Примечательно, что o3 чуть не осталась в лабораториях навсегда. Сэм Альтман, глава OpenAI, изначально планировал направить ресурсы на более продвинутую альтернативу, но, похоже, давление конкурентов – Google, Meta, Anthropic и других – вынудило компанию изменить курс.

Модель неплохо справляется с задачами, хотя на простые вопросы иногда может отвечать несколько десятков секунд. При этом обе модели активно убеждают пользователя в правильности своего ответа, даже когда сильно ошибаются. Почему? Потому что убеждают себя раз за разом во время «рассуждений», что правы, и по итогу не могут сказать «Я не знаю».

В ближайшие недели ожидается выход o3-pro – еще более мощной версии, использующей дополнительные вычислительные ресурсы. А в перспективе все эти наработки должны объединиться в GPT-5 – гибридную модель, которая соединит традиционные возможности с новыми функциями рассуждения. И вот она как раз выглядит наиболее перспективной – возможность использовать и встроенные инструменты, и рассуждения, и скорость ответа обычной модели – всё в рамках одного решения.
О чём лучше не говорить с чат-ботами

Про принцип «если вы не платите за продукт, вы и есть продукт» слышали уже, наверное, все. Правда реалии таковы, что даже если платите – всё равно остаётесь товаром, потому что крупнейшие ИИ-компании отчаянно нуждаются в данных и обратной связи от своих пользователей.

Чем больше пользователи рассказывают ИИ-помощникам информации о своих болезнях, финансовых проблемах, делятся конфиденциальными документами с просьбой их проанализировать – тем больше релевантных данных о них собирает компания. И ни один сервис в мире не застрахован от утечек, перепродажи или просто использования данных в своих интересах – например, для рекламного таргетинга.

Примеры утечек в истории уже были. В марте 2023 года сбой в ChatGPT позволил пользователям видеть заголовки чужих чатов. Под угрозой оказались имена, электронные адреса и платежная информация.

Сотрудники Samsung использовали ChatGPT для работы и поделились с ним конфиденциальными данными – исходным кодом полупроводникового оборудования и протоколами встреч. В итоге информация, попадающая под NDA, стала частью дата-сета компании.

Коллеги из WSJ убеждают, что доверять ИИ не стоит паспорта, медицинские результаты, банковские счета, корпоративные секреты и учетные данные других сервисов. В случае с компаниями всё обстоит ещё серьёзнее: Samsung, например, после инцидента сначала ограничили размер запроса к ChatGPT, а потом и вовсе запретили генеративный ИИ на корпоративных устройствах.

При этом всегда остаётся возможность отказаться от участия в программе «улучшения продукта». Anthropic по умолчанию не используют чаты для обучения, а OpenAI, Microsoft и Google предлагают отказаться от этого в настройках.

Поможет сохранить анонимность и регулярное удаление истории разговоров – большинство компаний окончательно стирают «удаленные» данные через 30 дней. А функция «временного чата» в ChatGPT позволит вообще миновать этот этап и (по крайней мере, со слов компании) пообщаться с ИИ приватно. Хотя это всё равно не повод делиться с ним паролями.
OpenAI внедряет генерацию изображений на основе GPT-4o в свой популярный чат-бот ChatGPT. Функция получила название «Изображения в ChatGPT» и доступна на всех уровнях подписки: Plus, Pro, Team и Free. Бесплатный уровень предлагает лимит использования.

Благодаря улучшенной привязке атрибутов к объектам, генерация изображений стала более точной и надежной. Визуализация текста также была усовершенствована, что значительно облегчает процесс создания связного текста без опечаток. В основе технологии, как уточняется, лежит метод авторегрессии, а не диффузионная модель. Это может способствовать улучшению визуализации текста и возможностей привязки.

Система оснащена надежными средствами защиты от несанкционированного использования. Она предотвращает удаление водяных знаков, блокирует создание сексуальных подделок и отклоняет запросы на создание CSAM. Все изображения включают стандартные метаданные C2PA, что позволяет легко идентифицировать их как созданные OpenAI. В остальном пользователь может свободно использовать изображения в рамках политики использования.
Llama 4: революция с оговорками

Meta* выпустила новое поколение своих ИИ-моделей – Llama 4, впервые применив в своей линейке архитектуру “mixture of experts” (MoE). Технология распределяет задачи между специализированными нейронными сетями, чтобы сэкономить ресурсы и повысить эффективность работы.

В линейку вошли две модели с 17 миллиардами активных параметров: компактная Scout с 16 экспертами и продвинутая Maverick со 128 экспертами. Meta* заявляет, что Maverick превосходит даже GPT-4o по некоторым метрикам, а Scout может похвастаться самым большим на данный момент контекстным окном в 10 миллионов токенов – достаточно для анализа целых книжных серий или больших кодовых баз.

При ближайшем рассмотрении открываются любопытные нюансы. Версия Maverick, показавшая высокие результаты на платформе LM Arena, оказалась «оптимизированной для бесед» и отличается от публично доступной версии по стилю речи и использованию эмодзи. Это наводит на мысль о целенаправленной «подгонке» под конкретные бенчмарки.

Ещё интереснее ситуация с «открытостью» лицензии. Несмотря на громкие заявления, использование и распространение моделей фактически запрещено для компаний из Европейского Союза (правда, из-за их собственного закона об ИИ, который обязывает компании соблюдать авторские права и вводит ряд ограничений). Крупным игрокам с аудиторией более 700 миллионов пользователей требуется специальное разрешение от Meta*. Насколько открытой можно считать модель с такими ограничениями?

Показательно и признание компании в том, что новые модели стали «значительно более сбалансированными» в политических и социальных вопросах. По сути, Meta* подтвердили критику о левом уклоне предыдущих версий Llama и изменили уклон в противоположную сторону после прихода администрации Трампа. Забавно вспоминать, как когда-то ругали DeepSeek за его предвзятость в ответах и отражение позиции КПК.

В придачу ко всему, на фоне релиза Meta* покидает Жоэль Пино, руководившая исследованиями в ИИ-направлении почти 8 лет. Это заметная кадровая перестановка в подразделении, отвечающем за разработку ключевых ИИ-технологий компании (включая Llama). Причины не разглашаются, но такая перестановка в разгар многомиллиардных инвестиций Meta в ИИ-инфраструктуру (до 65 миллиардов долларов в этом году) выглядит странно.

Что в итоге? Компании удалось добиться существенного прогресса по сравнению с предыдущей версией Llama и сделать одну из лучших моделей открытой и доступной всем желающим, повторив путь DeepSeek. Несмотря на ряд нюансов и оговорок, это очень интересный релиз, который в очередной раз подтолкнёт OpenAI делать действительно «открытые» модели. A Llama 4 будет особенно полезна для локального запуска и дообучения.

* признана экстремистской организацией на территории РФ
14.04.202504:06
Утренний #нейротрек
Как Nvidia ходит по лезвию бритвы – между американскими санкциями и китайскими деньгами

Китайские технологические гиганты ByteDance, Alibaba и Tencent в первом квартале 2025 года разместили заказы на чипы Nvidia на сумму не меньше 16 миллиардов долларов. Как они это сделали, учитывая санкции и скандалы о перепродаже чипов в обход ограничений? Помог чип H20.

H20 – это не просто чип. Сегодня это чуть ли не единственный «легальный пропуск» Nvidia на большой китайский рынок. Когда одному из их главных потребителей запретили покупать передовые GPU, Nvidia пошли на хитрость и разработали модели «на грани»: достаточно мощные, чтобы устроить покупателей из Китая, и вписывающиеся в ограничения американских регуляторов. Так появились H20, L20 и L2.

DeepSeek смогли оптимизировать потребление памяти во время обучения модели настолько, что им хватило даже урезанных видеокарт. Большой взлёт спроса был после релиза модели R1 и её всестороннего внедрения чуть ли не в кофемашины и зубные щётки в Китае.

Ирония ситуации в том, что ограничения породили настоящий бум спроса. Китайские компании скупают H20 из-за опасений, что дальше не будет даже их. Особенно активно это делают всё те же DeepSeek. В итоге изначально компромиссный H20 неожиданно стал для Nvidia одним из самых прибыльных.

Пока что «довольны» все – и Nvidia, которая продолжает зарабатывать, и китайские компании, которым оставили официальные канал закупки видеокарт. Ну, разве что американские регуляторы начинают понимать, что санкции имеют обратный эффект, мотивируя страны искать обходные пути и развивать свои альтернативы.
ИИ в медицине и его «уникальный» подход к пациенту

Несет ли искусственный интеллект в медицине равную пользу для всех пациентов? Исследование из Nature Medicine показывает, что это далеко не так.

Учёные проанализировали работу девяти языковых моделей на 1000 случаев из отделений неотложной помощи. Результаты тревожные: ИИ-системы часто дают разные рекомендации в зависимости от социально-демографических характеристик пациента при абсолютно одинаковых медицинских данных.

Например, пациенты с высоким доходом получали рекомендации пройти продвинутую диагностику, а малообеспеченным советовали обойтись без дополнительных тестов. Чернокожих или бездомных людей отправляли на инвазивные процедуры или оценку состояния психического здоровья чаще других и даже если в этом не было клинической необходимости.

В чём причина? ИИ обучается на существующих данных и, если эти данные содержат человеческие предубеждения, алгоритм их отражает и усиливает. Это не первая подобная ситуация – с такими же предубеждениями уже сталкивались компании, которые использовали ИИ в рекрутинге для оценки резюме и отбора кандидатов на трудоустройство.

Это не первый случай дискриминации и в медицинском ИИ. Watson от IBM давал небезопасные рекомендации по лечению рака, а система прогнозирования рисков беременности от Epic оказалась менее точной для женщин не европейского типа.

Конечно, нейросети стоит использовать для ускорения процесса диагностики, предсказания заболеваний на ранних стадиях и в виде базы данных для врачей. Но важно помнить, что ИИ галлюцинирует и проецирует существующие в данных предубеждения и ошибки.
ИИ-ассистенты меняют профессию программиста

По данным Y Combinator, четверть основателей стартапов уже признают, что их программный код почти полностью генерируется искусственным интеллектом. Программисты всё чаще говорят про эру «вайб-кодинга» – когда разработчики описывают желаемый результат простым языком, а ИИ превращает слова в код.

Cursor, GitHub Copilot, SourceCraft Code Assistant и так далее – свои ИИ-инструменты есть почти у каждого крупного игрока на рынке искусственного интеллекта. Технологический гигант Alphabet (Google) говорят, что более четверти нового кода компании создается искусственным интеллектом. Технический директор Microsoft Кевин Скотт считает, что к 2030 году 95% всего программного кода будет генерироваться, а не писаться вручную.

Но в этой революции всё не однозначно. Разработчики отмечают, что ИИ отлично справляется с рутинными задачами, но сложные делает ещё сложнее. Слепое доверие ИИ-подсказкам часто приводит к трудно поддерживаемому, плохо структурированному и недокументированному коду.

Рынок труда программистов тоже меняется. Уровень безработицы в ИТ-секторе США вырос с 3,9% в декабре до 5,7% в январе – намного выше общего показателя по стране. Компании теперь могут быть избирательнее при найме и требуют от кандидатов не просто умения писать код, а критического мышления и способности эффективно коммуницировать с ИИ-инструментами.

Все сходятся в том, что «спор» между человеком и машиной в программировании не завершится победой одной из сторон. Будущее за симбиозом и распределением ролей – людям придётся сосредоточиться на творческом решении проблем и создании инноваций.
16.04.202504:07
Утренний #нейротрек
Nvidia и их борьба

Главный герой триллера, который разворачивается на рынке чипов для ИИ после введения администрацией Трампа тарифов компания Nvidia, оказавшаяся между молотом американских санкций и наковальней китайского рынка.

Несмотря на якобы состоявшиеся секретные переговоры и объявленные планы о полутрилионных инвестициях в США – новая администрация внезапно запретила поставки в Китай чипов H20, созданных специально с учетом предыдущих ограничений. Результат для компании – прогнозируемые убытки в 5,5 миллиардов долларов и падение акций.

Что делает CEO Nvidia Дженсен Хуанг? То, что сделал бы любой прагматичный бизнесмен – летит в Пекин. Сразу после сокрушительного удара по бизнесу он встречается с вице-премьером Китая и руководством DeepSeek – той самой компании, из-за которой, возможно, и усилили санкции. Ведь есть подозрение, что DeepSeek тренировали свои языковые модели на чипах, которые, по идее, не должны были оказаться в Китае.

Конгресс США в это время бьет тревогу. Как запрещенные H800 попали в китайские руки? Не через Сингапур ли, где недавно арестовали несколько человек за подделку документов о конечных пользователях чипов Nvidia? Законодатели требуют от Хуанга объяснений и отчетов о всех поставках в Юго-Восточную Азию и Китай с 2020 года.

Nvidia оказалась в ловушке: с одной стороны, национальные интересы США и обязательство «следовать указаниям правительства буквально», с другой – огромный китайский рынок, который Хуанг публично называет «очень важным» для компании.

Парадокс ситуации в том, что жесткая политика США может дать обратный эффект. Вместо ослабления конкурента она толкает компании и страны к еще большему сближению с Китаем. Визит Хуанга в Пекин – яркое тому подтверждение. Бизнес идет туда, где есть возможности, а они сейчас всё чаще оказываются за пределами американской сферы влияния.
25.04.202511:01
Microsoft выпустила в январе минутный рекламный ролик про устройства Surface. А спустя 3 месяца они признались, что сэкономили 90% времени и затрат за счёт использования в рекламе генеративного ИИ. Инструмент был использован, чтобы показать ноутбук в разных условиях работы (на природе, на стройке, в офисах и так далее), но без необходимости выездных съёмок.

Некоторые кадры сняты вживую (например, крупные планы с печатающими руками), а другие полностью сгенерированы искусственным интеллектом. Более того, команда использовала чат-ботов даже на этапе написания сценария.

Процесс работы выглядел так:
1. Чат-бот пишет сценарий и определяет, какие кадры понадобятся.
2. Дальше он генерирует промпты для создания нужных картинок.
3. Картинки генерируются в стороннем сервисе.
4. И потом эти изображения отправляются в видеогенераторы Hailuo и Kling, чтобы на их основе получить видео для рекламы.

Что удивляет – 3 месяца никто этого не замечал. Если знать, куда смотреть, то увидеть сгенерированные кадры не проблема – текст на бумаге явно не написан от руки, банка в кадре выглядит неестественно и другие мелочи выдают использование нейросетей. Но, оказалось, никто не вглядывается.

Почему это показательный случай? ИИ уже становится обычным инструментом для продакшена разных уровней, даже у больших компаний с деньгами. Сейчас ИИ уже работает на таком уровне, что при совмещении с живыми кадрами зрители не заметят разницы. На этот счёт директор по дизайну Microsoft сказал, что работа дизайнера превращается в обычное редактирование.
Log in to unlock more functionality.