
CRAI где живёт AI
Side-канал @contentreview с новостями из области искусственного интеллекта (AI)
TGlist rating
0
0
TypePublic
Verification
Not verifiedTrust
Not trustedLocation
LanguageOther
Channel creation dateOct 26, 2024
Added to TGlist
Jan 06, 2025Latest posts in group "CRAI где живёт AI"
26.04.202514:07
#нейродайджест CRAI за неделю
• Perplexity хочет стать «ByteDance Америки»
Perplexity больше не просто «нейропоиск»: компания строит экосистему с ИИ-ассистентом, соцсетью Discover, интеграцией с магазинами и браузером Comet для сбора персональных данных. Зачем им это нужно?
• Новые ИИ-модели думают больше – и при этом больше ошибаются
Последнее поколение ИИ «галлюцинирует» вдвое чаще предшественников и проваливается в простых математических задачах. Что за термин «неровной границы» в ИИ и как с этим жить?
• Sora от OpenAI уже почти соцсеть: мемы, общение пользователей и борьба с цензурой
Пользователи сервиса генерации видео Sora создали подобие соцсети: они обошли ограничение на публикацию текстовых постов с помощью… Текста на картинках.
• Говорите ИИ «спасибо», вам зачтётся
Вежливые запросы не только приятны, но и повышают качество ответов языковых моделей.
• Как алгоритмы решают, кто виновен (ещё до преступления)
Мы оказались в «Особом мнении» Спилберга – алгоритмы анализируют данные, чтобы предсказать преступления. Но так ли они безошибочны? Спойлер: нет, и это опасно.
• Продуктивность на стероидах? Почему измерить пользу от ИИ так сложно
Компании внедряют ИИ, но обещанного скачка продуктивности не видно. Проблема в метриках: как оценить работу ИИ, если это не конвейер? Предлагаем свой вариант оценки.
• Рекламу для Microsoft снял ИИ, сэкономив 90% бюджета
Microsoft призналась, что создала рекламный ролик Surface с помощью GenAI, сэкономив 90% времени и затрат. ИИ писал сценарий, генерировал картинки и видео.
• ChatGPT против Google
Несмотря на 160 миллионов ежедневных пользователей ChatGPT, Google не сдаётся. Что победит – энергия стартапа или экосистема с миллиардной аудиторией?
• Adobe сделали аналог robots.txt для картинок
Adobe запустили сервис, позволяющий авторам запрещать использование их изображений для обучения нейросетей с помощью специальных метаданных.
• Perplexity хочет стать «ByteDance Америки»
Perplexity больше не просто «нейропоиск»: компания строит экосистему с ИИ-ассистентом, соцсетью Discover, интеграцией с магазинами и браузером Comet для сбора персональных данных. Зачем им это нужно?
• Новые ИИ-модели думают больше – и при этом больше ошибаются
Последнее поколение ИИ «галлюцинирует» вдвое чаще предшественников и проваливается в простых математических задачах. Что за термин «неровной границы» в ИИ и как с этим жить?
• Sora от OpenAI уже почти соцсеть: мемы, общение пользователей и борьба с цензурой
Пользователи сервиса генерации видео Sora создали подобие соцсети: они обошли ограничение на публикацию текстовых постов с помощью… Текста на картинках.
• Говорите ИИ «спасибо», вам зачтётся
Вежливые запросы не только приятны, но и повышают качество ответов языковых моделей.
• Как алгоритмы решают, кто виновен (ещё до преступления)
Мы оказались в «Особом мнении» Спилберга – алгоритмы анализируют данные, чтобы предсказать преступления. Но так ли они безошибочны? Спойлер: нет, и это опасно.
• Продуктивность на стероидах? Почему измерить пользу от ИИ так сложно
Компании внедряют ИИ, но обещанного скачка продуктивности не видно. Проблема в метриках: как оценить работу ИИ, если это не конвейер? Предлагаем свой вариант оценки.
• Рекламу для Microsoft снял ИИ, сэкономив 90% бюджета
Microsoft призналась, что создала рекламный ролик Surface с помощью GenAI, сэкономив 90% времени и затрат. ИИ писал сценарий, генерировал картинки и видео.
• ChatGPT против Google
Несмотря на 160 миллионов ежедневных пользователей ChatGPT, Google не сдаётся. Что победит – энергия стартапа или экосистема с миллиардной аудиторией?
• Adobe сделали аналог robots.txt для картинок
Adobe запустили сервис, позволяющий авторам запрещать использование их изображений для обучения нейросетей с помощью специальных метаданных.
25.04.202513:41
У ChatGPT 160 миллионов ежедневных пользователей. Это угроза для империи Google?
Google в последнее время сталкивается с серьезными вызовами: антимонопольные иски, рост операционных расходов, потенциальное снижение рекламной выручки из-за изменений в таможенной политике США.
На другом фланге – OpenAI с впечатляющими показателями использования ChatGPT: около 160 миллионов ежедневных пользователей (против примерно 35 миллионов у Gemini). Более того, OpenAI пытаются выдавить Google с рынка и даже заинтересованы в покупке браузера Chrome. Неужели это конец Google?
Зависит от того, как смотреть на цифры. У Google есть козырь в рукаве – масштаб экосистемы. Когда речь заходит об интеграции ИИ в поиск с его 1,5 миллиардами ежедневных пользователей, миллиарды устройств Android и Chromebook, картина кардинально меняется. Предустановка Gemini на Android-устройства уже привела к четырехкратному росту пользовательской базы (хотя понятно, что это экстенсивный рост).
Более того, Google всё ещё имеют продвинутые ИИ-модели с бóльшим контекстным окном, чем у OpenAI, более низкой ценой и более высокой скоростью инференса. То есть с технической точки зрения у них больше преимуществ, чем у конкурента, а это облегчит масштабирование и обучение последующих моделей. И, в отличие от OpenAI, у них есть другие источники заработка помимо ИИ – поэтому, несмотря на экономические трудности и юридическое давление, Google инвестируют 75 миллиардов долларов в искусственный интеллект и расширение дата-центров.
Сегодня OpenAI лидирует по вовлеченности пользователей за счёт бренда (они просто начали развивать это направление раньше и многие никогда не пользовались другими чат-ботами) и очень узкой ориентированности на ИИ. Тогда как Google делает ставку на интеграцию нейросетей как инструмента в существующую экосистему, получая доступ к гораздо более широкой базе пользователей для продажи подписки и сбора персональных данных.
Google в последнее время сталкивается с серьезными вызовами: антимонопольные иски, рост операционных расходов, потенциальное снижение рекламной выручки из-за изменений в таможенной политике США.
На другом фланге – OpenAI с впечатляющими показателями использования ChatGPT: около 160 миллионов ежедневных пользователей (против примерно 35 миллионов у Gemini). Более того, OpenAI пытаются выдавить Google с рынка и даже заинтересованы в покупке браузера Chrome. Неужели это конец Google?
Зависит от того, как смотреть на цифры. У Google есть козырь в рукаве – масштаб экосистемы. Когда речь заходит об интеграции ИИ в поиск с его 1,5 миллиардами ежедневных пользователей, миллиарды устройств Android и Chromebook, картина кардинально меняется. Предустановка Gemini на Android-устройства уже привела к четырехкратному росту пользовательской базы (хотя понятно, что это экстенсивный рост).
Более того, Google всё ещё имеют продвинутые ИИ-модели с бóльшим контекстным окном, чем у OpenAI, более низкой ценой и более высокой скоростью инференса. То есть с технической точки зрения у них больше преимуществ, чем у конкурента, а это облегчит масштабирование и обучение последующих моделей. И, в отличие от OpenAI, у них есть другие источники заработка помимо ИИ – поэтому, несмотря на экономические трудности и юридическое давление, Google инвестируют 75 миллиардов долларов в искусственный интеллект и расширение дата-центров.
Сегодня OpenAI лидирует по вовлеченности пользователей за счёт бренда (они просто начали развивать это направление раньше и многие никогда не пользовались другими чат-ботами) и очень узкой ориентированности на ИИ. Тогда как Google делает ставку на интеграцию нейросетей как инструмента в существующую экосистему, получая доступ к гораздо более широкой базе пользователей для продажи подписки и сбора персональных данных.


25.04.202511:01
Microsoft выпустила в январе минутный рекламный ролик про устройства Surface. А спустя 3 месяца они признались, что сэкономили 90% времени и затрат за счёт использования в рекламе генеративного ИИ. Инструмент был использован, чтобы показать ноутбук в разных условиях работы (на природе, на стройке, в офисах и так далее), но без необходимости выездных съёмок.
Некоторые кадры сняты вживую (например, крупные планы с печатающими руками), а другие полностью сгенерированы искусственным интеллектом. Более того, команда использовала чат-ботов даже на этапе написания сценария.
Процесс работы выглядел так:
1. Чат-бот пишет сценарий и определяет, какие кадры понадобятся.
2. Дальше он генерирует промпты для создания нужных картинок.
3. Картинки генерируются в стороннем сервисе.
4. И потом эти изображения отправляются в видеогенераторы Hailuo и Kling, чтобы на их основе получить видео для рекламы.
Что удивляет – 3 месяца никто этого не замечал. Если знать, куда смотреть, то увидеть сгенерированные кадры не проблема – текст на бумаге явно не написан от руки, банка в кадре выглядит неестественно и другие мелочи выдают использование нейросетей. Но, оказалось, никто не вглядывается.
Почему это показательный случай? ИИ уже становится обычным инструментом для продакшена разных уровней, даже у больших компаний с деньгами. Сейчас ИИ уже работает на таком уровне, что при совмещении с живыми кадрами зрители не заметят разницы. На этот счёт директор по дизайну Microsoft сказал, что работа дизайнера превращается в обычное редактирование.
Некоторые кадры сняты вживую (например, крупные планы с печатающими руками), а другие полностью сгенерированы искусственным интеллектом. Более того, команда использовала чат-ботов даже на этапе написания сценария.
Процесс работы выглядел так:
1. Чат-бот пишет сценарий и определяет, какие кадры понадобятся.
2. Дальше он генерирует промпты для создания нужных картинок.
3. Картинки генерируются в стороннем сервисе.
4. И потом эти изображения отправляются в видеогенераторы Hailuo и Kling, чтобы на их основе получить видео для рекламы.
Что удивляет – 3 месяца никто этого не замечал. Если знать, куда смотреть, то увидеть сгенерированные кадры не проблема – текст на бумаге явно не написан от руки, банка в кадре выглядит неестественно и другие мелочи выдают использование нейросетей. Но, оказалось, никто не вглядывается.
Почему это показательный случай? ИИ уже становится обычным инструментом для продакшена разных уровней, даже у больших компаний с деньгами. Сейчас ИИ уже работает на таком уровне, что при совмещении с живыми кадрами зрители не заметят разницы. На этот счёт директор по дизайну Microsoft сказал, что работа дизайнера превращается в обычное редактирование.
25.04.202504:07
Утренний #нейротрек
24.04.202516:57
Изучили интересный разговор с основателем 🧘Perplexity Аравиндом Шринивасом на канале TBPN. В ближайшем будущем Perplexity ждёт много изменений – сервис перестанет быть просто нейропоиском и амбициозно хочет стать “ByteDance of America”. О чём конкретно говорили в видео?
Вслед за релизом ассистента для Андроида компания выпустила его и на платформе Apple, превратив в прямого конкурента Siri (которая всё ещё скорее мертва, чем жива). Правда, учитывая ограничения iOS, многого пока реализовать не получилось – например, ставить будильники или регулировать громкость ассистент не умеет. И Аравинд не думает, что система станет более открытой в будущем. На Андроиде таких проблем нет – но есть другие.
Например, практика принудительной привязки OEM-производителей к сервисам Google. Perplexity хочет дать пользователям больше гибкости в выборе ассистента, поиска и других сервисов, без автоматической предустановки приложений экосистемы Google. Аравинд считает, что Gemini «ужасен как продукт», несмотря на качественную модель, и неправильно навязывать его пользователям по умолчанию.
Чтобы избавиться от ярлыка «нейропоиска», компания делает новые сервисы. Например, Discover – социальную платформу с алгоритмической выдачей контента (свой TikTok). А в сфере электронной коммерции компания предлагает возможность совершать покупки прямо через нейропоиск благодаря интеграции с Shopify.
Самая противоречивая часть видео – рассказ про ИИ-браузер Comet, запуск которого ожидается в мае. Аравинд говорит, что люди часто пользуются Perplexity для работы – и поэтому собираемые сервисом данные не слишком персональные и не всегда отражают предпочтения пользователей. Браузер как раз станет источником персональных данных для таргетинга премиум-рекламы – компания хочет знать, что пользователи покупают, где едят, какие видео смотрят и так далее. То есть браузер делается не просто как дорогая игрушка, а с целью заработать.
Что в итоге? Perplexity пытаются строить свою экосистему – с браузером, поиском, соцсетью, рекламным инвентарём и прямыми покупками товаров. Всё это на основе ИИ и рекомендательных алгоритмов. Очень амбициозный план – если не сказать больше.
Вслед за релизом ассистента для Андроида компания выпустила его и на платформе Apple, превратив в прямого конкурента Siri (которая всё ещё скорее мертва, чем жива). Правда, учитывая ограничения iOS, многого пока реализовать не получилось – например, ставить будильники или регулировать громкость ассистент не умеет. И Аравинд не думает, что система станет более открытой в будущем. На Андроиде таких проблем нет – но есть другие.
Например, практика принудительной привязки OEM-производителей к сервисам Google. Perplexity хочет дать пользователям больше гибкости в выборе ассистента, поиска и других сервисов, без автоматической предустановки приложений экосистемы Google. Аравинд считает, что Gemini «ужасен как продукт», несмотря на качественную модель, и неправильно навязывать его пользователям по умолчанию.
Чтобы избавиться от ярлыка «нейропоиска», компания делает новые сервисы. Например, Discover – социальную платформу с алгоритмической выдачей контента (свой TikTok). А в сфере электронной коммерции компания предлагает возможность совершать покупки прямо через нейропоиск благодаря интеграции с Shopify.
Самая противоречивая часть видео – рассказ про ИИ-браузер Comet, запуск которого ожидается в мае. Аравинд говорит, что люди часто пользуются Perplexity для работы – и поэтому собираемые сервисом данные не слишком персональные и не всегда отражают предпочтения пользователей. Браузер как раз станет источником персональных данных для таргетинга премиум-рекламы – компания хочет знать, что пользователи покупают, где едят, какие видео смотрят и так далее. То есть браузер делается не просто как дорогая игрушка, а с целью заработать.
Что в итоге? Perplexity пытаются строить свою экосистему – с браузером, поиском, соцсетью, рекламным инвентарём и прямыми покупками товаров. Всё это на основе ИИ и рекомендательных алгоритмов. Очень амбициозный план – если не сказать больше.
24.04.202513:47
⏫Adobe сделали сервис, который позволяет запретить использовать изображения для обучения нейросетей – что-то вроде robots.txt у сайтов.
Content Authenticity App позволяет авторам добавлять к изображениям метаданные, подтверждающие подлинность файла и указывающие на владельца. Отдельной галочкой можно запретить или разрешить использовать картинки для обучения ИИ-моделей. Метаданные встраиваются в различные пиксели изображения и сохраняются даже если его конвертировать, обрезать или каким-то иным образом обработать, а в будущем то же самое будет работать с видео и аудио.
Интересный ход Adobe, которые часто хвалятся тем, что обучают свои модели исключительно на лицензированных файлах со стоков (с их слов даже доплачивая собственникам) и не используют данные пользователей. Правда, на те файлы, которые уже есть в Интернете, маркировку добавить не получится. Да и не всем пользователям захочется перед публикацией делать лишний шаг и заходить на сайт сервиса.
Ключевой вопрос тут – будут ли разработчики ИИ-моделей соблюдать эти ограничения? Adobe ведут переговоры с несколькими крупными компаниями, но пока никаких соглашений не заключено. А чтобы действительно защитить контент, такой формат маркировки придётся делать стандартом, и потом законодательно запрещать использовать маркированные файлы при обучении ИИ-моделей, что вряд ли случится. Пока же это приложение выглядит скорее как пиар-история для Adobe.
Content Authenticity App позволяет авторам добавлять к изображениям метаданные, подтверждающие подлинность файла и указывающие на владельца. Отдельной галочкой можно запретить или разрешить использовать картинки для обучения ИИ-моделей. Метаданные встраиваются в различные пиксели изображения и сохраняются даже если его конвертировать, обрезать или каким-то иным образом обработать, а в будущем то же самое будет работать с видео и аудио.
Интересный ход Adobe, которые часто хвалятся тем, что обучают свои модели исключительно на лицензированных файлах со стоков (с их слов даже доплачивая собственникам) и не используют данные пользователей. Правда, на те файлы, которые уже есть в Интернете, маркировку добавить не получится. Да и не всем пользователям захочется перед публикацией делать лишний шаг и заходить на сайт сервиса.
Ключевой вопрос тут – будут ли разработчики ИИ-моделей соблюдать эти ограничения? Adobe ведут переговоры с несколькими крупными компаниями, но пока никаких соглашений не заключено. А чтобы действительно защитить контент, такой формат маркировки придётся делать стандартом, и потом законодательно запрещать использовать маркированные файлы при обучении ИИ-моделей, что вряд ли случится. Пока же это приложение выглядит скорее как пиар-история для Adobe.


24.04.202504:59
Утренний #нейротрек
23.04.202511:55
В тексте про рассуждающие модели, который случайно вышел прямо перед релизом нового поколения нейросетей от OpenAI, мы писали о минусах таких моделей. И вот, спустя какое-то время, появилось подтверждение – новое поколение бьёт рекорды в одних задачах, но сильно хуже справляется с другими.
По-прежнему не изменился тот факт, что новые функции работают впечатляюще – доступ к инструментам ChatGPT сделал работу с o3 гораздо более простой и интуитивной (подробнее можно почитать в тексте про них). Релиз приближает нас к тому дню, когда не нужно будет разбираться в стилях, промптах, настройках сервиса, версиях моделей, а достаточно просто будет описывать несколькими словами задачу и получать результат. Но пока этот момент, к сожалению, не наступил.
Свой рекорд с по привлечению пользователей картинками в стиле Гибли компания не побила, но даже здесь смогла завируситься – благодаря навыку ИИ определять место съемки практически любой цифровой фотографии (работает это за счёт того, что модель понимает фотографии, умеет их приближать, вращать, изучать, писать скрипты на Питоне и проводить поиск в Интернете, что в совокупности позволяет определить локацию).
Всё бы ничего, но пока любое усложнение модели ведёт к дополнительным проблемам. Новое поколение думающих моделей, благодаря тому, что думают больше – парадоксально и больше ошибаются. Они не справляются с величиной контекста, в случае ошибки не пытаются её исправить, а придумывают аргументы и убеждают себя в правильности ответа. o3 делает ошибки в математике, иногда обманывает и «галлюцинирует» в два раза чаще своего предшественника. Даже в финансовом анализе, где o3 лидирует среди конкурентов, точность составляет всего 48,3%.
Появился термин «неровной границы» (jagged frontier) – когда в одних задачах ИИ превосходит человека по скорости и качеству работы в десятки раз, а в других на него в принципе нельзя положиться. А вывод, как в случае с измерением продуктивности – не нужно пытаться использовать ИИ там, где от него нет толку, и проблем не будет.
По-прежнему не изменился тот факт, что новые функции работают впечатляюще – доступ к инструментам ChatGPT сделал работу с o3 гораздо более простой и интуитивной (подробнее можно почитать в тексте про них). Релиз приближает нас к тому дню, когда не нужно будет разбираться в стилях, промптах, настройках сервиса, версиях моделей, а достаточно просто будет описывать несколькими словами задачу и получать результат. Но пока этот момент, к сожалению, не наступил.
Свой рекорд с по привлечению пользователей картинками в стиле Гибли компания не побила, но даже здесь смогла завируситься – благодаря навыку ИИ определять место съемки практически любой цифровой фотографии (работает это за счёт того, что модель понимает фотографии, умеет их приближать, вращать, изучать, писать скрипты на Питоне и проводить поиск в Интернете, что в совокупности позволяет определить локацию).
Всё бы ничего, но пока любое усложнение модели ведёт к дополнительным проблемам. Новое поколение думающих моделей, благодаря тому, что думают больше – парадоксально и больше ошибаются. Они не справляются с величиной контекста, в случае ошибки не пытаются её исправить, а придумывают аргументы и убеждают себя в правильности ответа. o3 делает ошибки в математике, иногда обманывает и «галлюцинирует» в два раза чаще своего предшественника. Даже в финансовом анализе, где o3 лидирует среди конкурентов, точность составляет всего 48,3%.
Появился термин «неровной границы» (jagged frontier) – когда в одних задачах ИИ превосходит человека по скорости и качеству работы в десятки раз, а в других на него в принципе нельзя положиться. А вывод, как в случае с измерением продуктивности – не нужно пытаться использовать ИИ там, где от него нет толку, и проблем не будет.


23.04.202504:07
Утренний #нейротрек
22.04.202514:46
Почему так сложно измерить влияние ИИ на продуктивность
Вспомним конвейер Форда – классический пример линейного процесса массового производства, где автоматизация равна росту производительности. А теперь подумаем о мастере, создающем скрипки на заказ – конвейер ему не сильно поможет. Это сравнение как раз показывает главную проблему внедрения искусственного интеллекта в производственный процесс.
Если верить исследованиям, 20-40% работников в США и около 13,5% компаний в ЕС уже применяют ИИ. А где обещанный экономический эффект? Почему ИИ, который должен повышать эффективность и снижать траты компаний, требует со временем от них больше инвестиций? Особенно в сфере услуг – консалтинге, юриспруденции, медиа и так далее.
Всё дело в метриках. Точнее, в их отсутствии – сложно измерить влияние ИИ на производительность. В случае с конвейером считаем штуки за единицу времени, чем больше произвели, тем лучше. Но можно ли так оценивать тексты? Или изображения? Или количество документов, на основе которых ИИ сделал выжимку?
Если посмотреть шире, то все инновации дают людям возможность экономить время. И в последнее время чаще звучат разговоры, что именно экономия времени может стать главным фактором для оценки повышения или понижения продуктивности после внедрения ИИ.
Здесь стоит задать вопрос – для чего в компании внедряется ИИ: сэкономить деньги или рассказать об этом на конференции. Если первое, то нужно искать линейные процессы и стараться их оптимизировать – например, транскрибацию текста, генерацию и улучшение картинок, суммаризацию документов, брейнсторминг, создание аудио и так далее. В данном случае ИИ-сервисы действительно могут заменить многочасовую работу, для которой пришлось бы держать работников в штате (или привлекать со стороны).
Если цель похвастаться на конференции созданием ИИ, который умеет сам и с клиентами общаться, и тексты в соцсети писать, и делать другие задачи, требующие индивидуального подхода (а в свободное время ещё музыку сочиняет) – лучше просто объявить о внедрении ИИ и забыть о нём поскорее. Потому что затраченное на задачи время он только удлинит. Возможно, стоит просто попросить сотрудников меньше общаться возле кулера, и продуктивность вырастет сама.
Сегодня все говорят об агентах, виртуальных сотрудниках, автоматизации вертикальных процессов, где ИИ пока интегрировать довольно бесполезно, а отдачу измерить – сложно. Хотя если говорить о более простых инструментах, которые сокращают время выполнения линейных процессов, то картина меняется.
Вспомним конвейер Форда – классический пример линейного процесса массового производства, где автоматизация равна росту производительности. А теперь подумаем о мастере, создающем скрипки на заказ – конвейер ему не сильно поможет. Это сравнение как раз показывает главную проблему внедрения искусственного интеллекта в производственный процесс.
Если верить исследованиям, 20-40% работников в США и около 13,5% компаний в ЕС уже применяют ИИ. А где обещанный экономический эффект? Почему ИИ, который должен повышать эффективность и снижать траты компаний, требует со временем от них больше инвестиций? Особенно в сфере услуг – консалтинге, юриспруденции, медиа и так далее.
Всё дело в метриках. Точнее, в их отсутствии – сложно измерить влияние ИИ на производительность. В случае с конвейером считаем штуки за единицу времени, чем больше произвели, тем лучше. Но можно ли так оценивать тексты? Или изображения? Или количество документов, на основе которых ИИ сделал выжимку?
Если посмотреть шире, то все инновации дают людям возможность экономить время. И в последнее время чаще звучат разговоры, что именно экономия времени может стать главным фактором для оценки повышения или понижения продуктивности после внедрения ИИ.
Здесь стоит задать вопрос – для чего в компании внедряется ИИ: сэкономить деньги или рассказать об этом на конференции. Если первое, то нужно искать линейные процессы и стараться их оптимизировать – например, транскрибацию текста, генерацию и улучшение картинок, суммаризацию документов, брейнсторминг, создание аудио и так далее. В данном случае ИИ-сервисы действительно могут заменить многочасовую работу, для которой пришлось бы держать работников в штате (или привлекать со стороны).
Если цель похвастаться на конференции созданием ИИ, который умеет сам и с клиентами общаться, и тексты в соцсети писать, и делать другие задачи, требующие индивидуального подхода (а в свободное время ещё музыку сочиняет) – лучше просто объявить о внедрении ИИ и забыть о нём поскорее. Потому что затраченное на задачи время он только удлинит. Возможно, стоит просто попросить сотрудников меньше общаться возле кулера, и продуктивность вырастет сама.
Сегодня все говорят об агентах, виртуальных сотрудниках, автоматизации вертикальных процессов, где ИИ пока интегрировать довольно бесполезно, а отдачу измерить – сложно. Хотя если говорить о более простых инструментах, которые сокращают время выполнения линейных процессов, то картина меняется.


19.04.202510:31
#нейродайджест CRAI за неделю
• Аниме против Google: картинки в стиле Ghibli помогли ChatGPT захватить рынок ИИ?
Как функция генерации аниме-изображений привела к взрывному росту популярности ChatGPT, который в разы обогнал Gemini по трафику, и что теперь делать Google?
• «Рассуждающий» ИИ – переоцененная технология?
Разбираемся с проблемами и ограничениями «рассуждающих» языковых моделей, которые имитируют человеческое мышление. Когда их стоит использовать?
• Новый релиз OpenAI
Модели o3 и o4-mini способны «думать» изображениями и использовать в этот момент инструменты ChatGPT. Что это значит?
• Nvidia между санкциями США и китайскими деньгами
Как связаны запрет на экспорт видеокарт в Китай, визит главы Nvidia в Пекин и аресты в Сингапуре?
• Неожиданно «умный» стартап: ручной труд филиппинцев вместо ИИ
Стартап Nate привлек 50 миллионов долларов, обещая революционный ИИ-шопинг, а на деле использовал труд сотен людей на Филиппинах.
• 644 миллиарда долларов на ветер?
По прогнозу Gartner, расходы на генеративный ИИ в 2025 году вырастут колоссально. Парадокс: пользователи пока не разделяют энтузиазма разработчиков по поводу GenAI. Куда пойдут деньги и есть ли смысл в таких инвестициях?
• США хотят запретить открытый ИИ?
В Соединённых штатах идёт дискуссия о возможном запрете или регулировании открытого искусственного интеллекта. Чем им не угодили open source модели?
• Реклама в чат-ботах – новая реальность?
Стартап Nexad планирует внедрить рекламу в чат-боты. Как она может выглядеть и почему инвесторы готовы в это вкладываться?
• Переговоры в Мар-а-Лаго: как Nvidia пытались спасти свой китайский экспорт от Трампа
Глава Nvidia, по слухам, пытался на секретном ужине убедить администрацию Трампа сделать исключение и не блокировать поставки ключевых ИИ-чипов в Китай. Спойлер – не получилось.
• В Nvidia заявили, что переносят производство в США
500 миллиардов инвестиций и начало производства в Америке – зачем это компании?
• Аниме против Google: картинки в стиле Ghibli помогли ChatGPT захватить рынок ИИ?
Как функция генерации аниме-изображений привела к взрывному росту популярности ChatGPT, который в разы обогнал Gemini по трафику, и что теперь делать Google?
• «Рассуждающий» ИИ – переоцененная технология?
Разбираемся с проблемами и ограничениями «рассуждающих» языковых моделей, которые имитируют человеческое мышление. Когда их стоит использовать?
• Новый релиз OpenAI
Модели o3 и o4-mini способны «думать» изображениями и использовать в этот момент инструменты ChatGPT. Что это значит?
• Nvidia между санкциями США и китайскими деньгами
Как связаны запрет на экспорт видеокарт в Китай, визит главы Nvidia в Пекин и аресты в Сингапуре?
• Неожиданно «умный» стартап: ручной труд филиппинцев вместо ИИ
Стартап Nate привлек 50 миллионов долларов, обещая революционный ИИ-шопинг, а на деле использовал труд сотен людей на Филиппинах.
• 644 миллиарда долларов на ветер?
По прогнозу Gartner, расходы на генеративный ИИ в 2025 году вырастут колоссально. Парадокс: пользователи пока не разделяют энтузиазма разработчиков по поводу GenAI. Куда пойдут деньги и есть ли смысл в таких инвестициях?
• США хотят запретить открытый ИИ?
В Соединённых штатах идёт дискуссия о возможном запрете или регулировании открытого искусственного интеллекта. Чем им не угодили open source модели?
• Реклама в чат-ботах – новая реальность?
Стартап Nexad планирует внедрить рекламу в чат-боты. Как она может выглядеть и почему инвесторы готовы в это вкладываться?
• Переговоры в Мар-а-Лаго: как Nvidia пытались спасти свой китайский экспорт от Трампа
Глава Nvidia, по слухам, пытался на секретном ужине убедить администрацию Трампа сделать исключение и не блокировать поставки ключевых ИИ-чипов в Китай. Спойлер – не получилось.
• В Nvidia заявили, что переносят производство в США
500 миллиардов инвестиций и начало производства в Америке – зачем это компании?
18.04.202516:08
Nvidia и их борьба
Главный герой триллера, который разворачивается на рынке чипов для ИИ после введения администрацией Трампа тарифов – компания Nvidia, оказавшаяся между молотом американских санкций и наковальней китайского рынка.
Несмотря на якобы состоявшиеся секретные переговоры и объявленные планы о полутрилионных инвестициях в США – новая администрация внезапно запретила поставки в Китай чипов H20, созданных специально с учетом предыдущих ограничений. Результат для компании – прогнозируемые убытки в 5,5 миллиардов долларов и падение акций.
Что делает CEO Nvidia Дженсен Хуанг? То, что сделал бы любой прагматичный бизнесмен – летит в Пекин. Сразу после сокрушительного удара по бизнесу он встречается с вице-премьером Китая и руководством DeepSeek – той самой компании, из-за которой, возможно, и усилили санкции. Ведь есть подозрение, что DeepSeek тренировали свои языковые модели на чипах, которые, по идее, не должны были оказаться в Китае.
Конгресс США в это время бьет тревогу. Как запрещенные H800 попали в китайские руки? Не через Сингапур ли, где недавно арестовали несколько человек за подделку документов о конечных пользователях чипов Nvidia? Законодатели требуют от Хуанга объяснений и отчетов о всех поставках в Юго-Восточную Азию и Китай с 2020 года.
Nvidia оказалась в ловушке: с одной стороны, национальные интересы США и обязательство «следовать указаниям правительства буквально», с другой – огромный китайский рынок, который Хуанг публично называет «очень важным» для компании.
Парадокс ситуации в том, что жесткая политика США может дать обратный эффект. Вместо ослабления конкурента она толкает компании и страны к еще большему сближению с Китаем. Визит Хуанга в Пекин – яркое тому подтверждение. Бизнес идет туда, где есть возможности, а они сейчас всё чаще оказываются за пределами американской сферы влияния.
Главный герой триллера, который разворачивается на рынке чипов для ИИ после введения администрацией Трампа тарифов – компания Nvidia, оказавшаяся между молотом американских санкций и наковальней китайского рынка.
Несмотря на якобы состоявшиеся секретные переговоры и объявленные планы о полутрилионных инвестициях в США – новая администрация внезапно запретила поставки в Китай чипов H20, созданных специально с учетом предыдущих ограничений. Результат для компании – прогнозируемые убытки в 5,5 миллиардов долларов и падение акций.
Что делает CEO Nvidia Дженсен Хуанг? То, что сделал бы любой прагматичный бизнесмен – летит в Пекин. Сразу после сокрушительного удара по бизнесу он встречается с вице-премьером Китая и руководством DeepSeek – той самой компании, из-за которой, возможно, и усилили санкции. Ведь есть подозрение, что DeepSeek тренировали свои языковые модели на чипах, которые, по идее, не должны были оказаться в Китае.
Конгресс США в это время бьет тревогу. Как запрещенные H800 попали в китайские руки? Не через Сингапур ли, где недавно арестовали несколько человек за подделку документов о конечных пользователях чипов Nvidia? Законодатели требуют от Хуанга объяснений и отчетов о всех поставках в Юго-Восточную Азию и Китай с 2020 года.
Nvidia оказалась в ловушке: с одной стороны, национальные интересы США и обязательство «следовать указаниям правительства буквально», с другой – огромный китайский рынок, который Хуанг публично называет «очень важным» для компании.
Парадокс ситуации в том, что жесткая политика США может дать обратный эффект. Вместо ослабления конкурента она толкает компании и страны к еще большему сближению с Китаем. Визит Хуанга в Пекин – яркое тому подтверждение. Бизнес идет туда, где есть возможности, а они сейчас всё чаще оказываются за пределами американской сферы влияния.


18.04.202511:37
В США хотят запретить открытый ИИ?
В 2024 году китайские военные исследователи, связанные с НОАК, на основе открытой модели LLaMA сделали инструмент ChatBIT для военных. Америке это не понравилось.
В Соединённых штатах есть множество небольших стартапов, которые строят экосистему открытых моделей. EleutherAI с моделями GPT-Neo и GPT-J (иронично называемые «открытой» версией OpenAI), Together AI с инфраструктурой для LLaMA и Mixtral, Hugging Face с библиотекой Transformers (которые превратились в настоящее сердце сообщества открытого ИИ), и так далее. Они вносят огромный вклад в развитие сообщества, и раньше считалось, что открытый код – это благо.
Правда, когда те самые открытые модели из США стали попадать в руки геополитических противников, сделавших на их основе свои решения – администрация такого развития событий не оценила. С приходом Трампа в стране возобновились дискуссии о рисках и минусах открытого ИИ.
С плюсами никто не спорит – открытые модели позволяют исследователям изучать их работу, выявлять уязвимости и решать этические проблемы, легко доступны для стартапов и бизнеса, предотвращают монополизацию рынка и способствуют развитию технологий. Но, как бывает в таких случаях, риски в глазах регуляторов могут перевесить плюсы.
О каких рисках идёт речь?
• Неконтролируемое распространение – в отличие от закрытых систем, открытые модели невозможно «отозвать» после публикации и любые найденные уязвимости остаются в них навсегда.
• Дипфейки и дезинформация – свободный доступ к технологиям создания дипфейков позволяет манипулировать общественным мнением.
• Бэкдоры – в открытых моделях из других стран (в частности, Китая) могут быть встроены скрытые уязвимости. Этот пункт стал актуальным на фоне мирового взлёта DeepSeek.
• Кибератаки и автономное оружие – открытые инструменты ИИ могут быть использованы для кибератак, создания систем вооружения и других действий, подрывающих национальную безопасность. Этот момент беспокоит власти США больше всего.
К счастью, о полном запрете открытого ИИ пока речи не идёт – да и вряд ли это возможно. В США рассматриваются разные опции. Золотой серединой считают регулирование, которое сохраняет преимущества открытости, но минимизирует риски – например, через ограничения на самые мощные модели или специфические области применения, представляющие явную угрозу безопасности.
В 2024 году китайские военные исследователи, связанные с НОАК, на основе открытой модели LLaMA сделали инструмент ChatBIT для военных. Америке это не понравилось.
В Соединённых штатах есть множество небольших стартапов, которые строят экосистему открытых моделей. EleutherAI с моделями GPT-Neo и GPT-J (иронично называемые «открытой» версией OpenAI), Together AI с инфраструктурой для LLaMA и Mixtral, Hugging Face с библиотекой Transformers (которые превратились в настоящее сердце сообщества открытого ИИ), и так далее. Они вносят огромный вклад в развитие сообщества, и раньше считалось, что открытый код – это благо.
Правда, когда те самые открытые модели из США стали попадать в руки геополитических противников, сделавших на их основе свои решения – администрация такого развития событий не оценила. С приходом Трампа в стране возобновились дискуссии о рисках и минусах открытого ИИ.
С плюсами никто не спорит – открытые модели позволяют исследователям изучать их работу, выявлять уязвимости и решать этические проблемы, легко доступны для стартапов и бизнеса, предотвращают монополизацию рынка и способствуют развитию технологий. Но, как бывает в таких случаях, риски в глазах регуляторов могут перевесить плюсы.
О каких рисках идёт речь?
• Неконтролируемое распространение – в отличие от закрытых систем, открытые модели невозможно «отозвать» после публикации и любые найденные уязвимости остаются в них навсегда.
• Дипфейки и дезинформация – свободный доступ к технологиям создания дипфейков позволяет манипулировать общественным мнением.
• Бэкдоры – в открытых моделях из других стран (в частности, Китая) могут быть встроены скрытые уязвимости. Этот пункт стал актуальным на фоне мирового взлёта DeepSeek.
• Кибератаки и автономное оружие – открытые инструменты ИИ могут быть использованы для кибератак, создания систем вооружения и других действий, подрывающих национальную безопасность. Этот момент беспокоит власти США больше всего.
К счастью, о полном запрете открытого ИИ пока речи не идёт – да и вряд ли это возможно. В США рассматриваются разные опции. Золотой серединой считают регулирование, которое сохраняет преимущества открытости, но минимизирует риски – например, через ограничения на самые мощные модели или специфические области применения, представляющие явную угрозу безопасности.


18.04.202504:07
Утренний #нейротрек
17.04.202510:07
Пост про думающие модели вышел как нельзя кстати – OpenAI выпустили модели o3 и o4-mini
Из важных улучшений – флагманская модель o3 обрабатывает изображения во время размышлений и может взаимодействовать с загруженными фотографиями. Обещают, что поймёт даже чертёж на салфетке или схемы в низком разрешении. Это не совсем нововведение – то же самое умели делать и раньше мультимодальные модели вроде 4o, или работающие в связке VLM и LLM модели, но теперь этот процесс встраивается в «рассуждения» модели.
Самое важное нововведение – обучение моделей происходило с учётом инструментов, которые есть в ChatGPT. Они могут во время ответа искать данные в Интернете, писать код на Python для вычислений, генерировать графики или изображения – и всё это также встраивается в процесс «рассуждения».
Примечательно, что o3 чуть не осталась в лабораториях навсегда. Сэм Альтман, глава OpenAI, изначально планировал направить ресурсы на более продвинутую альтернативу, но, похоже, давление конкурентов – Google, Meta, Anthropic и других – вынудило компанию изменить курс.
Модель неплохо справляется с задачами, хотя на простые вопросы иногда может отвечать несколько десятков секунд. При этом обе модели активно убеждают пользователя в правильности своего ответа, даже когда сильно ошибаются. Почему? Потому что убеждают себя раз за разом во время «рассуждений», что правы, и по итогу не могут сказать «Я не знаю».
В ближайшие недели ожидается выход o3-pro – еще более мощной версии, использующей дополнительные вычислительные ресурсы. А в перспективе все эти наработки должны объединиться в GPT-5 – гибридную модель, которая соединит традиционные возможности с новыми функциями рассуждения. И вот она как раз выглядит наиболее перспективной – возможность использовать и встроенные инструменты, и рассуждения, и скорость ответа обычной модели – всё в рамках одного решения.
Из важных улучшений – флагманская модель o3 обрабатывает изображения во время размышлений и может взаимодействовать с загруженными фотографиями. Обещают, что поймёт даже чертёж на салфетке или схемы в низком разрешении. Это не совсем нововведение – то же самое умели делать и раньше мультимодальные модели вроде 4o, или работающие в связке VLM и LLM модели, но теперь этот процесс встраивается в «рассуждения» модели.
Самое важное нововведение – обучение моделей происходило с учётом инструментов, которые есть в ChatGPT. Они могут во время ответа искать данные в Интернете, писать код на Python для вычислений, генерировать графики или изображения – и всё это также встраивается в процесс «рассуждения».
Примечательно, что o3 чуть не осталась в лабораториях навсегда. Сэм Альтман, глава OpenAI, изначально планировал направить ресурсы на более продвинутую альтернативу, но, похоже, давление конкурентов – Google, Meta, Anthropic и других – вынудило компанию изменить курс.
Модель неплохо справляется с задачами, хотя на простые вопросы иногда может отвечать несколько десятков секунд. При этом обе модели активно убеждают пользователя в правильности своего ответа, даже когда сильно ошибаются. Почему? Потому что убеждают себя раз за разом во время «рассуждений», что правы, и по итогу не могут сказать «Я не знаю».
В ближайшие недели ожидается выход o3-pro – еще более мощной версии, использующей дополнительные вычислительные ресурсы. А в перспективе все эти наработки должны объединиться в GPT-5 – гибридную модель, которая соединит традиционные возможности с новыми функциями рассуждения. И вот она как раз выглядит наиболее перспективной – возможность использовать и встроенные инструменты, и рассуждения, и скорость ответа обычной модели – всё в рамках одного решения.


Records
26.04.202523:59
256Subscribers28.02.202523:10
167Citation index07.04.202512:08
6.5KAverage views per post06.04.202512:08
6.5KAverage views per ad post06.02.202516:55
31.82%ER23.01.202523:59
5806.25%ERRGrowth
Subscribers
Citation index
Avg views per post
Avg views per ad post
ER
ERR
History of channel changes
Log in to unlock more functionality.