Қайта жіберілді:
эйай ньюз



25.04.202513:30
OpenAI дали бесплатный доступ к облегчённому Deep Research
Новая lightweight модель, основанная на o4-mini, позволила дать доступ всем пользователям, даже бесплатным. Бенчмарк дали ровно один — по нему новая модель чуть хуже по качеству чем обычный Deep Research, но даёт заметное улучшение по сравнению с o4-mini, при этом отставая от o3. Но, в отличие от o3, lightweight модель даёт формат deep research, который местами очень нужен.
Доступ уже раскатывают, но доступно всё ещё не всем, дают пять запросов в месяц (до апдейта Plus подписчикам давали 10). Платных пользователей тоже не оставили в обиде — после того как истекают запросы к большому Deep Research, пользователей переключают на облегчённую версию. Это позволило увеличить лимиты с 10 до 25 на Plus и Team подписке и с 100 до 250 на Pro подписке, правда лимит теперь для обеих моделей.
Что-то много у них релизов на этой неделе, похоже OpenAI получили гигантскую поставку GPU
@ai_newz
Новая lightweight модель, основанная на o4-mini, позволила дать доступ всем пользователям, даже бесплатным. Бенчмарк дали ровно один — по нему новая модель чуть хуже по качеству чем обычный Deep Research, но даёт заметное улучшение по сравнению с o4-mini, при этом отставая от o3. Но, в отличие от o3, lightweight модель даёт формат deep research, который местами очень нужен.
Доступ уже раскатывают, но доступно всё ещё не всем, дают пять запросов в месяц (до апдейта Plus подписчикам давали 10). Платных пользователей тоже не оставили в обиде — после того как истекают запросы к большому Deep Research, пользователей переключают на облегчённую версию. Это позволило увеличить лимиты с 10 до 25 на Plus и Team подписке и с 100 до 250 на Pro подписке, правда лимит теперь для обеих моделей.
Что-то много у них релизов на этой неделе, похоже OpenAI получили гигантскую поставку GPU
@ai_newz
Қайта жіберілді:
AI Product | Igor Akimov



24.04.202513:47
Воу, вот что конкуренция животворящая делает.
OpenAI накинул дип ресерчей в Plus подписку, теперь 25 в месяц, а не 10
OpenAI накинул дип ресерчей в Plus подписку, теперь 25 в месяц, а не 10


24.04.202510:55
Hunyuan 2.5: 3D-генераторы. Гонка продолжается. Часть 2
Нашел видео со сравнением 2.0 и 2.5: видно, что детали и грани стали резче, а мыла меньше. 2.0 справа.
Но как пишут в сети, топология по-прежнему адъ. И он также не умеет в моделинг по частям (о чем уже заявили Deemos Tech (Rodin) и Tripo 3D.
Автор пишет, что детали реально лучше, чем у Trellis и Tripo, но проклинает топологию.
@cgevent
Нашел видео со сравнением 2.0 и 2.5: видно, что детали и грани стали резче, а мыла меньше. 2.0 справа.
Но как пишут в сети, топология по-прежнему адъ. И он также не умеет в моделинг по частям (о чем уже заявили Deemos Tech (Rodin) и Tripo 3D.
Автор пишет, что детали реально лучше, чем у Trellis и Tripo, но проклинает топологию.
@cgevent
23.04.202511:09
Перевод AI Index 2025 от Стэнфордского университета
Лидеры венчура. США - $109,1 млрд (в 12 раз больше, чем Китай с $9,3 млрд, и в 24 раз больше, чем Великобритания с $4,5 млрд).
Выигрыши. 49% отметили экономию в сервисных операциях, 71% - рост выручки в маркетинге и продажах.
Робототехника. В Китае установлено >276 300 промышленных роботов (51,1% мирового рынка, 2023).
Готовность учителей. 81% считают, что основы ИИ нужно учить в школе, но менее половины уверены в готовности преподавать ML и LLM.
https://habr.com/ru/amp/publications/902602/
Лидеры венчура. США - $109,1 млрд (в 12 раз больше, чем Китай с $9,3 млрд, и в 24 раз больше, чем Великобритания с $4,5 млрд).
Выигрыши. 49% отметили экономию в сервисных операциях, 71% - рост выручки в маркетинге и продажах.
Робототехника. В Китае установлено >276 300 промышленных роботов (51,1% мирового рынка, 2023).
Готовность учителей. 81% считают, что основы ИИ нужно учить в школе, но менее половины уверены в готовности преподавать ML и LLM.
https://habr.com/ru/amp/publications/902602/
22.04.202516:40
Тут на https://wan.video/ раздают бесплатную видеогенерацию в Relax Mode.
Говорят, что с 23 апреля All users can create stunning videos and images entirely free with Relax Mode.
Непонятно, сколько будет время ожидания, может час, а может сутки.
@cgevent
Говорят, что с 23 апреля All users can create stunning videos and images entirely free with Relax Mode.
Непонятно, сколько будет время ожидания, может час, а может сутки.
@cgevent
22.04.202508:14
Vidu Q1: Сорри, я опять с этими видеогенераторами.
Китайцев покусал OpenAI и после версии Vidu 2.0 они выпустили версию Q1. Во втором квартале.
Что нового:
Сильно прибрали мыло.
Первый и последний кадр.
Звук и звуковые эффекты.
1080р
24fps
Можно и нужно тестировать, тем более, что по промокоду VIDUQ1 дают +100 кредитов на новый акк(тоже 100), плюс наваливают ещё немного(20) каждый день.
https://www.vidu.com/
@cgevent
Китайцев покусал OpenAI и после версии Vidu 2.0 они выпустили версию Q1. Во втором квартале.
Что нового:
Сильно прибрали мыло.
Первый и последний кадр.
Звук и звуковые эффекты.
1080р
24fps
Можно и нужно тестировать, тем более, что по промокоду VIDUQ1 дают +100 кредитов на новый акк(тоже 100), плюс наваливают ещё немного(20) каждый день.
https://www.vidu.com/
@cgevent
25.04.202511:45
Нейропрожарка.
В чате родилась идея разбирать работы подписчиков. Не в духе "ойчоиисделал", а с деталями, как делалось, сколько делалось, чем делалось, где была боль.
Правила. Сначала плюсы, потом минусы. Строго по делу. Не дай бог увижу переход на личности, забаню сразу. Советы в форме "я бы делал так".
Итак, нейропомолясь, начнем с Максима.
Генеряшки всем и каждому! Это как гимн генеративщиков. Когда ты начал генерить, жизнь уже не будет прежней. Ключевое — это исследование, а что там интересного можно погенерить в ChatGPT/Sora, когда они только вышли. Еще цель была протестировать инструменты для сохранения консистентности без обучения LoRa и других дополнительных технических пунктов.
> Придумал продукт — генеряшки, использовал образ своего персонажа с аватарки в блоге. Создал дизайн упаковки, было больше 20 вариантов, благодаря возможности писать тексты на кириллице, можно не открывать фотошоп.
Придал им форму — желейных человечков. Отдельно разработаны и человечки и упаковка чтобы оптом упоминаться в соответствующих сценах.
> Консистентность главного персонажа сохранял: создание персонажа в разных проекциях в GPT (здесь и далее — все изображения там или в Соре) > использование его во всех необходимых сценах.
> Делал много рестайлов в разных форматах, чтобы показать как человек начинает генерить, пробовать то то то это. Запустил его бегать по миру генераций с безумными глазами.
> Музыка делалась в Suno.
> Озвучка в Minimax Audio. Любопытное решение, там есть классные голоса и по интонации порой оказывается очень здорово.
> Использовались нейросети: Kling (90%), Runway (круто для 8-биток), одна сцена в Sora и одна в Minimax. Все изображения в ChatGPT/Sora.
Одна из главных трудностей была заставить девушку жевать ) Откусить консистентно и жевать. Здесь в чате с ребятами перепробовали все генераторы на этой задаче. И потом в тесте нового Клинг 2.0 он показал, что задача может быть решена. Но это было уже после выхода видео)
За счет специфики по скорости генерации изображений, видео делалось часов 10.
Обсуждаем и спрашиваем в коментах.
@cgevent
В чате родилась идея разбирать работы подписчиков. Не в духе "ойчоиисделал", а с деталями, как делалось, сколько делалось, чем делалось, где была боль.
Правила. Сначала плюсы, потом минусы. Строго по делу. Не дай бог увижу переход на личности, забаню сразу. Советы в форме "я бы делал так".
Итак, нейропомолясь, начнем с Максима.
Генеряшки всем и каждому! Это как гимн генеративщиков. Когда ты начал генерить, жизнь уже не будет прежней. Ключевое — это исследование, а что там интересного можно погенерить в ChatGPT/Sora, когда они только вышли. Еще цель была протестировать инструменты для сохранения консистентности без обучения LoRa и других дополнительных технических пунктов.
> Придумал продукт — генеряшки, использовал образ своего персонажа с аватарки в блоге. Создал дизайн упаковки, было больше 20 вариантов, благодаря возможности писать тексты на кириллице, можно не открывать фотошоп.
Придал им форму — желейных человечков. Отдельно разработаны и человечки и упаковка чтобы оптом упоминаться в соответствующих сценах.
> Консистентность главного персонажа сохранял: создание персонажа в разных проекциях в GPT (здесь и далее — все изображения там или в Соре) > использование его во всех необходимых сценах.
> Делал много рестайлов в разных форматах, чтобы показать как человек начинает генерить, пробовать то то то это. Запустил его бегать по миру генераций с безумными глазами.
> Музыка делалась в Suno.
> Озвучка в Minimax Audio. Любопытное решение, там есть классные голоса и по интонации порой оказывается очень здорово.
> Использовались нейросети: Kling (90%), Runway (круто для 8-биток), одна сцена в Sora и одна в Minimax. Все изображения в ChatGPT/Sora.
Одна из главных трудностей была заставить девушку жевать ) Откусить консистентно и жевать. Здесь в чате с ребятами перепробовали все генераторы на этой задаче. И потом в тесте нового Клинг 2.0 он показал, что задача может быть решена. Но это было уже после выхода видео)
За счет специфики по скорости генерации изображений, видео делалось часов 10.
Обсуждаем и спрашиваем в коментах.
@cgevent


24.04.202512:23
"Одни из нас". Второй эпизод второго сезона.
Ну как так! У них совесть есть?! Что ж такое!
Ну как так! У них совесть есть?! Что ж такое!


23.04.202520:02
Кстати, генерацию с помощью модели gpt-image-1 завезут в Адобченко (Firefly и Express), Фигму, и даже в Heygen.
Непонятно, что будет с тарифами и подписками. Но скоро все затащат это к себе.
Почитайте тут, куда уже вонзают эту модель по API:
https://x.com/OpenAIDevs/status/1915097073743008241
@cgevent
Непонятно, что будет с тарифами и подписками. Но скоро все затащат это к себе.
Почитайте тут, куда уже вонзают эту модель по API:
https://x.com/OpenAIDevs/status/1915097073743008241
@cgevent
23.04.202510:39
Кстати, Gemini и chatGPT умеют компилировать статьи в формате Latex (кто из академии поймет).
И показывают его в Canvas
Надо просто попросить:
объясни мне формулы для аттрактора Лоренца, используй Latex для написания формул
Gemini отдает правильный код с первого раза, chatGPT (о3) отдал со второго.
Просто просите их отдать файл в формате Латех, а потом идете на
https://www.overleaf.com/ и вставляете (или открываете) там. Жмете Recompile.
П-Профит. В П-Пдф.
@cgevent
И показывают его в Canvas
Надо просто попросить:
объясни мне формулы для аттрактора Лоренца, используй Latex для написания формул
Gemini отдает правильный код с первого раза, chatGPT (о3) отдал со второго.
Просто просите их отдать файл в формате Латех, а потом идете на
https://www.overleaf.com/ и вставляете (или открываете) там. Жмете Recompile.
П-Профит. В П-Пдф.
@cgevent
22.04.202514:55
А зачем размениваться на какие-то сторонние сервисы для просмотра 3Д-моделей в предыдущем посте?
Идем в о3 и говорим:
а сейчас напиши мне код, для "OBJ VIEWER" который я смогу запустить в Canvаs и увидеть 3Д-модель. Там должна быть галочка "включить показ edges" ну или wireframe mode
сделай кнопку загрузить с компьютера
Бах! В канвасе, который он сам же и открыл появляется код на реакте и кнопка Preview. Жмем ея, видим наш 3D-viewer, загружаем нашу маску лица, включаем галку wireframe - и все работает!
Год назад разговор зумеров: слушай, есть такие прикольные аппки для вот этого и этого и этого.
Через год от сейчас: хочу аппку, которая делает вот это.
АПАЖАЛСТА!
@cgevent
Идем в о3 и говорим:
а сейчас напиши мне код, для "OBJ VIEWER" который я смогу запустить в Canvаs и увидеть 3Д-модель. Там должна быть галочка "включить показ edges" ну или wireframe mode
сделай кнопку загрузить с компьютера
Бах! В канвасе, который он сам же и открыл появляется код на реакте и кнопка Preview. Жмем ея, видим наш 3D-viewer, загружаем нашу маску лица, включаем галку wireframe - и все работает!
Год назад разговор зумеров: слушай, есть такие прикольные аппки для вот этого и этого и этого.
Через год от сейчас: хочу аппку, которая делает вот это.
АПАЖАЛСТА!
@cgevent
25.04.202509:43
Король умер, да здравствует король!
Протестировал новую версию китайского 3D-генератора Hunyuan 2.5.
Итак, лягушка. Первое, на что бросается в глаза — адаптивная детализация, полигонов больше там, где они действительно нужны. Сетка отлично следует за формой — это особенно заметно по сердцу и орнаменту. Впервые на моей памяти нейронка так хорошо построила рельеф. Модель получилась симметричной, без видимых артефактов вроде дыр и пересечений. Только на лапе почему-то появилась неуместная ямка.
Текстура выглядит хуже. Задняя часть представляет собой сплошной визуальный шум, и даже спереди на сердце видны артефакты.
У предыдущих поколений image-to-3D моделей ворон либо получался неровным, либо симметричным, но с раздвоенным клювом. Просто отзеркалить фигурку по вертикальной оси нельзя, однако Hunyuan 2.5 в основном справляется: укладка перьев симметричная, при этом голова выглядит вполне естественно. Впрочем, на затылке рельеф отсутствует, а на правой лапе обнаружился лишний палец. Текстуры тоже далеки от идеала и не передают особенностей оригинальной картинки.
Фигурка Ктулху также приятно удивляет детализацией и симметричностью. Сетка немного хаотичная, но органические формы переданы реалистично. Текстура покрыта шумными деталями, однако судя по бликам, roughness map удался неплохо.
Подведем итоги. Сравнение с предыдущей серией экспериментов (8 моделей, Tripo3d, TRELLIS) говорит само за себя. Прирост в качестве значительный. Лягушку и Ктулху можно спокойно печатать на 3D-принтере без постобработки. Такими темпами вскоре придется обновлять тест, добавляя сложные формы, например, скульптуры людей.
Сейчас этот генератор доступен онлайн по адресу 3d.hunyuan.tencent.com (осторожно, интерфейс на китайском) и позволяет создавать до 20 моделей в день. А еще есть надежда на релиз в open source. По крайней мере, версия 2.0 представлена в pinokio и запускается на достаточно широком наборе конфигураций железа.
#нейронки #imageto3d #DIY
Протестировал новую версию китайского 3D-генератора Hunyuan 2.5.
Итак, лягушка. Первое, на что бросается в глаза — адаптивная детализация, полигонов больше там, где они действительно нужны. Сетка отлично следует за формой — это особенно заметно по сердцу и орнаменту. Впервые на моей памяти нейронка так хорошо построила рельеф. Модель получилась симметричной, без видимых артефактов вроде дыр и пересечений. Только на лапе почему-то появилась неуместная ямка.
Текстура выглядит хуже. Задняя часть представляет собой сплошной визуальный шум, и даже спереди на сердце видны артефакты.
У предыдущих поколений image-to-3D моделей ворон либо получался неровным, либо симметричным, но с раздвоенным клювом. Просто отзеркалить фигурку по вертикальной оси нельзя, однако Hunyuan 2.5 в основном справляется: укладка перьев симметричная, при этом голова выглядит вполне естественно. Впрочем, на затылке рельеф отсутствует, а на правой лапе обнаружился лишний палец. Текстуры тоже далеки от идеала и не передают особенностей оригинальной картинки.
Фигурка Ктулху также приятно удивляет детализацией и симметричностью. Сетка немного хаотичная, но органические формы переданы реалистично. Текстура покрыта шумными деталями, однако судя по бликам, roughness map удался неплохо.
Подведем итоги. Сравнение с предыдущей серией экспериментов (8 моделей, Tripo3d, TRELLIS) говорит само за себя. Прирост в качестве значительный. Лягушку и Ктулху можно спокойно печатать на 3D-принтере без постобработки. Такими темпами вскоре придется обновлять тест, добавляя сложные формы, например, скульптуры людей.
Сейчас этот генератор доступен онлайн по адресу 3d.hunyuan.tencent.com (осторожно, интерфейс на китайском) и позволяет создавать до 20 моделей в день. А еще есть надежда на релиз в open source. По крайней мере, версия 2.0 представлена в pinokio и запускается на достаточно широком наборе конфигураций железа.
#нейронки #imageto3d #DIY


24.04.202511:18
Hunyuan 2.5: 3D-генераторы. Гонка продолжается. Часть 4
Диванные мысли. Гонка 3Д-генераторов сейчас в самом разгаре. Этакий 2023 года для картинок.
В отличие от картинок, где сейчас битва идет уже за конкретные детали(текст, пальцы, лица) и пост-редактирование, у 3Д-генераторов все впереди.
Ибо порождение 3Д-сетки - это не финальный, а более чем промежуточный результат, я бы даже сказал, начальный. Ведь дальше эту 3Д-модель (в отличие от картинок) рано показывать пользователю\миру, а предстоит отправить в длинный пайплайн:
Ретопология
Развертка UV
Текстурирование до годного (разрешения)
Риг
Скиннинг
Лицевой риг(отдельная тема)
Если ваши фантазии не идут дальше 3Д-принтера или расстановки болванов в метаверсике или VR, то вы почти у цели.
Но взрослые мальчики ожидают, что весь этот взрослыйпайплайн постепенно будет пристегиваться к 3Д-генераторам.
И тут я опять взвою вопросом: будут ли Deemos, Tripo, Hunyuan или Trellis изобретать свою Web-Maya или Nano-Blender внутри своих платформ, или кто-то типа Адобченко с готовым 3Д на борту прикрутит генерацию внутри имеющихся пайплайнов.
Понятно, что путь опенсорса лежит через плагины к Блендору.
Но я также подозреваю, что кто-то из больших игроков рано или поздно прикупит один из 3Д-генераторов и сделает свое решение.
Например Фрипик или Креа, у которых очень много денег сейчас.
@cgevent
Диванные мысли. Гонка 3Д-генераторов сейчас в самом разгаре. Этакий 2023 года для картинок.
В отличие от картинок, где сейчас битва идет уже за конкретные детали(текст, пальцы, лица) и пост-редактирование, у 3Д-генераторов все впереди.
Ибо порождение 3Д-сетки - это не финальный, а более чем промежуточный результат, я бы даже сказал, начальный. Ведь дальше эту 3Д-модель (в отличие от картинок) рано показывать пользователю\миру, а предстоит отправить в длинный пайплайн:
Ретопология
Развертка UV
Текстурирование до годного (разрешения)
Риг
Скиннинг
Лицевой риг(отдельная тема)
Если ваши фантазии не идут дальше 3Д-принтера или расстановки болванов в метаверсике или VR, то вы почти у цели.
Но взрослые мальчики ожидают, что весь этот взрослыйпайплайн постепенно будет пристегиваться к 3Д-генераторам.
И тут я опять взвою вопросом: будут ли Deemos, Tripo, Hunyuan или Trellis изобретать свою Web-Maya или Nano-Blender внутри своих платформ, или кто-то типа Адобченко с готовым 3Д на борту прикрутит генерацию внутри имеющихся пайплайнов.
Понятно, что путь опенсорса лежит через плагины к Блендору.
Но я также подозреваю, что кто-то из больших игроков рано или поздно прикупит один из 3Д-генераторов и сделает свое решение.
Например Фрипик или Креа, у которых очень много денег сейчас.
@cgevent
Қайта жіберілді:
эйай ньюз



23.04.202519:19
OpenAI запустили API для генерации картинок через GPT
Модель обозвали GPT-Image-1. Кроме резолюшена позволяют выбрать и качество — от low до high. Крайне вероятно что это как-то обозначает именно количество ризонинга, а не количество шагов дифузии.
Прайсинг может кусаться — цена на high quality может доходить до 25 центов за картинку. Для сравнения: за картинку из Imagen 3 или HiDream-I1-Dev просят 3 цента, за Recraft V3 — 4 цента. Но это не означает что GPT не может конкурировать по цене — low режим стоит всего 1-2 цента за картинку, а medium в районе 7.
Как сильно отличаются картинки на разных уровнях качества — пока непонятно. В любом случае, GPT-Image-1 куда гибче конкурентов из-за своей архитектуры, то есть даже low качество может быть очень полезным. А за high качество, в отсутствии конкуренции, заламывать можно очень высокие цены. Появится конкуренция — цены заметно скинут, маржа у OpenAI такое позволяет, ждём Gemini 2.5 Pro Image Generation.
@ai_newz
Модель обозвали GPT-Image-1. Кроме резолюшена позволяют выбрать и качество — от low до high. Крайне вероятно что это как-то обозначает именно количество ризонинга, а не количество шагов дифузии.
Прайсинг может кусаться — цена на high quality может доходить до 25 центов за картинку. Для сравнения: за картинку из Imagen 3 или HiDream-I1-Dev просят 3 цента, за Recraft V3 — 4 цента. Но это не означает что GPT не может конкурировать по цене — low режим стоит всего 1-2 цента за картинку, а medium в районе 7.
Как сильно отличаются картинки на разных уровнях качества — пока непонятно. В любом случае, GPT-Image-1 куда гибче конкурентов из-за своей архитектуры, то есть даже low качество может быть очень полезным. А за high качество, в отсутствии конкуренции, заламывать можно очень высокие цены. Появится конкуренция — цены заметно скинут, маржа у OpenAI такое позволяет, ждём Gemini 2.5 Pro Image Generation.
@ai_newz


23.04.202509:58
Эпоха уходит: Небольшой оффтоп.
Подводка: был такой гиковатый анекдот, что после смерти Джанни Версаче, Интел нанял команду маркетологов оттуда, чтобы внести полный хаос в именование своих модельных рядов.
Действительно, как просто было в 90-х. Я начинал свои эксперименты с Turbo-C на компе с процессором Intel 8086 XT и монохромным дисплеем Hercules с CGA разрешением 320х240.
Потом пересел на "атишку" 286 AT и был в восторге от EGA\VGA с разрешением 640х480.
Симуляция аэродинамики работала у меня в реалтайме(!).
Потом был 386-ой, а потом, о боги, появился 486-ой, который молотил с невероятной скоростью (которая ниже любого нынешнего телефона).
А потом случился .. Pentum. И что-то пошло не так.
Чтобы купить новый процессор Интел, надо было продираться свозь десятки наименований в модельном ряду чипов. А подбор мамы, памяти, блока питания стал темой для Deep Research.
Все эти заклинания i3/i5/i7/i9-14980/K/S/X/H/T/P/Y/F/G/U требовали погружения в тему.
Эпоха простых выборов ушла.
А сейчас читаю новость о том, что Intel объявит об увольнении более 21 000 сотрудников, что составляет 20 процентов от общего числа работников, на этой неделе, и понимаю, что мир железа меняется еще более стремительно.
У меня до сих пор есть две машинки Intel Nuke, в одной из который видеокарта Vega от AMD, а во второй RTX 3060 12 GB. Работают как часы.
И глядя на то, как уходит эпоха Intel мне немного грустно.
Хотя, как я уже писал, в нашем ИИ пузыре, сердцем вычислений становятся видеокарты, и главным критерием выбора оных, становится объем видеопамяти, а не частотки или бенчмарки. Есть память - есть скорость.
Мир изменился, это классно, но небольшая ностальгия не помешает для того, чтобы ощутить, как мы зажрались, перебирая щами и нытьём типа "долго считается, не хватает памяти, и пр"
Я вот радуюсь, что в облаке теперь можно попробовать любую, самую быструю вычислительную дурь, за ничтожные деньги.
Кстати, на runpod завезли 5090...
Ну, за Интел, добрым словом.
https://wccftech.com/intel-to-reportedly-announce-the-layoff-of-over-21000-employees-equal-to-20-percent-of-its-workforce-this-week/
@cgevent
Подводка: был такой гиковатый анекдот, что после смерти Джанни Версаче, Интел нанял команду маркетологов оттуда, чтобы внести полный хаос в именование своих модельных рядов.
Действительно, как просто было в 90-х. Я начинал свои эксперименты с Turbo-C на компе с процессором Intel 8086 XT и монохромным дисплеем Hercules с CGA разрешением 320х240.
Потом пересел на "атишку" 286 AT и был в восторге от EGA\VGA с разрешением 640х480.
Симуляция аэродинамики работала у меня в реалтайме(!).
Потом был 386-ой, а потом, о боги, появился 486-ой, который молотил с невероятной скоростью (которая ниже любого нынешнего телефона).
А потом случился .. Pentum. И что-то пошло не так.
Чтобы купить новый процессор Интел, надо было продираться свозь десятки наименований в модельном ряду чипов. А подбор мамы, памяти, блока питания стал темой для Deep Research.
Все эти заклинания i3/i5/i7/i9-14980/K/S/X/H/T/P/Y/F/G/U требовали погружения в тему.
Эпоха простых выборов ушла.
А сейчас читаю новость о том, что Intel объявит об увольнении более 21 000 сотрудников, что составляет 20 процентов от общего числа работников, на этой неделе, и понимаю, что мир железа меняется еще более стремительно.
У меня до сих пор есть две машинки Intel Nuke, в одной из который видеокарта Vega от AMD, а во второй RTX 3060 12 GB. Работают как часы.
И глядя на то, как уходит эпоха Intel мне немного грустно.
Хотя, как я уже писал, в нашем ИИ пузыре, сердцем вычислений становятся видеокарты, и главным критерием выбора оных, становится объем видеопамяти, а не частотки или бенчмарки. Есть память - есть скорость.
Мир изменился, это классно, но небольшая ностальгия не помешает для того, чтобы ощутить, как мы зажрались, перебирая щами и нытьём типа "долго считается, не хватает памяти, и пр"
Я вот радуюсь, что в облаке теперь можно попробовать любую, самую быструю вычислительную дурь, за ничтожные деньги.
Кстати, на runpod завезли 5090...
Ну, за Интел, добрым словом.
https://wccftech.com/intel-to-reportedly-announce-the-layoff-of-over-21000-employees-equal-to-20-percent-of-its-workforce-this-week/
@cgevent
22.04.202514:46
Ну что, за 3Д-генераторы и MCP? Пока нет.
Идем в 4о или о3 и говорим:
А сделай мне 3Д-модель стола в формате STL, чтобы я мог бахнуть его на 3Д-принтер.
Нивапрос, апажалста.
Смотрим, что он сделал идеальную топологию и спрашиваем:
Питонг?
Угу. Хочешь ящик добавлю.
Довай!
Становится понятно, что он использует trimesh разные процедурные дела, чтобы сделать вот такие вот модельки.
Усложняем задачу:
Сгенерирую маску лица на 5000 полигонов, также как ты генерируешь текстовые файлы в других форматах, не бойся ошибиться. если тебя пугает размер файла, давай сделаем в формате OBJ. Сделай вздох, подумай хорошо, посмотри в интернете как устроены человеческие лица в программах типа Zbrush и сделай хорошую маску в формате OBJ на 4000 полигонов.
Задумался "The user wants a manually created STL file, so my first instinct is to avoid algorithmic generation. "
Держи!
В общем, держите, лицо от chatGPT - он художник, он так видит. Чолка зачотная.
Хошь, говорит, глазки вырежу?
Довай.
Понятно, что процедурно, вы сможете попросить его сделать довольно сложные вещи кодом и он сделает (кстати, надо попробовать попросить написать geometry nodes для Блендора). И тут вам даже не нужен MCP, если у вас хорошо подвешен язык и есть понимание как работает 3Д (это универсальное правило про MCP).
Но он честно пытается помять плоскость и выдавить маску лица! Мне это сильно напоминает работы студентов в Maya, когда я давал им сферу и возможность кисточками выдавить маску лица (sculpting), он просто еще двухлетка и плохо держит кисть..
В общем, покуролесьте.
И держите https://3dviewer.net/index.html
@cgevent
Идем в 4о или о3 и говорим:
А сделай мне 3Д-модель стола в формате STL, чтобы я мог бахнуть его на 3Д-принтер.
Нивапрос, апажалста.
Смотрим, что он сделал идеальную топологию и спрашиваем:
Питонг?
Угу. Хочешь ящик добавлю.
Довай!
Становится понятно, что он использует trimesh разные процедурные дела, чтобы сделать вот такие вот модельки.
Усложняем задачу:
Сгенерирую маску лица на 5000 полигонов, также как ты генерируешь текстовые файлы в других форматах, не бойся ошибиться. если тебя пугает размер файла, давай сделаем в формате OBJ. Сделай вздох, подумай хорошо, посмотри в интернете как устроены человеческие лица в программах типа Zbrush и сделай хорошую маску в формате OBJ на 4000 полигонов.
Задумался "The user wants a manually created STL file, so my first instinct is to avoid algorithmic generation. "
Держи!
В общем, держите, лицо от chatGPT - он художник, он так видит. Чолка зачотная.
Хошь, говорит, глазки вырежу?
Довай.
Понятно, что процедурно, вы сможете попросить его сделать довольно сложные вещи кодом и он сделает (кстати, надо попробовать попросить написать geometry nodes для Блендора). И тут вам даже не нужен MCP, если у вас хорошо подвешен язык и есть понимание как работает 3Д (это универсальное правило про MCP).
Но он честно пытается помять плоскость и выдавить маску лица! Мне это сильно напоминает работы студентов в Maya, когда я давал им сферу и возможность кисточками выдавить маску лица (sculpting), он просто еще двухлетка и плохо держит кисть..
В общем, покуролесьте.
И держите https://3dviewer.net/index.html
@cgevent


19.04.202510:52
Вот мы все ждали кнопку "Сделать красиво".
Дождались. Но никто не обещал в дороге кормить и то, что кнопка будет одна!
Вы тоже мучаетесь?
Теперь ждём бальшую кнопку "Выбрать нужную кнопку".
Одну.
Ибо выбирать - не барское это дело. Свободу воли оставьте ИИ.
Нажимать, не мешки ворочать.
@cgevent
Дождались. Но никто не обещал в дороге кормить и то, что кнопка будет одна!
Вы тоже мучаетесь?
Теперь ждём бальшую кнопку "Выбрать нужную кнопку".
Одну.
Ибо выбирать - не барское это дело. Свободу воли оставьте ИИ.
Нажимать, не мешки ворочать.
@cgevent
25.04.202508:04
Veo2 - лучший
Рубрика крутые подписчики.
Тут Егор прислал коммерческий клип сделанный на Veo2. Я попросил его рассказать, как это было сделано, чтобы не было "смотрите чо нейросети творят".
Итак, слово Егору и его оценкам преимущества Veo2 над всеми остальными:
Давече решил обкатать на полную катушку Veo2 text2video, прилетел заказ на мини клип, для песни, на рекламный ролик. Такое мы любим,такое нам интересно,когда ещё проникаешься по вайбу в трек, так вообще огонь. Что удалось понять за данный эксперимент. Гугл явно сейчас в лидерах по генерации видео, тут вы можете спорить или нет, но даже новый Клинг 2.0 так не умеет, я его успел потестировать.
А именно, Veo2 круто помнимает промпт, он круто соблюдает атмсоферу видео и даже t2v, работает по персонажами, лучше чем драный Midjourney, который я так люблю и одновременно ненавижу за их наплевательское отношение,на все просьбы от их пользователей.
Так же отмечу, что это дороже, чем всё остальное, но всё еще в разы дешевле, чем организовывать съемку. И да, ждём от них нормальное разрешение, потому что выглядит круто, но качества не хватает.
Ушло примерно 4-5 дней. Чисто генерации на Veo2 и переходы Клинг Кейфрэйм. Только Txt2video, персонажа сохранял по детальному описанию внешности, выбирал максимально карикатурного, что бы было больше деталей, которые при бросании в глаза не сильно отвлекают от того, что он немного отличается.
Есть 2 подсъема от заказчика, на 2 секунды, которые с телефоном, приложением и наливанием воды из бутылки, остальное все генерации, всё Txt2video(ну кроме переходов в клинге, там первое и последнее изображение брал)
Хочу отметить, что радует малое количество брака, хоть и дорого, но обычно он очень хорошо понимает промпт, главное соблюдать в каждом кадре точное описание местности и персонажа. А ну и шакалит качество он знатно, так как у них пока максимально это 720р.
@cgevent
Рубрика крутые подписчики.
Тут Егор прислал коммерческий клип сделанный на Veo2. Я попросил его рассказать, как это было сделано, чтобы не было "смотрите чо нейросети творят".
Итак, слово Егору и его оценкам преимущества Veo2 над всеми остальными:
Давече решил обкатать на полную катушку Veo2 text2video, прилетел заказ на мини клип, для песни, на рекламный ролик. Такое мы любим,такое нам интересно,когда ещё проникаешься по вайбу в трек, так вообще огонь. Что удалось понять за данный эксперимент. Гугл явно сейчас в лидерах по генерации видео, тут вы можете спорить или нет, но даже новый Клинг 2.0 так не умеет, я его успел потестировать.
А именно, Veo2 круто помнимает промпт, он круто соблюдает атмсоферу видео и даже t2v, работает по персонажами, лучше чем драный Midjourney, который я так люблю и одновременно ненавижу за их наплевательское отношение,на все просьбы от их пользователей.
Так же отмечу, что это дороже, чем всё остальное, но всё еще в разы дешевле, чем организовывать съемку. И да, ждём от них нормальное разрешение, потому что выглядит круто, но качества не хватает.
Ушло примерно 4-5 дней. Чисто генерации на Veo2 и переходы Клинг Кейфрэйм. Только Txt2video, персонажа сохранял по детальному описанию внешности, выбирал максимально карикатурного, что бы было больше деталей, которые при бросании в глаза не сильно отвлекают от того, что он немного отличается.
Есть 2 подсъема от заказчика, на 2 секунды, которые с телефоном, приложением и наливанием воды из бутылки, остальное все генерации, всё Txt2video(ну кроме переходов в клинге, там первое и последнее изображение брал)
Хочу отметить, что радует малое количество брака, хоть и дорого, но обычно он очень хорошо понимает промпт, главное соблюдать в каждом кадре точное описание местности и персонажа. А ну и шакалит качество он знатно, так как у них пока максимально это 720р.
@cgevent
24.04.202511:03
Hunyuan 2.5: 3D-генераторы. Гонка продолжается. Часть 3
Если хотите посмотреть, как выглядит процесс от скетча до рига и анимации(!), то держите вот такой тред.
Там показано, как это все работает у них на сайте.
Идея прям правильная, все начинается именно с концептов, и тут представлен мета-пайплайн, близкий к студийному.
За кадром остается вопрос топологии, дальнейшей настройки рига и скининга и т.д.
@cgevent
Если хотите посмотреть, как выглядит процесс от скетча до рига и анимации(!), то держите вот такой тред.
Там показано, как это все работает у них на сайте.
Идея прям правильная, все начинается именно с концептов, и тут представлен мета-пайплайн, близкий к студийному.
За кадром остается вопрос топологии, дальнейшей настройки рига и скининга и т.д.
@cgevent


23.04.202518:14
Может ли ИИ заменить настоящую видеосъёмку? Мы это проверили.
Рубрика крутейшие подписчики.
Юру и Дениса я знаю примерно две тыщщи лет. Transparent House - это самая крутая студия продуктовой и архитектурной визуализации (и анимации) на северном побережье штатов. Просто поглядите на их сайт.
И вот пока мы тут в коментах хлещемся, какой генератор лучше, ребята взяли и провели тесты в реальном продакшене с очень высокими требованиями.
Hunyuan, Wan 2.1, Veo 2, Hailuo, 01-Live, Runway 4, Sora, Kling 1.6, Бонус: Luma (1/10)
Оригинальная статья тут:
https://www.transparenthouse.com/post/can-ai-replace-a-real-shoot-we-put-it-to-the-test
А я попросил Илюху Самохвалова перевести ее на русский.
Он прислал гугл-док со сылками на Vimeo, я попросил Gemini 2.5 сделать из-него веб-страницу, Гемини отказалась открывать гуглдок, тогда я просто напечатал его в ПДФ и сунул его ей в лицо.
Держите.
https://cgevent.ru/th.html
@cgevent
Рубрика крутейшие подписчики.
Юру и Дениса я знаю примерно две тыщщи лет. Transparent House - это самая крутая студия продуктовой и архитектурной визуализации (и анимации) на северном побережье штатов. Просто поглядите на их сайт.
И вот пока мы тут в коментах хлещемся, какой генератор лучше, ребята взяли и провели тесты в реальном продакшене с очень высокими требованиями.
Hunyuan, Wan 2.1, Veo 2, Hailuo, 01-Live, Runway 4, Sora, Kling 1.6, Бонус: Luma (1/10)
Оригинальная статья тут:
https://www.transparenthouse.com/post/can-ai-replace-a-real-shoot-we-put-it-to-the-test
А я попросил Илюху Самохвалова перевести ее на русский.
Он прислал гугл-док со сылками на Vimeo, я попросил Gemini 2.5 сделать из-него веб-страницу, Гемини отказалась открывать гуглдок, тогда я просто напечатал его в ПДФ и сунул его ей в лицо.
Держите.
https://cgevent.ru/th.html
@cgevent
Қайта жіберілді:
AI Product | Igor Akimov

22.04.202521:35
Anthropic вчера опубликовал, а сегодня на хабре перевели отличный гайд по использованию агентов в программировании, чтобы не ругаться на тупой chatgpt или Claude, когда он вам пол-проекта перепишет :)
Например там про то, чтобы план составить сначала:
https://habr.com/ru/articles/902422/
Например там про то, чтобы план составить сначала:
https://habr.com/ru/articles/902422/


22.04.202508:26
Новая опенсорсная и очень эмоциональная модель для озвучки(TTS).
Dia - это модель преобразования текста в речь с 1,6 млрд параметров, созданная в Nari Labs.
Есть код:
https://github.com/nari-labs/dia
На взрослых GPU может выдавать реалтайм. Жрет 10GB, но разрабы обещают кванты.
Разрабов, кстати, 1.5 человека. Один на парт тайме.
Есть неофициальное демо, официальное висит.
https://huggingface.co/spaces/mrfakename/dia-1.6b
@cgevent
Dia - это модель преобразования текста в речь с 1,6 млрд параметров, созданная в Nari Labs.
Есть код:
https://github.com/nari-labs/dia
На взрослых GPU может выдавать реалтайм. Жрет 10GB, но разрабы обещают кванты.
Разрабов, кстати, 1.5 человека. Один на парт тайме.
Есть неофициальное демо, официальное висит.
https://huggingface.co/spaces/mrfakename/dia-1.6b
@cgevent


18.04.202518:07
Krea.ai, что ты делаешь, прекрати!
Krea Stages - вытаскиваем из картинки 3д, генерим 3д, и трансформируем 3д.
И даже деформируем!
Да, вам не почудилось. Это паранейроавториг.
Поглядите на зайца-побивальца.
Может пора эксгумировать Метаверс?
@cgevent
Krea Stages - вытаскиваем из картинки 3д, генерим 3д, и трансформируем 3д.
И даже деформируем!
Да, вам не почудилось. Это паранейроавториг.
Поглядите на зайца-побивальца.
Может пора эксгумировать Метаверс?
@cgevent
Көрсетілген 1 - 24 арасынан 510
Көбірек мүмкіндіктерді ашу үшін кіріңіз.