Это не новости, это персональный экспертный взгляд на то, как развивается индустрия ИИ, графики, метаверса, крипты, нейротехнологий и в каком направлении катится все это безобразие. Для связи: @SergeyTsyptsyn
Anthropic вчера опубликовал, а сегодня на хабре перевели отличный гайд по использованию агентов в программировании, чтобы не ругаться на тупой chatgpt или Claude, когда он вам пол-проекта перепишет :) Например там про то, чтобы план составить сначала: https://habr.com/ru/articles/902422/
16.04.202513:52
Принес две полезные ссылки про ИИ и бизнес.
В отличие от бесконечных инфоцыганских "применений нейросетей в бизнесе" - это два материала от Google и Open AI.
Второй - свежий гайд от самих OpenAI о внедрении ИИ в бизнес-процессы в трех частях (каждая - пдф на 30+ страниц) AI in the Enterprise: Lessons from seven frontier companies A practical guide to building AI agents: What can AI agents do for your workforce? Identifying and scaling AI use cases: How early adopters focus their AI efforts https://openai.com/business/guides-and-resources/
GPT прошел тест Тьюринга. Это, конечно, было очевидно еще примерно год назад с 4o, но теперь официально. Двойное, рандомизированное, контролируемое слепое исследование. Каждый участник общается с двумя субъектами: один живой человек, другой бот. Нужно угадать кто из них бот.
Выводы: - Ллама 3.1 примерно как человек, в 50% случаев участники угадывают - GPT-4.5 — в 73% случаев участники называли именно его живым человеком. То есть, он может притворяться человеком лучше, чем другие люди.
Кстати, сам тест работает в интернете. Попробовать отличить тупую железяку от белкового друга можно тут: https://turingtest.live/
27.04.202507:54
Нейропрожарка
Freya - Кукла
📽 Нейровидеоклип 📕 Слова - ARTESS 💻 Все остальное сделали нейросети! chatGPT, suno, krea, kling, runway, fotopea, dzine, magnific, topaz.
Всех приветствую. Хочу рассказать немного о себе и о клипе.
Меня зовут Артем, и когда то очень давно (10 лет назад). Я занимался музыкой, а именно рэпом. Но так же писал просто песни. А так как петь я не умею, все так и лежало в столе все это время.
И вот полгода назад я познакомился с нейросетями. И ушел в них с головой. И первые впечатления конечно были, вау, что это за магия. Восторг!!! Живые котики)))
Спустя время, когда я достаточно разобрался. Пришел к выводу, что нужно делать что то посерьезнее, но нужно было понять что. И вот я вспомнил про свои тексты. Решил дать им вторую жизнь, я петь не умею, но умеет нейросеть.
Теперь о самой работе.
Общее время около примерно 40 часов. 12+- часов ушло на генерацию песни, задача была именно ее сгенерировать, без каких либо правок. 22+- часов на генерацию изображений и видео. 6+- часов на монтаж
Точную сумму в деньгах не просчитать. Но думаю около 20к₽.
Наваливаем коменты в коментах.
@cgevent
25.04.202508:04
Veo2 - лучший
Рубрика крутые подписчики.
Тут Егор прислал коммерческий клип сделанный на Veo2. Я попросил его рассказать, как это было сделано, чтобы не было "смотрите чо нейросети творят".
Итак, слово Егору и его оценкам преимущества Veo2 над всеми остальными:
Давече решил обкатать на полную катушку Veo2 text2video, прилетел заказ на мини клип, для песни, на рекламный ролик. Такое мы любим,такое нам интересно,когда ещё проникаешься по вайбу в трек, так вообще огонь. Что удалось понять за данный эксперимент. Гугл явно сейчас в лидерах по генерации видео, тут вы можете спорить или нет, но даже новый Клинг 2.0 так не умеет, я его успел потестировать.
А именно, Veo2 круто помнимает промпт, он круто соблюдает атмсоферу видео и даже t2v, работает по персонажами, лучше чем драный Midjourney, который я так люблю и одновременно ненавижу за их наплевательское отношение,на все просьбы от их пользователей. Так же отмечу, что это дороже, чем всё остальное, но всё еще в разы дешевле, чем организовывать съемку. И да, ждём от них нормальное разрешение, потому что выглядит круто, но качества не хватает.
Ушло примерно 4-5 дней. Чисто генерации на Veo2 и переходы Клинг Кейфрэйм. Только Txt2video, персонажа сохранял по детальному описанию внешности, выбирал максимально карикатурного, что бы было больше деталей, которые при бросании в глаза не сильно отвлекают от того, что он немного отличается.
Есть 2 подсъема от заказчика, на 2 секунды, которые с телефоном, приложением и наливанием воды из бутылки, остальное все генерации, всё Txt2video(ну кроме переходов в клинге, там первое и последнее изображение брал) Хочу отметить, что радует малое количество брака, хоть и дорого, но обычно он очень хорошо понимает промпт, главное соблюдать в каждом кадре точное описание местности и персонажа. А ну и шакалит качество он знатно, так как у них пока максимально это 720р.
@cgevent
30.03.202521:23
OpenAI сделала набор бесплатных курсов.
Заполняешь форму, на почту приходит magic link на сайт академии.
Немного пёстро - от RAG до ИИ для возрастных пользователей.
Есть основы Соры в нескольких частях.
Дело хорошее, вопрос аптейтов контента, все меняется каждый день.
Как многие вчера догадались — да, мы тестировалиновый Kling 2.0 💥, который я гоняю уже где-то неделю в рамках партнёрской программы.
Что могу сказать? Он очень хорош: понимание промта, количество движения, последовательность — отлично.
😑 Первое видео — тест img-to-video из случайных кадров (включая ваши генерации и, конечно же, Уилла Смита с пастой).
😳 Второе, более интересное — новый режим Multi-Elements (на версии 1.6), который подрезали у Pika, но сделали гораздо лучше. Загружаете видео, референс, пишете что-то вроде "замени/удали/добавь [объект] из футажа 1 на [объект 2]" — и готово.
В целом, что нового:
1. Модель KLING 2.0 с улучшенными базовыми возможностями Пока что только базовые режимы Text to Video и Image to Video, 720p, без дополнительных контролов (но, возможно, скоро подъедет другая версия 2.0).
2. Multi-Elements (v1.6) Добавление, замена, удаление объектов в видеосцене — удобно, гибко, быстро.
3. Motion Control (v1.6) Кастомная анимация персонажей на изображении по промту или референсу.
4. KOLORS 2.0 — обновлённая генерация изображений Большие улучшения по сравнению с версией 1.5 — по качеству, цвету, деталям.
5. Restyle (KOLORS 2.0) Смена стилистики изображения — работает чисто и разнообразно.
6. Редактирование изображений Новые функции Inpaint и Expand для креативного редактирования.
Хехе, https://cursor.com/ тоже добавил 4.1 и сделал ее бесплатной (на какое-то время)
Гонка в которой выигрывает потребитель – лучшая гонка 🌝
28.03.202518:14
Переодеваторы.
Рубрика крутые подписчики.
У нас в чате нашлась Лена, а у Лены - приложение https://nextry.app/ - это переодеватор. Вы думаете, почему я тут залип на редактировании изображений - мне было интересно поглядеть, а не убьют ли рынок переодеваторов новый chatGPT или Gemini, которые так лихо редактируют картинки.
Внешне выглядело так, что и в Gemini можно нарулить примерочную.
Что я натестил?
1. Так как в переодеватор грузишь обычно модель в полный рост, или поясной план, то chatGPT плохо забирает лицо, когда говоришь ему переодень барышню в другое платье. 2. Ну и так как он норовит пошевелить детали, что одежда малость не совпадает, с тем, что вы загрузили. 3. Ну и самое главное. Цензура. Как только речь доходит до белья и купальников, наши корпоративные друзья сливаются. Они и так на людей смотрят с опаской, а тут еще модели повсюду.
Перебеседовал с Леной - они, оказывается тренируют СВОЮ модель, это прям файнтюн под задачу (инсайд - три модели на основе Flux). Поэтому модель не боится купальников, вцепляется в лица и делает все довольно ловко.
Меня также поразило, что модель понимает множественные предметы - типа обувь, сумку и одежду в одном проходе.
Я также потестировал позабытую Kolors-Virtual-Try-On - он прямо сильно лажает в деталях, надписях и переносе.
Я попытался сломать переодеваторы, засунув в соломорезку рельсу, то есть фиолетовую барышню. Колорс не справился, а Nextry идеально срисовал лицо, но прическу и фигуру сильно "улучшил". Как я понял, основной рынок - это виртуальные примерки, где модели имеют, скажем так, усредненные пропорции, поэтому достраиваются "средние" размеры.
Сдается мне это не совсем B2C рынок, и основная масса пользователей такого продукта (переодеватор), это все-таки бизнесы типа ритейлеров, но для конечного пользователя это тоже может иметь ценность. А если ввалить денег в маркетинг, то и вирусность.
В общем если интересно, потестируйте, там вроде 15 генераций в день есть. А в чате обсудим результат и баги. Я обнаружил, что руки живут немного своей жизнью, но вопрос в том, это баг или фича. Ну и всегда можно создать новый аккаунт, но я это не говорил.
Поигрался с новой моделью Gemini 2.5 Pro Experimental 03-25 и это шикарная модель для написания кода – пока она решила задачи почти любой сложности что я ей давал; нет, машину времени она не сделает и Vice City не сделает с одного промпта – но всякие шейдеры, 3d проектики, html-react приложения и тп – изи
На видео новая модель Google сделала генетический симулятор тетриса который сам учится играть оптимизируя свою стратегию – вышла довольно сложная штука: в одном HTML-файле уместилась сама игра Тетрис, AI-игрок, решающий, куда ставить фигуру на основе набора правил и генетический алгоритм, все это оно написало с одного промпта
Вот тут детальнее как работает алгоритм:
Задача генетического алгоритма – подобрать идеальные "веса" для этих правил, чтобы AI играл максимально эффективно. Как он учится?
1. Поколения: Создается "популяция" AI с разными случайными настройками (весами эвристик).
2. Оценка: Каждый AI (или, для скорости, лучший представитель поколения) играет партию. Его "успешность" (фитнес) – это просто набранные очки. Чем больше очков, тем лучше стратегия.
3. Отбор: Лучшие AI-"родители" отбираются для "размножения".
4. Скрещивание и Мутация: Их "гены" (веса эвристик) смешиваются и немного случайно изменяются, создавая новое поколение AI, которое наследует черты успешных родителей, но с небольшими вариациями.
5. Повтор: Цикл повторяется много раз, и (в теории) с каждым поколением AI должен играть все лучше и лучше, находя все более оптимальные веса для своей стратегии.
И самое классное – можно в реальном времени наблюдать на экране, как лучший AI текущего поколения пытается побить рекорды, и смотреть в панели информации, как меняются его весовые коэффициенты – та самая "стратегия", которую он выучил
В такие моменты очень люблю конкуренцию на рынке АИ
UPD. С двух промптов все же, второй починил мелкий баг эволюции – спасибо подписчику, что заметил – кожаных пока не заменяем
07.04.202507:09
Понять за 60 секунд.
Вот нашел в фейсбучеке ролик, практически сгенерированный с помощью ИИ, по крайней мере спотыкающаяся озвучка, намекает. Но речь не про качество ролика. А, как ни странно, про содержание.
Вот я тут ною, что пока все эти ИИ-трейлеры режут глаз ацкими нестыковками по монтажу и принципом "слепила из того, что было".
Но похоже люди с такой насмотренностью будут потихоньку вымирать, ибо кто сейчас еще ходит в кино и может посмотреть два часа контента, не умерев от усилий по удержанию фокуса.
Новым нормальным тиктокерам уже 20-минутные эпизоды сериалов даются с трудом.
Поэтому появляются 60-секундные сериалы.
И вот тут-то ИИ развернется во всю мощь. Какие монтажные переходы, какой внутрикадровый монтаж? Новый нормальный контент компрессирует всё в щель внимания потребителя интернетика, которая сжимается все сильнее.
И вот тут-то появятся, наконец, кнопки "Сделай быстро".
Кроме того, если если подучить сетки сразу на этих самих 60-секундных сериалах и скриптах к ним, то все сведется к серверам, генерящим такой контент непрерывно.
@cgevent
02.04.202521:01
Может быть я все пропустил, но по адресу https://gemini.google.com/ привезли Gemini 2.5 PRO вместе с Canvas.
Можно html\three.js код исполнять сразу справа в окне Canvas.
Питонг в превью нельзя, можно только редактировать.
Как платить зарплату команде в 5+ странах и ничего не нарушать?
В 90% международных стартапов много сотрудников, которые раскиданы по всему миру. Кто-то в Европе, кто-то в Штатах. Ну и понятно, что в Армении, Грузии, Сербии, Казахстане и далее везде.
Как решают вопрос с выплатами многие компании? - Кому-то платят напрямую в крипте. - Где-то заключают прямой контракт с локальным ИП.
Итого: – Прямые выплаты в крипте рискованные, так как по ним не построишь нормальную отчётность. В итоге есть риск не пройти Due Diligence или попасть на проверку от налоговой. – В случае с сотрудниками-ИП нужно каждую транзакцию проводить вручную, вручную вести документооборот, разбираться с банковским комплаенсом – это десятки лишних часов работы, и высокая вероятность зависания оплат.
⭐️ Но есть классное решение этих проблем для любой компании. Мой сосед по Кипру — Дима Кочнев — уже несколько лет развивает платформу 4dev.com.
Чем хороша платформа?
– Можно в пару кликов платить удалённым сотрудникам и фрилансерам в 100+ стран. В том числе в СНГ. – Платформа автоматически создаёт закрывающие документы по каждой выплате. Инвойсы соответствуют международным стандартам и пройдут аудиторские проверки и банковский комплаенс. 💵 Легальные криптоплатежи. Через 4dev.com вы можете платить команде в USDT и получать инвойсы по каждому платежу. Также доступно 30+ фиатных валют. – Комиссия 1-3% для бизнеса и 0% для исполнителей. При этом каждому клиенту выделяется персональный менеджер, который оперативно помогает по любым вопросам.
Можно платить любым исполнителям: удалённым сотрудникам, парт-таймерам, фрилансерам. Как физикам, так и ИП. Весь этот документооборот — контракты, бумаги, подписи — всё автоматически делает 4dev.com.
Внедряется платформа очень быстро + есть бережный онбординг от клиентского сервиса. Запишитесь на бесплатное демо — ребята про всё расскажут подробнее, покажут платформу в действии, ответят на любые вопросы.
Стало интересно, смогут ли LLM в создание подобных слов. Оказалось, что не могут (на английском еще кое как, но на русском лажа).
Решил навайбкодить скриптец для подобного, но чатжпт сказал, что не надо изобретать велосипед, ибо все уже написано и лежит на гитхабе.
Скачал, запустил. Скриптулина ищет подобные пары слов быстро, но 99% результатов на выходе — абсолютно неинтересные и не веселые. А вот эту проблему уже можно решать с помощью LLM. Отдавал сгенеренное последней версии Gemini 2.5 pro по тысяче слов за раз и просил отобрать самое интересное. В итоге после гемини, конечно же приходится черрипикать самому, но это уже сильно проще.
В итоге за 10 минут занятия вот этим насобирал чуток слов, а некоторые даже визуализировал:
📽 Нейровидеоклип 📕 Слова - ARTESS 💻 Все остальное сделали нейросети! chatGPT, suno, krea, kling, runway, fotopea, dzine, magnific, topaz.
Всех приветствую. Хочу рассказать немного о себе и о клипе.
Меня зовут Артем, и когда то очень давно (10 лет назад). Я занимался музыкой, а именно рэпом. Но так же писал просто песни. А так как петь я не умею, все так и лежало в столе все это время.
И вот полгода назад я познакомился с нейросетями. И ушел в них с головой. И первые впечатления конечно были, вау, что это за магия. Восторг!!! Живые котики)))
Спустя время, когда я достаточно разобрался. Пришел к выводу, что нужно делать что то посерьезнее, но нужно было понять что. И вот я вспомнил про свои тексты. Решил дать им вторую жизнь, я петь не умею, но умеет нейросеть.
Теперь о самой работе.
Общее время около примерно 40 часов. 12+- часов ушло на генерацию песни, задача была именно ее сгенерировать, без каких либо правок. 22+- часов на генерацию изображений и видео. 6+- часов на монтаж
OpenAI дали бесплатный доступ к облегчённому Deep Research
Новая lightweight модель, основанная на o4-mini, позволила дать доступ всем пользователям, даже бесплатным. Бенчмарк дали ровно один — по нему новая модель чуть хуже по качеству чем обычный Deep Research, но даёт заметное улучшение по сравнению с o4-mini, при этом отставая от o3. Но, в отличие от o3, lightweight модель даёт формат deep research, который местами очень нужен.
Доступ уже раскатывают, но доступно всё ещё не всем, дают пять запросов в месяц (до апдейта Plus подписчикам давали 10). Платных пользователей тоже не оставили в обиде — после того как истекают запросы к большому Deep Research, пользователей переключают на облегчённую версию. Это позволило увеличить лимиты с 10 до 25 на Plus и Team подписке и с 100 до 250 на Pro подписке, правда лимит теперь для обеих моделей.
Что-то много у них релизов на этой неделе, похоже OpenAI получили гигантскую поставку GPU
@ai_newz
25.04.202511:45
Нейропрожарка.
В чате родилась идея разбирать работы подписчиков. Не в духе "ойчоиисделал", а с деталями, как делалось, сколько делалось, чем делалось, где была боль.
Правила. Сначала плюсы, потом минусы. Строго по делу. Не дай бог увижу переход на личности, забаню сразу. Советы в форме "я бы делал так".
Генеряшки всем и каждому! Это как гимн генеративщиков. Когда ты начал генерить, жизнь уже не будет прежней. Ключевое — это исследование, а что там интересного можно погенерить в ChatGPT/Sora, когда они только вышли. Еще цель была протестировать инструменты для сохранения консистентности без обучения LoRa и других дополнительных технических пунктов.
> Придумал продукт — генеряшки, использовал образ своего персонажа с аватарки в блоге. Создал дизайн упаковки, было больше 20 вариантов, благодаря возможности писать тексты на кириллице, можно не открывать фотошоп.
Придал им форму — желейных человечков. Отдельно разработаны и человечки и упаковка чтобы оптом упоминаться в соответствующих сценах.
> Консистентность главного персонажа сохранял: создание персонажа в разных проекциях в GPT (здесь и далее — все изображения там или в Соре) > использование его во всех необходимых сценах.
> Делал много рестайлов в разных форматах, чтобы показать как человек начинает генерить, пробовать то то то это. Запустил его бегать по миру генераций с безумными глазами.
> Музыка делалась в Suno.
> Озвучка в Minimax Audio. Любопытное решение, там есть классные голоса и по интонации порой оказывается очень здорово.
> Использовались нейросети: Kling (90%), Runway (круто для 8-биток), одна сцена в Sora и одна в Minimax. Все изображения в ChatGPT/Sora.
Одна из главных трудностей была заставить девушку жевать ) Откусить консистентно и жевать. Здесь в чате с ребятами перепробовали все генераторы на этой задаче. И потом в тесте нового Клинг 2.0 он показал, что задача может быть решена. Но это было уже после выхода видео)
За счет специфики по скорости генерации изображений, видео делалось часов 10.
Протестировал новую версию китайского 3D-генератора Hunyuan 2.5.
Итак, лягушка. Первое, на что бросается в глаза — адаптивная детализация, полигонов больше там, где они действительно нужны. Сетка отлично следует за формой — это особенно заметно по сердцу и орнаменту. Впервые на моей памяти нейронка так хорошо построила рельеф. Модель получилась симметричной, без видимых артефактов вроде дыр и пересечений. Только на лапе почему-то появилась неуместная ямка.
Текстура выглядит хуже. Задняя часть представляет собой сплошной визуальный шум, и даже спереди на сердце видны артефакты.
У предыдущих поколений image-to-3D моделей ворон либо получался неровным, либо симметричным, но с раздвоенным клювом. Просто отзеркалить фигурку по вертикальной оси нельзя, однако Hunyuan 2.5 в основном справляется: укладка перьев симметричная, при этом голова выглядит вполне естественно. Впрочем, на затылке рельеф отсутствует, а на правой лапе обнаружился лишний палец. Текстуры тоже далеки от идеала и не передают особенностей оригинальной картинки.
Фигурка Ктулху также приятно удивляет детализацией и симметричностью. Сетка немного хаотичная, но органические формы переданы реалистично. Текстура покрыта шумными деталями, однако судя по бликам, roughness map удался неплохо.
Подведем итоги. Сравнение с предыдущей серией экспериментов (8 моделей, Tripo3d, TRELLIS) говорит само за себя. Прирост в качестве значительный. Лягушку и Ктулху можно спокойно печатать на 3D-принтере без постобработки. Такими темпами вскоре придется обновлять тест, добавляя сложные формы, например, скульптуры людей.
Сейчас этот генератор доступен онлайн по адресу 3d.hunyuan.tencent.com (осторожно, интерфейс на китайском) и позволяет создавать до 20 моделей в день. А еще есть надежда на релиз в open source. По крайней мере, версия 2.0 представлена в pinokio и запускается на достаточно широком наборе конфигураций железа. #нейронки #imageto3d #DIY
25.04.202508:04
Veo2 - лучший
Рубрика крутые подписчики.
Тут Егор прислал коммерческий клип сделанный на Veo2. Я попросил его рассказать, как это было сделано, чтобы не было "смотрите чо нейросети творят".
Итак, слово Егору и его оценкам преимущества Veo2 над всеми остальными:
Давече решил обкатать на полную катушку Veo2 text2video, прилетел заказ на мини клип, для песни, на рекламный ролик. Такое мы любим,такое нам интересно,когда ещё проникаешься по вайбу в трек, так вообще огонь. Что удалось понять за данный эксперимент. Гугл явно сейчас в лидерах по генерации видео, тут вы можете спорить или нет, но даже новый Клинг 2.0 так не умеет, я его успел потестировать.
А именно, Veo2 круто помнимает промпт, он круто соблюдает атмсоферу видео и даже t2v, работает по персонажами, лучше чем драный Midjourney, который я так люблю и одновременно ненавижу за их наплевательское отношение,на все просьбы от их пользователей. Так же отмечу, что это дороже, чем всё остальное, но всё еще в разы дешевле, чем организовывать съемку. И да, ждём от них нормальное разрешение, потому что выглядит круто, но качества не хватает.
Ушло примерно 4-5 дней. Чисто генерации на Veo2 и переходы Клинг Кейфрэйм. Только Txt2video, персонажа сохранял по детальному описанию внешности, выбирал максимально карикатурного, что бы было больше деталей, которые при бросании в глаза не сильно отвлекают от того, что он немного отличается.
Есть 2 подсъема от заказчика, на 2 секунды, которые с телефоном, приложением и наливанием воды из бутылки, остальное все генерации, всё Txt2video(ну кроме переходов в клинге, там первое и последнее изображение брал) Хочу отметить, что радует малое количество брака, хоть и дорого, но обычно он очень хорошо понимает промпт, главное соблюдать в каждом кадре точное описание местности и персонажа. А ну и шакалит качество он знатно, так как у них пока максимально это 720р.
Воу, вот что конкуренция животворящая делает. OpenAI накинул дип ресерчей в Plus подписку, теперь 25 в месяц, а не 10
24.04.202512:23
"Одни из нас". Второй эпизод второго сезона.
Ну как так! У них совесть есть?! Что ж такое!
24.04.202511:18
Hunyuan 2.5: 3D-генераторы. Гонка продолжается. Часть 4
Диванные мысли. Гонка 3Д-генераторов сейчас в самом разгаре. Этакий 2023 года для картинок.
В отличие от картинок, где сейчас битва идет уже за конкретные детали(текст, пальцы, лица) и пост-редактирование, у 3Д-генераторов все впереди.
Ибо порождение 3Д-сетки - это не финальный, а более чем промежуточный результат, я бы даже сказал, начальный. Ведь дальше эту 3Д-модель (в отличие от картинок) рано показывать пользователю\миру, а предстоит отправить в длинный пайплайн: Ретопология Развертка UV Текстурирование до годного (разрешения) Риг Скиннинг Лицевой риг(отдельная тема)
Если ваши фантазии не идут дальше 3Д-принтера или расстановки болванов в метаверсике или VR, то вы почти у цели.
Но взрослые мальчики ожидают, что весь этот взрослыйпайплайн постепенно будет пристегиваться к 3Д-генераторам.
И тут я опять взвою вопросом: будут ли Deemos, Tripo, Hunyuan или Trellis изобретать свою Web-Maya или Nano-Blender внутри своих платформ, или кто-то типа Адобченко с готовым 3Д на борту прикрутит генерацию внутри имеющихся пайплайнов.
Понятно, что путь опенсорса лежит через плагины к Блендору.
Но я также подозреваю, что кто-то из больших игроков рано или поздно прикупит один из 3Д-генераторов и сделает свое решение.
Например Фрипик или Креа, у которых очень много денег сейчас.
@cgevent
24.04.202511:03
Hunyuan 2.5: 3D-генераторы. Гонка продолжается. Часть 3
Если хотите посмотреть, как выглядит процесс от скетча до рига и анимации(!), то держите вот такой тред.
Там показано, как это все работает у них на сайте.
Идея прям правильная, все начинается именно с концептов, и тут представлен мета-пайплайн, близкий к студийному.
За кадром остается вопрос топологии, дальнейшей настройки рига и скининга и т.д.
@cgevent
24.04.202510:55
Hunyuan 2.5: 3D-генераторы. Гонка продолжается. Часть 2
Нашел видео со сравнением 2.0 и 2.5: видно, что детали и грани стали резче, а мыла меньше. 2.0 справа.
Но как пишут в сети, топология по-прежнему адъ. И он также не умеет в моделинг по частям (о чем уже заявили Deemos Tech (Rodin) и Tripo 3D.
Автор пишет, что детали реально лучше, чем у Trellis и Tripo, но проклинает топологию.
@cgevent
23.04.202520:02
Кстати, генерацию с помощью модели gpt-image-1 завезут в Адобченко (Firefly и Express), Фигму, и даже в Heygen.
Непонятно, что будет с тарифами и подписками. Но скоро все затащат это к себе.
Почитайте тут, куда уже вонзают эту модель по API:
OpenAI запустили API для генерации картинок через GPT
Модель обозвали GPT-Image-1. Кроме резолюшена позволяют выбрать и качество — от low до high. Крайне вероятно что это как-то обозначает именно количество ризонинга, а не количество шагов дифузии.
Прайсинг может кусаться — цена на high quality может доходить до 25 центов за картинку. Для сравнения: за картинку из Imagen 3 или HiDream-I1-Dev просят 3 цента, за Recraft V3 — 4 цента. Но это не означает что GPT не может конкурировать по цене — low режим стоит всего 1-2 цента за картинку, а medium в районе 7.
Как сильно отличаются картинки на разных уровнях качества — пока непонятно. В любом случае, GPT-Image-1 куда гибче конкурентов из-за своей архитектуры, то есть даже low качество может быть очень полезным. А за high качество, в отсутствии конкуренции, заламывать можно очень высокие цены. Появится конкуренция — цены заметно скинут, маржа у OpenAI такое позволяет, ждём Gemini 2.5 Pro Image Generation.