23.04.202510:39
Кстати, Gemini и chatGPT умеют компилировать статьи в формате Latex (кто из академии поймет).
И показывают его в Canvas
Надо просто попросить:
объясни мне формулы для аттрактора Лоренца, используй Latex для написания формул
Gemini отдает правильный код с первого раза, chatGPT (о3) отдал со второго.
Просто просите их отдать файл в формате Латех, а потом идете на
https://www.overleaf.com/ и вставляете (или открываете) там. Жмете Recompile.
П-Профит. В П-Пдф.
@cgevent
И показывают его в Canvas
Надо просто попросить:
объясни мне формулы для аттрактора Лоренца, используй Latex для написания формул
Gemini отдает правильный код с первого раза, chatGPT (о3) отдал со второго.
Просто просите их отдать файл в формате Латех, а потом идете на
https://www.overleaf.com/ и вставляете (или открываете) там. Жмете Recompile.
П-Профит. В П-Пдф.
@cgevent
22.04.202514:46
Ну что, за 3Д-генераторы и MCP? Пока нет.
Идем в 4о или о3 и говорим:
А сделай мне 3Д-модель стола в формате STL, чтобы я мог бахнуть его на 3Д-принтер.
Нивапрос, апажалста.
Смотрим, что он сделал идеальную топологию и спрашиваем:
Питонг?
Угу. Хочешь ящик добавлю.
Довай!
Становится понятно, что он использует trimesh разные процедурные дела, чтобы сделать вот такие вот модельки.
Усложняем задачу:
Сгенерирую маску лица на 5000 полигонов, также как ты генерируешь текстовые файлы в других форматах, не бойся ошибиться. если тебя пугает размер файла, давай сделаем в формате OBJ. Сделай вздох, подумай хорошо, посмотри в интернете как устроены человеческие лица в программах типа Zbrush и сделай хорошую маску в формате OBJ на 4000 полигонов.
Задумался "The user wants a manually created STL file, so my first instinct is to avoid algorithmic generation. "
Держи!
В общем, держите, лицо от chatGPT - он художник, он так видит. Чолка зачотная.
Хошь, говорит, глазки вырежу?
Довай.
Понятно, что процедурно, вы сможете попросить его сделать довольно сложные вещи кодом и он сделает (кстати, надо попробовать попросить написать geometry nodes для Блендора). И тут вам даже не нужен MCP, если у вас хорошо подвешен язык и есть понимание как работает 3Д (это универсальное правило про MCP).
Но он честно пытается помять плоскость и выдавить маску лица! Мне это сильно напоминает работы студентов в Maya, когда я давал им сферу и возможность кисточками выдавить маску лица (sculpting), он просто еще двухлетка и плохо держит кисть..
В общем, покуролесьте.
И держите https://3dviewer.net/index.html
@cgevent
Идем в 4о или о3 и говорим:
А сделай мне 3Д-модель стола в формате STL, чтобы я мог бахнуть его на 3Д-принтер.
Нивапрос, апажалста.
Смотрим, что он сделал идеальную топологию и спрашиваем:
Питонг?
Угу. Хочешь ящик добавлю.
Довай!
Становится понятно, что он использует trimesh разные процедурные дела, чтобы сделать вот такие вот модельки.
Усложняем задачу:
Сгенерирую маску лица на 5000 полигонов, также как ты генерируешь текстовые файлы в других форматах, не бойся ошибиться. если тебя пугает размер файла, давай сделаем в формате OBJ. Сделай вздох, подумай хорошо, посмотри в интернете как устроены человеческие лица в программах типа Zbrush и сделай хорошую маску в формате OBJ на 4000 полигонов.
Задумался "The user wants a manually created STL file, so my first instinct is to avoid algorithmic generation. "
Держи!
В общем, держите, лицо от chatGPT - он художник, он так видит. Чолка зачотная.
Хошь, говорит, глазки вырежу?
Довай.
Понятно, что процедурно, вы сможете попросить его сделать довольно сложные вещи кодом и он сделает (кстати, надо попробовать попросить написать geometry nodes для Блендора). И тут вам даже не нужен MCP, если у вас хорошо подвешен язык и есть понимание как работает 3Д (это универсальное правило про MCP).
Но он честно пытается помять плоскость и выдавить маску лица! Мне это сильно напоминает работы студентов в Maya, когда я давал им сферу и возможность кисточками выдавить маску лица (sculpting), он просто еще двухлетка и плохо держит кисть..
В общем, покуролесьте.
И держите https://3dviewer.net/index.html
@cgevent


19.04.202510:52
Вот мы все ждали кнопку "Сделать красиво".
Дождались. Но никто не обещал в дороге кормить и то, что кнопка будет одна!
Вы тоже мучаетесь?
Теперь ждём бальшую кнопку "Выбрать нужную кнопку".
Одну.
Ибо выбирать - не барское это дело. Свободу воли оставьте ИИ.
Нажимать, не мешки ворочать.
@cgevent
Дождались. Но никто не обещал в дороге кормить и то, что кнопка будет одна!
Вы тоже мучаетесь?
Теперь ждём бальшую кнопку "Выбрать нужную кнопку".
Одну.
Ибо выбирать - не барское это дело. Свободу воли оставьте ИИ.
Нажимать, не мешки ворочать.
@cgevent
15.04.202508:43
Немного примеров из нового Клинга 2.0
Все отмечают нормальную динамику и уход slow-motion движения на видео, которым грешили все генераторы прошлого года. Тут Клинг скорее в роли догоняющего, но это все равно отлично, ибо эпоха слоу-моушен-трейлеров уходит.
@cgevent
Все отмечают нормальную динамику и уход slow-motion движения на видео, которым грешили все генераторы прошлого года. Тут Клинг скорее в роли догоняющего, но это все равно отлично, ибо эпоха слоу-моушен-трейлеров уходит.
@cgevent


14.04.202516:34
Завтра ждем новый Kling 2.0
Ожидаем:
- Video to Video
- Increased Lipsync
- Video Inpaint
- New Video Model (for sure 1.6 -> 2.0)
- Video Styles and Mixing styles
- Video Effects (like higgsfieled)
- Creative Canvas / Moodboards
- Start/End = 3-5 Keyframes animations
@cgevent
Ожидаем:
- Video to Video
- Increased Lipsync
- Video Inpaint
- New Video Model (for sure 1.6 -> 2.0)
- Video Styles and Mixing styles
- Video Effects (like higgsfieled)
- Creative Canvas / Moodboards
- Start/End = 3-5 Keyframes animations
@cgevent


14.04.202512:10
Инсайты с конференции GoCloud провайдера облачных и AI-технологий Cloud․ru
Анонсировали такие сервисы и ближайшие релизы:
- Cloud․ru Evolution AI Factory — платформа для создания AI-приложений и агентов в облаке.
- Cloud․ru Evolution Stack AI-bundle — первое в России гибридное облако с поддержкой запуска и масштабирования AI-сервисов в контуре компании, локально и с низким порогом входа для пользователей.
- Evolution Managed ArenadataDB - инструмент для аналитики данных и построения отчётности. А также управляемые сервисы для работы с биг дата в облаке Cloud․ru Evolution: Trino, Metastore, Spark, BI.
"Мы планируем, что к 2026 году AI-помощники будут выполнять большинство задач в частотных сценариях работы в облаке. Это кардинально изменит опыт пользователей при работе с облачными продуктами. С момента запуска AI-помощники будут доступны в публичных, гибридных и частных облаках Cloud․ru" - заявил CEO Cloud․ru Евгений Колбин на открытии конференции.
@cgevent
Анонсировали такие сервисы и ближайшие релизы:
- Cloud․ru Evolution AI Factory — платформа для создания AI-приложений и агентов в облаке.
- Cloud․ru Evolution Stack AI-bundle — первое в России гибридное облако с поддержкой запуска и масштабирования AI-сервисов в контуре компании, локально и с низким порогом входа для пользователей.
- Evolution Managed ArenadataDB - инструмент для аналитики данных и построения отчётности. А также управляемые сервисы для работы с биг дата в облаке Cloud․ru Evolution: Trino, Metastore, Spark, BI.
"Мы планируем, что к 2026 году AI-помощники будут выполнять большинство задач в частотных сценариях работы в облаке. Это кардинально изменит опыт пользователей при работе с облачными продуктами. С момента запуска AI-помощники будут доступны в публичных, гибридных и частных облаках Cloud․ru" - заявил CEO Cloud․ru Евгений Колбин на открытии конференции.
@cgevent
Переслав з:
AI Product | Igor Akimov

22.04.202521:35
Anthropic вчера опубликовал, а сегодня на хабре перевели отличный гайд по использованию агентов в программировании, чтобы не ругаться на тупой chatgpt или Claude, когда он вам пол-проекта перепишет :)
Например там про то, чтобы план составить сначала:
https://habr.com/ru/articles/902422/
Например там про то, чтобы план составить сначала:
https://habr.com/ru/articles/902422/


22.04.202508:26
Новая опенсорсная и очень эмоциональная модель для озвучки(TTS).
Dia - это модель преобразования текста в речь с 1,6 млрд параметров, созданная в Nari Labs.
Есть код:
https://github.com/nari-labs/dia
На взрослых GPU может выдавать реалтайм. Жрет 10GB, но разрабы обещают кванты.
Разрабов, кстати, 1.5 человека. Один на парт тайме.
Есть неофициальное демо, официальное висит.
https://huggingface.co/spaces/mrfakename/dia-1.6b
@cgevent
Dia - это модель преобразования текста в речь с 1,6 млрд параметров, созданная в Nari Labs.
Есть код:
https://github.com/nari-labs/dia
На взрослых GPU может выдавать реалтайм. Жрет 10GB, но разрабы обещают кванты.
Разрабов, кстати, 1.5 человека. Один на парт тайме.
Есть неофициальное демо, официальное висит.
https://huggingface.co/spaces/mrfakename/dia-1.6b
@cgevent


18.04.202518:07
Krea.ai, что ты делаешь, прекрати!
Krea Stages - вытаскиваем из картинки 3д, генерим 3д, и трансформируем 3д.
И даже деформируем!
Да, вам не почудилось. Это паранейроавториг.
Поглядите на зайца-побивальца.
Может пора эксгумировать Метаверс?
@cgevent
Krea Stages - вытаскиваем из картинки 3д, генерим 3д, и трансформируем 3д.
И даже деформируем!
Да, вам не почудилось. Это паранейроавториг.
Поглядите на зайца-побивальца.
Может пора эксгумировать Метаверс?
@cgevent
Переслав з:
Ai molodca

15.04.202507:42
Как многие вчера догадались — да, мы тестировали новый Kling 2.0 💥, который я гоняю уже где-то неделю в рамках партнёрской программы.
Что могу сказать? Он очень хорош: понимание промта, количество движения, последовательность — отлично.
😑 Первое видео — тест img-to-video из случайных кадров (включая ваши генерации и, конечно же, Уилла Смита с пастой).
😳 Второе, более интересное — новый режим Multi-Elements (на версии 1.6), который подрезали у Pika, но сделали гораздо лучше. Загружаете видео, референс, пишете что-то вроде "замени/удали/добавь [объект] из футажа 1 на [объект 2]" — и готово.
В целом, что нового:
1. Модель KLING 2.0 с улучшенными базовыми возможностями
Пока что только базовые режимы Text to Video и Image to Video, 720p, без дополнительных контролов (но, возможно, скоро подъедет другая версия 2.0).
2. Multi-Elements (v1.6)
Добавление, замена, удаление объектов в видеосцене — удобно, гибко, быстро.
3. Motion Control (v1.6)
Кастомная анимация персонажей на изображении по промту или референсу.
4. KOLORS 2.0 — обновлённая генерация изображений
Большие улучшения по сравнению с версией 1.5 — по качеству, цвету, деталям.
5. Restyle (KOLORS 2.0)
Смена стилистики изображения — работает чисто и разнообразно.
6. Редактирование изображений
Новые функции Inpaint и Expand для креативного редактирования.
Что могу сказать? Он очень хорош: понимание промта, количество движения, последовательность — отлично.
😑 Первое видео — тест img-to-video из случайных кадров (включая ваши генерации и, конечно же, Уилла Смита с пастой).
😳 Второе, более интересное — новый режим Multi-Elements (на версии 1.6), который подрезали у Pika, но сделали гораздо лучше. Загружаете видео, референс, пишете что-то вроде "замени/удали/добавь [объект] из футажа 1 на [объект 2]" — и готово.
В целом, что нового:
1. Модель KLING 2.0 с улучшенными базовыми возможностями
Пока что только базовые режимы Text to Video и Image to Video, 720p, без дополнительных контролов (но, возможно, скоро подъедет другая версия 2.0).
2. Multi-Elements (v1.6)
Добавление, замена, удаление объектов в видеосцене — удобно, гибко, быстро.
3. Motion Control (v1.6)
Кастомная анимация персонажей на изображении по промту или референсу.
4. KOLORS 2.0 — обновлённая генерация изображений
Большие улучшения по сравнению с версией 1.5 — по качеству, цвету, деталям.
5. Restyle (KOLORS 2.0)
Смена стилистики изображения — работает чисто и разнообразно.
6. Редактирование изображений
Новые функции Inpaint и Expand для креативного редактирования.
14.04.202516:10
Вы будете смеяться, но у нас новый видео-генератор.
Генератор новый, команда старая - это Тикток, взял и превратил свой генератор картинок Seaweed\PixelDance в генератор видео.
Называетс Seaweed-7B, количество параметров понятно из названия, а еще он умеет:
- генерировать видео и аудио вместе
- делать видеоролики, которые сопровождаются звуком от Omnihuman(!) (т.е. персонаж, соответствующий голосу, и речь синхронизированы)
- видеоролики до 20 секунд или 1 минуты (extension technique)
- 720p, upsample до 2k
- может генерировать 720p в реальном времени при 24 кадр/с - вот это уже бомба, смотрите примеры на сайте ниже.
- длинные мультиплановые(!) истории
- t2v и i2v ( причем можно задавать первый или последний кадр)
- можно задавать референсные изображения человека или объекта для переноса в видео
Тьма примеров на сайте, и ничего про планы на опен-сорс. И демо тоже пока нет. Есть только папирус.
Все подробности тут:
https://seaweed.video/
@cgevent
Генератор новый, команда старая - это Тикток, взял и превратил свой генератор картинок Seaweed\PixelDance в генератор видео.
Называетс Seaweed-7B, количество параметров понятно из названия, а еще он умеет:
- генерировать видео и аудио вместе
- делать видеоролики, которые сопровождаются звуком от Omnihuman(!) (т.е. персонаж, соответствующий голосу, и речь синхронизированы)
- видеоролики до 20 секунд или 1 минуты (extension technique)
- 720p, upsample до 2k
- может генерировать 720p в реальном времени при 24 кадр/с - вот это уже бомба, смотрите примеры на сайте ниже.
- длинные мультиплановые(!) истории
- t2v и i2v ( причем можно задавать первый или последний кадр)
- можно задавать референсные изображения человека или объекта для переноса в видео
Тьма примеров на сайте, и ничего про планы на опен-сорс. И демо тоже пока нет. Есть только папирус.
Все подробности тут:
https://seaweed.video/
@cgevent


14.04.202508:21
Mogao: новый лидер на Artificial Analysis Image Arena
Избил всех, включая Gpt-4o.
Что известно?
Очень хорошо в стилях, в отличие от Flux.
Слаб в текстах (похоже диффузия)
Очень хорошее понимание промпта.
Большинство твитторских склоняется к тому, что это Dreamina 3.0 от Capcut, ибо название явно китайское и означает "Тысяча пещер Будды".
https://dreamina.capcut.com/ai-tool/home
Есть также версии, что это новый генератор от Грок и даже Flux 2.0.
Скоро узнаем...
Вот вам выжимка от Deep Research:
По состоянию на апрель 2025 года разработчики Mogao не делали анонсов о планах выпуска модели или её демо. Нет сведений, будет ли Mogao открыта для исследований либо коммерчески доступна. Сообщество энтузиастов и экспертов с большим интересом ожидает раскрытия деталей – как самого алгоритма Mogao, так и информации о создателях. Появление Mogao на вершине рейтинга уже привлекло внимание (новости о ней разошлись по соцсетям и профильным ресурсам), поэтому можно предположить, что рано или поздно авторы модели представят официальную информацию. На данный момент же Mogao остаётся закрытой «чёрной коробкой», доступной лишь в рамках ограниченного соревновани
P.S. Причем появился он на Artificial Analysis Image Arena пять дней назад, но топ залетел только вчера.
https://m.huxiu.com/article/4236587.html
@cgevent
Избил всех, включая Gpt-4o.
Что известно?
Очень хорошо в стилях, в отличие от Flux.
Слаб в текстах (похоже диффузия)
Очень хорошее понимание промпта.
Большинство твитторских склоняется к тому, что это Dreamina 3.0 от Capcut, ибо название явно китайское и означает "Тысяча пещер Будды".
https://dreamina.capcut.com/ai-tool/home
Есть также версии, что это новый генератор от Грок и даже Flux 2.0.
Скоро узнаем...
Вот вам выжимка от Deep Research:
По состоянию на апрель 2025 года разработчики Mogao не делали анонсов о планах выпуска модели или её демо. Нет сведений, будет ли Mogao открыта для исследований либо коммерчески доступна. Сообщество энтузиастов и экспертов с большим интересом ожидает раскрытия деталей – как самого алгоритма Mogao, так и информации о создателях. Появление Mogao на вершине рейтинга уже привлекло внимание (новости о ней разошлись по соцсетям и профильным ресурсам), поэтому можно предположить, что рано или поздно авторы модели представят официальную информацию. На данный момент же Mogao остаётся закрытой «чёрной коробкой», доступной лишь в рамках ограниченного соревновани
P.S. Причем появился он на Artificial Analysis Image Arena пять дней назад, но топ залетел только вчера.
https://m.huxiu.com/article/4236587.html
@cgevent
22.04.202516:40
Тут на https://wan.video/ раздают бесплатную видеогенерацию в Relax Mode.
Говорят, что с 23 апреля All users can create stunning videos and images entirely free with Relax Mode.
Непонятно, сколько будет время ожидания, может час, а может сутки.
@cgevent
Говорят, что с 23 апреля All users can create stunning videos and images entirely free with Relax Mode.
Непонятно, сколько будет время ожидания, может час, а может сутки.
@cgevent
22.04.202508:14
Vidu Q1: Сорри, я опять с этими видеогенераторами.
Китайцев покусал OpenAI и после версии Vidu 2.0 они выпустили версию Q1. Во втором квартале.
Что нового:
Сильно прибрали мыло.
Первый и последний кадр.
Звук и звуковые эффекты.
1080р
24fps
Можно и нужно тестировать, тем более, что по промокоду VIDUQ1 дают +100 кредитов на новый акк(тоже 100), плюс наваливают ещё немного(20) каждый день.
https://www.vidu.com/
@cgevent
Китайцев покусал OpenAI и после версии Vidu 2.0 они выпустили версию Q1. Во втором квартале.
Что нового:
Сильно прибрали мыло.
Первый и последний кадр.
Звук и звуковые эффекты.
1080р
24fps
Можно и нужно тестировать, тем более, что по промокоду VIDUQ1 дают +100 кредитов на новый акк(тоже 100), плюс наваливают ещё немного(20) каждый день.
https://www.vidu.com/
@cgevent
16.04.202513:52
Принес две полезные ссылки про ИИ и бизнес.
В отличие от бесконечных инфоцыганских "применений нейросетей в бизнесе" - это два материала от Google и Open AI.
Первый - 601 реальный пример применения ИИ от разных компаний в 11 индустриях: медиа, здравоохранение, наука, кодинг, телеком, торговля, логистика и др.
https://cloud.google.com/transform/101-real-world-generative-ai-use-cases-from-industry-leaders
Второй - свежий гайд от самих OpenAI о внедрении ИИ в бизнес-процессы в трех частях (каждая - пдф на 30+ страниц)
AI in the Enterprise: Lessons from seven frontier companies
A practical guide to building AI agents: What can AI agents do for your workforce?
Identifying and scaling AI use cases: How early adopters focus their AI efforts
https://openai.com/business/guides-and-resources/
@cgevent
В отличие от бесконечных инфоцыганских "применений нейросетей в бизнесе" - это два материала от Google и Open AI.
Первый - 601 реальный пример применения ИИ от разных компаний в 11 индустриях: медиа, здравоохранение, наука, кодинг, телеком, торговля, логистика и др.
https://cloud.google.com/transform/101-real-world-generative-ai-use-cases-from-industry-leaders
Второй - свежий гайд от самих OpenAI о внедрении ИИ в бизнес-процессы в трех частях (каждая - пдф на 30+ страниц)
AI in the Enterprise: Lessons from seven frontier companies
A practical guide to building AI agents: What can AI agents do for your workforce?
Identifying and scaling AI use cases: How early adopters focus their AI efforts
https://openai.com/business/guides-and-resources/
@cgevent
Переслав з:
Denis Sexy IT 🤖

14.04.202519:47
Хехе, https://cursor.com/ тоже добавил 4.1 и сделал ее бесплатной (на какое-то время)
Гонка в которой выигрывает потребитель – лучшая гонка 🌝
Гонка в которой выигрывает потребитель – лучшая гонка 🌝
14.04.202516:00
Рендер или видео?
Если вы все еще сторонник рендера, то это полностью опенсорсный(!) рендер.
Комплектующие, CAD-исходники и все спецификации есть на GitHub
Весь SDK доступен тут.
Называется эта тварь Фурье N1, весит 38 кг, ростом всего 1.3 метра, но бегает уже со скоростью 12.6 км/ч.
Коль скоро исходники открыты, каждый может сделать себе Дзюбу.
Битвы робатов не за горами, а фильм Real Steel становится все ближе.
@cgevent
Если вы все еще сторонник рендера, то это полностью опенсорсный(!) рендер.
Комплектующие, CAD-исходники и все спецификации есть на GitHub
Весь SDK доступен тут.
Называется эта тварь Фурье N1, весит 38 кг, ростом всего 1.3 метра, но бегает уже со скоростью 12.6 км/ч.
Коль скоро исходники открыты, каждый может сделать себе Дзюбу.
Битвы робатов не за горами, а фильм Real Steel становится все ближе.
@cgevent
14.04.202508:16
Нейрокомпоз: Wan 2.1 с использованием VACE и Flux Fill с инпайнтингом первого кадра.
Помните писал про нейрокомпоз в виде VACE ?
С тех пор релизнулся код, и умельцы уже прикручивают это к Wan.
https://github.com/ali-vilab/VACE
Remove ANYTHING with VACE+Wan2.1:
https://civitai.com/models/1454934/remove-anything-with-vacewan21
Обучалка:
https://youtu.be/vioEox7CKUs
@cgevent
Помните писал про нейрокомпоз в виде VACE ?
С тех пор релизнулся код, и умельцы уже прикручивают это к Wan.
https://github.com/ali-vilab/VACE
Remove ANYTHING with VACE+Wan2.1:
https://civitai.com/models/1454934/remove-anything-with-vacewan21
Обучалка:
https://youtu.be/vioEox7CKUs
@cgevent
22.04.202514:55
А зачем размениваться на какие-то сторонние сервисы для просмотра 3Д-моделей в предыдущем посте?
Идем в о3 и говорим:
а сейчас напиши мне код, для "OBJ VIEWER" который я смогу запустить в Canvаs и увидеть 3Д-модель. Там должна быть галочка "включить показ edges" ну или wireframe mode
сделай кнопку загрузить с компьютера
Бах! В канвасе, который он сам же и открыл появляется код на реакте и кнопка Preview. Жмем ея, видим наш 3D-viewer, загружаем нашу маску лица, включаем галку wireframe - и все работает!
Год назад разговор зумеров: слушай, есть такие прикольные аппки для вот этого и этого и этого.
Через год от сейчас: хочу аппку, которая делает вот это.
АПАЖАЛСТА!
@cgevent
Идем в о3 и говорим:
а сейчас напиши мне код, для "OBJ VIEWER" который я смогу запустить в Canvаs и увидеть 3Д-модель. Там должна быть галочка "включить показ edges" ну или wireframe mode
сделай кнопку загрузить с компьютера
Бах! В канвасе, который он сам же и открыл появляется код на реакте и кнопка Preview. Жмем ея, видим наш 3D-viewer, загружаем нашу маску лица, включаем галку wireframe - и все работает!
Год назад разговор зумеров: слушай, есть такие прикольные аппки для вот этого и этого и этого.
Через год от сейчас: хочу аппку, которая делает вот это.
АПАЖАЛСТА!
@cgevent


15.04.202518:09
Так, пора расчехлить обратно подписку на Gemini Advanced.
Всем платным юзерам раскатывают Veo2, плюс анимацию через Whisk.
Я прошерстил твиттор за лимиты - и вроде как дают 100 видосов в месяц. Но это надо уточнять.
Если это так, то надо считать экономику среднего пользователя.
Сейчас я могу генерить бесплатно и быстро до 5 видосов в день в Gemini без подписки. Проверял утром на криптопасхе. Аккаунтов у меня чуть меньше, чем простых чисел.
Но я все равно куплю. Прогиб будет защитан по-любому. ИИ все помнит.
Почитайте тут, подумайте.
https://blog.google/products/gemini/video-generation/
@cgevent
Всем платным юзерам раскатывают Veo2, плюс анимацию через Whisk.
Я прошерстил твиттор за лимиты - и вроде как дают 100 видосов в месяц. Но это надо уточнять.
Если это так, то надо считать экономику среднего пользователя.
Сейчас я могу генерить бесплатно и быстро до 5 видосов в день в Gemini без подписки. Проверял утром на криптопасхе. Аккаунтов у меня чуть меньше, чем простых чисел.
Но я все равно куплю. Прогиб будет защитан по-любому. ИИ все помнит.
Почитайте тут, подумайте.
https://blog.google/products/gemini/video-generation/
@cgevent
Переслав з:
Data Secrets

14.04.202517:47
⚡️ OpenAI показали свои новые модели GPT-4.1, GPT-4.1 mini и GPT-4.1 nano
В чате их не будет: они только для разработчиков в API. У всех трех моделей контекст 1 миллион токенов, для OpenAI это впервые. Знания до 1 июля 2024.
Для программирования модель действительно хороша: на SWE-bench обгоняет даже o1 high. При этом стоит намного дешевле ($2.00 / 1M инпут и $8.00 / 1M аутпут). Плюсом неплохие способноси на мультимодальных задачах и математике.
Последний график – масштабирование на росте контекста. Видно, что 4.1 на голову лучше остальных моделей OpenAI на длинных последовательностях, то есть даже на огромных документах или кодовых базах не будет терять детали.
Ну и вишенка: семь дней модель будет абсолютно бесплатной вот тут
Цены и детали – здесь, а вот блогпост со всеми метриками
В чате их не будет: они только для разработчиков в API. У всех трех моделей контекст 1 миллион токенов, для OpenAI это впервые. Знания до 1 июля 2024.
Для программирования модель действительно хороша: на SWE-bench обгоняет даже o1 high. При этом стоит намного дешевле ($2.00 / 1M инпут и $8.00 / 1M аутпут). Плюсом неплохие способноси на мультимодальных задачах и математике.
Последний график – масштабирование на росте контекста. Видно, что 4.1 на голову лучше остальных моделей OpenAI на длинных последовательностях, то есть даже на огромных документах или кодовых базах не будет терять детали.
Ну и вишенка: семь дней модель будет абсолютно бесплатной вот тут
Цены и детали – здесь, а вот блогпост со всеми метриками
Переслав з:
Нейронавт | Нейросети в творчестве



14.04.202515:49
sd-forge-fluxtools-v2
Расширение для Forge, позволяющее полноценно использовать Controlnet и Redux c Flux-1-dev. До сих пор с этим были проблемы, в отличие от ComfyUI
#extension #flux
Расширение для Forge, позволяющее полноценно использовать Controlnet и Redux c Flux-1-dev. До сих пор с этим были проблемы, в отличие от ComfyUI
#extension #flux


14.04.202506:49
Джеймс Камерон про датасеты, авторские права, обучение на чужих работах и про это вот все.
"Каждый человек - это модель. Вы создаете эту модель по мере того, как идете по жизни".
"Проверку на плагиат должен проходить мой output, а не мой input".
"Никто не имеет права говорить мне куда идти, на что смотреть и на чем обучаться."
Короче, норм мужик.
@cgevent
"Каждый человек - это модель. Вы создаете эту модель по мере того, как идете по жизни".
"Проверку на плагиат должен проходить мой output, а не мой input".
"Никто не имеет права говорить мне куда идти, на что смотреть и на чем обучаться."
Короче, норм мужик.
@cgevent
Показано 1 - 24 із 496
Увійдіть, щоб розблокувати більше функціональності.