
Реальна Війна

Лёха в Short’ах Long’ует

Україна Сейчас | УС: новини, політика

Мир сегодня с "Юрий Подоляка"

Труха⚡️Україна

Николаевский Ванёк

Лачен пише

Анатолий Шарий

Реальний Київ | Украина

Реальна Війна

Лёха в Short’ах Long’ует

Україна Сейчас | УС: новини, політика

Мир сегодня с "Юрий Подоляка"

Труха⚡️Україна

Николаевский Ванёк

Лачен пише

Анатолий Шарий

Реальний Київ | Украина

Реальна Війна

Лёха в Short’ах Long’ует

Україна Сейчас | УС: новини, політика

АйТиБорода
Авторский by @iamitbeard. Про IT, технологии и ИИ; без цензуры и политстирильности. Чат @itbeard_talk
Слава Україні. Жыве Беларусь.
АйТиБорода: https://youtube.com/itbeard
Эволюция Кода: https://web.tribute.tg/l/ge
AIA Podcast: https://itbeard.com/aia
Слава Україні. Жыве Беларусь.
АйТиБорода: https://youtube.com/itbeard
Эволюция Кода: https://web.tribute.tg/l/ge
AIA Podcast: https://itbeard.com/aia
TGlist रेटिंग
0
0
प्रकारसार्वजनिक
सत्यापन
सत्यापितविश्वसनीयता
अविश्वसनीयस्थानБілорусь
भाषाअन्य
चैनल निर्माण की तिथिFeb 06, 2025
TGlist में जोड़ा गया
Oct 17, 2024संलग्न समूह

АйТиБорода / Комментарии, чат
358
रिकॉर्ड
17.10.202423:59
21.9Kसदस्य16.03.202523:59
200उद्धरण सूचकांक01.04.202523:59
3.5Kप्रति पोस्ट औसत दृश्य06.03.202514:39
3.5Kप्रति विज्ञापन पोस्ट औसत दृश्य09.03.202517:55
27.73%ER01.04.202523:59
16.70%ERRसे पुनः पोस्ट किया:
XOR





09.04.202520:51
«Мы ожидаем от всех сотрудников навыков владения нейросетями», — гендиректор Shopify разослал сотрудникам письмо. Кратко о новой реальности:
🟢 Использовать ИИ в работе теперь обязаны все: от рядового менеджера до CEO.
🟢 Навыки промптинга появятся в перформанс-ревью Shopify.
🟢 И прежде чем просить больше сотрудников и ресурсов команды должны ходить доказывать, почему они не могут обойтись помощью ИИ. 😭
Как бы вы отнеслись к такой новой политике в вашей компании?
🔥 — за
💔 — против
@xor_journal
🟢 Использовать ИИ в работе теперь обязаны все: от рядового менеджера до CEO.
🟢 Навыки промптинга появятся в перформанс-ревью Shopify.
🟢 И прежде чем просить больше сотрудников и ресурсов команды должны ходить доказывать, почему они не могут обойтись помощью ИИ. 😭
Как бы вы отнеслись к такой новой политике в вашей компании?
🔥 — за
💔 — против
@xor_journal


31.03.202513:25
Правильное применение дипфейка (GPT-4o и Kling или SORA какая, пятиклассник сделает) в 2025😅
31.03.202523:07
В общем, я решил, что завязываю с каналом и АйТиБородой. Закрываю канал, выгорел окончательно. Видео будут доступны ещё два дня, а потом снесу все к чертям ватнячим. Скачивайте, пока есть возможность.


02.04.202522:20
Вот смотрите, какая статистика: сегодня я часов 7–8 очень интенсивно кодогенерировал клубного бота (для Эволюции Кода) вместе с Курсором и самой мощной в нём моделью Claude 3.7 Max. Ставил ему задачи, рассказывал про примеры, архитектуры, указывал на ошибки и всё такое. Это было похоже больше на парное программирование с младшим сотрудником, но который схватывает твои указания с полпинка и имплементирует за пару минут, потом ещё десять минут сидишь, вычитываешь и диву даёшься, как оно всё красиво на этом вашем Go написало.
По итогу, заимплементил штук восемь новых хендлеров для бота, перелопатили вместе архитектуру старых хендлеров, Клод нашёл отличную реализацию конверсейшенов в несколько сообщений (длинные диалоги в рамках телеграм-чата) и успешно её имплементировал с моих подачек. Запилили вместе мигратор (там база данных недавно появилась), пообновляли доку, переписали пользовательские сообщения. Словом, я бы на это потратил добрые 4–5 дня, и это при условии того, если бы я знал Go (я не знаю). На всё про всё Курсор спалил почти 24 бакса (стата на скрине).
Выводы какие?
Нулевой: Claude 3.7 Thinking (в Курсоре, который Max) на голову выше обычного 3.7 и в миллиард раз лучше Gemini 2.5 Pro. С новым ГПТ чё не успел сравнить, но вангую, что там будет что-то похожее. Ещё надо бы think прикрутить к обычному Claude 3.7 — есть шанс, что догонит думающий, но денежка будет палиться с подписки Курсора, а не напрямую с карты.
Первый: ИИ абсолютно точно умеет генерить фичи с нуля — главное, дробить грамотно и подавать контекст с продуманными наставлениями, а не абы что, как многие привыкли ("здарова, заимплеменьти мне мою задачу на 100500 сторипоинтов в гавнолите." "Уууу, не справилось, гавно!").
Второе: вайбкодинг — это хуетень для смузихлебов. Если бы я вайбкодил, то перестал бы понимать, что происходит, примерно на втором запуске агентов, а примерно на третьем весь мой бот превратился бы в отборный лапшекод и кусок абсолютно ненужного овна. Не то чтобы он идеален, но его приятно дописывать, расширять и в целом работать с ним. Не будь у меня какого-никакого опыта в архитектуре, вайбкод бы напрочь отбил желание что-то с ботом делать — пошёл бы в проститутки, как на том меме (кстати, может, надо было...).
Третий: при интенсивной работе с Курсором (либо по API с топовыми моделями, as you wish) если ты палишь меньше 10–25 баксов за 8–10 часов работы, то ты либо хуйней страдаешь, либо как-то не так используешь ИИ. Из статы видно, что рутовых (чистых) запросов к модели было кропаль на фоне вызова моделью инструментов — соотношение 1 к 5. Короче, если ты всё ещё "программируешь" в чате GPT, слыхом не слыхал, что такое MCP, инструменты, агенты — то у меня для тебя плохие новости. Может таки стоит потратить денег на Эволюцию Кода (ни на что не намекаю, meh)?
Четвёртый: если ты начинающий разраб/эсса, то тебе не повезло. Во-первых, тебе надо прилагать кратно больше усилий, чтобы совладать со своей ленью в эпоху всех этих ИИ. Во-вторых, я, честно, хз, как бы, будучи джуном, я смог бы качественно ИИ объяснять, что делать. Скорее всего, не смог бы. То есть новичкам теперь нужно: качать базу программирования, качать системный дизайн с архитектурой (всё, что Владос Тен завещал) и ещё сверху прокачивать навык работы и общения с ИИ, параллельно укрощая лень и нежелание вычитывать то, что там эта бездушная машина написала.
Как-то так я провел свой день. А как вы как развлекаетесь?
По итогу, заимплементил штук восемь новых хендлеров для бота, перелопатили вместе архитектуру старых хендлеров, Клод нашёл отличную реализацию конверсейшенов в несколько сообщений (длинные диалоги в рамках телеграм-чата) и успешно её имплементировал с моих подачек. Запилили вместе мигратор (там база данных недавно появилась), пообновляли доку, переписали пользовательские сообщения. Словом, я бы на это потратил добрые 4–5 дня, и это при условии того, если бы я знал Go (я не знаю). На всё про всё Курсор спалил почти 24 бакса (стата на скрине).
Выводы какие?
Нулевой: Claude 3.7 Thinking (в Курсоре, который Max) на голову выше обычного 3.7 и в миллиард раз лучше Gemini 2.5 Pro. С новым ГПТ чё не успел сравнить, но вангую, что там будет что-то похожее. Ещё надо бы think прикрутить к обычному Claude 3.7 — есть шанс, что догонит думающий, но денежка будет палиться с подписки Курсора, а не напрямую с карты.
Первый: ИИ абсолютно точно умеет генерить фичи с нуля — главное, дробить грамотно и подавать контекст с продуманными наставлениями, а не абы что, как многие привыкли ("здарова, заимплеменьти мне мою задачу на 100500 сторипоинтов в гавнолите." "Уууу, не справилось, гавно!").
Второе: вайбкодинг — это хуетень для смузихлебов. Если бы я вайбкодил, то перестал бы понимать, что происходит, примерно на втором запуске агентов, а примерно на третьем весь мой бот превратился бы в отборный лапшекод и кусок абсолютно ненужного овна. Не то чтобы он идеален, но его приятно дописывать, расширять и в целом работать с ним. Не будь у меня какого-никакого опыта в архитектуре, вайбкод бы напрочь отбил желание что-то с ботом делать — пошёл бы в проститутки, как на том меме (кстати, может, надо было...).
Третий: при интенсивной работе с Курсором (либо по API с топовыми моделями, as you wish) если ты палишь меньше 10–25 баксов за 8–10 часов работы, то ты либо хуйней страдаешь, либо как-то не так используешь ИИ. Из статы видно, что рутовых (чистых) запросов к модели было кропаль на фоне вызова моделью инструментов — соотношение 1 к 5. Короче, если ты всё ещё "программируешь" в чате GPT, слыхом не слыхал, что такое MCP, инструменты, агенты — то у меня для тебя плохие новости. Может таки стоит потратить денег на Эволюцию Кода (ни на что не намекаю, meh)?
Четвёртый: если ты начинающий разраб/эсса, то тебе не повезло. Во-первых, тебе надо прилагать кратно больше усилий, чтобы совладать со своей ленью в эпоху всех этих ИИ. Во-вторых, я, честно, хз, как бы, будучи джуном, я смог бы качественно ИИ объяснять, что делать. Скорее всего, не смог бы. То есть новичкам теперь нужно: качать базу программирования, качать системный дизайн с архитектурой (всё, что Владос Тен завещал) и ещё сверху прокачивать навык работы и общения с ИИ, параллельно укрощая лень и нежелание вычитывать то, что там эта бездушная машина написала.
Как-то так я провел свой день. А как вы как развлекаетесь?


15.04.202521:46
से पुनः पोस्ट किया:
partially unsupervised

15.04.202512:48
Про вайбкодинг
Я сжег уже больше 100М токенов в Claude Code, потому имею моральное право поделиться опытом про вайбкодинг.
1. Вайбкодинг действительно очень сильно ускоряет решение большей части задач. Нюанс, как обычно, в том, чтобы вовремя заметить те 20% кода, где его применять не надо.
Не надо применять:
- нетривиальный алгоритмический код (сломается в корнеркейсе - задолбаешься дебажить);
- свежие библиотеки (даже если заставлять читать документацию из интернета, в среднем получается плохо);
- метапрограммирование, написание фреймворков, дизайн API между компонентами;
- security-sensitive задачи.
Надо применять:
- +1 задачи (посмотри, как сделано здесь, и сделай по аналогии);
- все некритичные задачи в незнакомом домене (набросать фронтенд);
- типичный IO layer (в основном хендлеры);
- задачи, в которых вся “сложность” - знать 100500 команд и флагов API (например, aws cli).
2. Вайбкодинг несет неочевидный оверхед в сеньорной команде. Раньше если человек видел код и не понимал его с первой попытки, применялась презумпция качественного кода: если оно написано и закоммичено умным человеком, то, наверное, в этом смысл, надо перечитать и вдуматься. Сейчас иногда приходится переспрашивать “в этом есть какой-то нетривиальный замысел или ты просто нагенерил говна?”
3. Всегда нужно останавливаться и рефакторить - что-то руками, что-то и вайбкодом (“остановись и посмотри, что ты нахуевертил”). Вайбкодинг приводит к куче лишних сущностей, надо вовремя подрезать.
4. Если диалог идет не в ту сторону с нескольких итераций, нужно всегда начинать сначала, его уже не спасти. Если несколько попыткок стабильно скатываются в дичь, несмотря на добавление деталей в изначальный промпт, см. пункт 1.
5. Главный кайф не только в кодогенерации, а именно в активном агентском режиме - кидаешь промпт типа “посмотри на CI, почему упал такой-то PR и найди проблему” или “я задеплоил сервис этим терраформом, посмотри все логи и разберись, почему хелсчеки не проходят”.
6. Для эффективной работы нужно дописывать правила в
Делитесь своими лучшими практиками в комментах! Просто ворчать, что вайбкодинг - херня для кретинов, можно тоже там.
Я сжег уже больше 100М токенов в Claude Code, потому имею моральное право поделиться опытом про вайбкодинг.
1. Вайбкодинг действительно очень сильно ускоряет решение большей части задач. Нюанс, как обычно, в том, чтобы вовремя заметить те 20% кода, где его применять не надо.
Не надо применять:
- нетривиальный алгоритмический код (сломается в корнеркейсе - задолбаешься дебажить);
- свежие библиотеки (даже если заставлять читать документацию из интернета, в среднем получается плохо);
- метапрограммирование, написание фреймворков, дизайн API между компонентами;
- security-sensitive задачи.
Надо применять:
- +1 задачи (посмотри, как сделано здесь, и сделай по аналогии);
- все некритичные задачи в незнакомом домене (набросать фронтенд);
- типичный IO layer (в основном хендлеры);
- задачи, в которых вся “сложность” - знать 100500 команд и флагов API (например, aws cli).
2. Вайбкодинг несет неочевидный оверхед в сеньорной команде. Раньше если человек видел код и не понимал его с первой попытки, применялась презумпция качественного кода: если оно написано и закоммичено умным человеком, то, наверное, в этом смысл, надо перечитать и вдуматься. Сейчас иногда приходится переспрашивать “в этом есть какой-то нетривиальный замысел или ты просто нагенерил говна?”
3. Всегда нужно останавливаться и рефакторить - что-то руками, что-то и вайбкодом (“остановись и посмотри, что ты нахуевертил”). Вайбкодинг приводит к куче лишних сущностей, надо вовремя подрезать.
4. Если диалог идет не в ту сторону с нескольких итераций, нужно всегда начинать сначала, его уже не спасти. Если несколько попыткок стабильно скатываются в дичь, несмотря на добавление деталей в изначальный промпт, см. пункт 1.
5. Главный кайф не только в кодогенерации, а именно в активном агентском режиме - кидаешь промпт типа “посмотри на CI, почему упал такой-то PR и найди проблему” или “я задеплоил сервис этим терраформом, посмотри все логи и разберись, почему хелсчеки не проходят”.
6. Для эффективной работы нужно дописывать правила в
CLAUDE.md
(.cursorrules
и так далее), подключать релевантные MCP и в целом анализировать, где оно косячит. Например, вот кусок моего глобал конфига: Python style guide:
Делитесь своими лучшими практиками в комментах! Просто ворчать, что вайбкодинг - херня для кретинов, можно тоже там.
24.04.202501:41
Очень крутое путешествие в замедление времени: https://youtu.be/Z2lXrqmBkP0
Никогда раньше не слушал Игоря Иванова, теперь буду 😊
Никогда раньше не слушал Игоря Иванова, теперь буду 😊
16.04.202512:48
Ну, теперь заживём: JetBrains наконец-то релизнули своего агентного кодописателя Junie: https://blog.jetbrains.com/blog/2025/04/16/jetbrains-ides-go-ai/
Если кто-то ещё не в курсе, это агентный чат, который умеет писать код под ключ и вызывать инструменты на уровне Cursor, а местами даже лучше. Я делал целый двухчасовой обзор для клуба, если что.
Инструмент распространяется по единой подписке JetBrains AI Pro (наконец-то она будет стоить своих денег) и доступен в IntelliJ IDEA Ultimate, PyCharm Professional, WebStorm и GoLand. PhpStorm, RustRover и RubyMine обещают добавить в скором времени.
Также в подписку добавили free-уровень, дающий доступ к неограниченным локальным однострочным кодкомплишенам (было и раньше) и возможность подключать локальные модели в чат AI Assistant (через LMStudio и Ollama). Использование Junie и AI Assistant в этой подписке credit-based.
И ещё из приятного: теперь вместе со стандартными подписками All Products Pack и dotUltimate вам в придачу дадут дополнительно подписку JetBrains AI Pro.
UPD: А ещё, для AI Assistant завезли поддержку MCP. Короче, подарков как на Новый Год!
Если кто-то ещё не в курсе, это агентный чат, который умеет писать код под ключ и вызывать инструменты на уровне Cursor, а местами даже лучше. Я делал целый двухчасовой обзор для клуба, если что.
Инструмент распространяется по единой подписке JetBrains AI Pro (наконец-то она будет стоить своих денег) и доступен в IntelliJ IDEA Ultimate, PyCharm Professional, WebStorm и GoLand. PhpStorm, RustRover и RubyMine обещают добавить в скором времени.
Также в подписку добавили free-уровень, дающий доступ к неограниченным локальным однострочным кодкомплишенам (было и раньше) и возможность подключать локальные модели в чат AI Assistant (через LMStudio и Ollama). Использование Junie и AI Assistant в этой подписке credit-based.
И ещё из приятного: теперь вместе со стандартными подписками All Products Pack и dotUltimate вам в придачу дадут дополнительно подписку JetBrains AI Pro.
UPD: А ещё, для AI Assistant завезли поддержку MCP. Короче, подарков как на Новый Год!
से पुनः पोस्ट किया:
Эволюция Кода / Анонсы



29.03.202509:41
🔥 Сравнение ВСЕХ AI-first IDE!
В этом обзоре я сравню семь AI-first IDE по здоровенной куче параметров: начиная от автокомплита и ИИ-чатов и заканчивая подписками, работай с локальными моделями и безопасностью. На сравнение попали: Cursor, Windsurf Editor, Trae, PearAI, Void, Theia IDE и Zed.
ЧТО ВНУТРИ
- Базовая информация про IDE из обзора
- КУЧА сравнений
- Плюсы и минусы всех участников обзора
- А что там с JetBrains IDEs и VS Code?
- Про то, что такое AI-first IDE сегодня
КРИТЕРИИ СРАВНЕНИЯ
- Интерфейсы IDEs
- Автодополнения
- Настройки Theia IDE
- Отключение автодополнений
- Inline-промптинг
- Контекстное меню
- сравенение ИИ-чатов и агентных чатов
- Создание своих агентов
- ИИ-терминал
- Думающие модели
- Поддержка ключей API
- Пользовательские промпты
- Web-поиск
- Автокоммит-сообщения
- Изображения на входе
- Параллельная работа
- Продвинутое автодополнение
- Буфер обмена
- Next Tab Edit
- Индексация проектов
- Правила для проектов
- Автоматическое выполнение команд
- MCP
- Индексация документации
- Память
- Интеграция с Git
- Автовыбор моделей, саммаризация чатов
- Подсчет токенов
- Про подписки
- Личный кабинет
- Прозрачность цен
- Pay-as-you-go и статистика запросов
- Работа с локальными моделями
- Безопасность и сертификаты
- Team-подписки
- Self-hosted версии
- Интеграция с GitHub Copilot
👉 Смотреть целиком в Эволюции Кода
#evo_обзор
В этом обзоре я сравню семь AI-first IDE по здоровенной куче параметров: начиная от автокомплита и ИИ-чатов и заканчивая подписками, работай с локальными моделями и безопасностью. На сравнение попали: Cursor, Windsurf Editor, Trae, PearAI, Void, Theia IDE и Zed.
ЧТО ВНУТРИ
- Базовая информация про IDE из обзора
- КУЧА сравнений
- Плюсы и минусы всех участников обзора
- А что там с JetBrains IDEs и VS Code?
- Про то, что такое AI-first IDE сегодня
КРИТЕРИИ СРАВНЕНИЯ
- Интерфейсы IDEs
- Автодополнения
- Настройки Theia IDE
- Отключение автодополнений
- Inline-промптинг
- Контекстное меню
- сравенение ИИ-чатов и агентных чатов
- Создание своих агентов
- ИИ-терминал
- Думающие модели
- Поддержка ключей API
- Пользовательские промпты
- Web-поиск
- Автокоммит-сообщения
- Изображения на входе
- Параллельная работа
- Продвинутое автодополнение
- Буфер обмена
- Next Tab Edit
- Индексация проектов
- Правила для проектов
- Автоматическое выполнение команд
- MCP
- Индексация документации
- Память
- Интеграция с Git
- Автовыбор моделей, саммаризация чатов
- Подсчет токенов
- Про подписки
- Личный кабинет
- Прозрачность цен
- Pay-as-you-go и статистика запросов
- Работа с локальными моделями
- Безопасность и сертификаты
- Team-подписки
- Self-hosted версии
- Интеграция с GitHub Copilot
👉 Смотреть целиком в Эволюции Кода
#evo_обзор
25.04.202513:06
Trae IDE получил большое обновление
- Новый UI
- Билдер кастомных агентов
- Веб-поиск и индексация!! документации (в нормальном виде была только в Cursor)
- Поддержка рулов для проекта
- Поддержка MCP!!!
- Добавили OpenRouter как провайдер моделей.
Ну что, официально теперь это ТОП-3 AI-first IDE. Да ещё и бесплатная (в обмен на ваши данных во славу КПК, видимо)
- Новый UI
- Билдер кастомных агентов
- Веб-поиск и индексация!! документации (в нормальном виде была только в Cursor)
- Поддержка рулов для проекта
- Поддержка MCP!!!
- Добавили OpenRouter как провайдер моделей.
Ну что, официально теперь это ТОП-3 AI-first IDE. Да ещё и бесплатная (в обмен на ваши данных во славу КПК, видимо)
04.04.202517:59
Хабр же всегда был токсичным пристанищем диназавров и им подражающих из эпохи форумов и указок по пальцам, ничего не перепутал?
https://youtu.be/X4KSF5hnfK8
P.S. Сане респект за заданные вопросы. Услышал всё, что хотел. Пожалуй, единственная нормальная руязычная айтишная журналистика из существующей на ЮТ сегодня.
P.P.S. Понял, что заходил на хабр в последний раз года три назад, а активно следить перестал и вовсе в году 2014-16, после нескольких статей и смачных хуёв в комментариях.
https://youtu.be/X4KSF5hnfK8
P.S. Сане респект за заданные вопросы. Услышал всё, что хотел. Пожалуй, единственная нормальная руязычная айтишная журналистика из существующей на ЮТ сегодня.
P.P.S. Понял, что заходил на хабр в последний раз года три назад, а активно следить перестал и вовсе в году 2014-16, после нескольких статей и смачных хуёв в комментариях.
26.04.202504:07
⚡️ Новый выпуск AIA Podcast уже онлайн!
Сегодня ныряем в мир ИИ: обсуждаем горячие покупки OpenAI (Windsurf, собственная соцсеть, Codex в опенсорсе), новые модели GPT-4.1 и o3, амбициозные планы Anthropic по интерпретируемости и сознанию ИИ, свежие релизы от Google (Gemini 2.5 Flash) и Nvidia (производство ИИ-чипов в США), тестируем обновления в Grok и новых ассистентов от JetBrains и Docker, кайфуем от музыкальных возможностей DeepMind (Lyria 2) и видеоаватаров Character.AI, следим за революцией в кино с Runway и Fabula, изучаем первого в мире опенсорс-агента общего назначения Suna и погружаемся в законотворческие ИИ-эксперименты в ОАЭ.
Ну а в финале — мощнейший полный разбор со СПОЙЛЕРАМИ всех серий нового сезона «Чёрного зеркала», ведь каждая из них так или иначе про ИИ!
👉 YouTube: https://youtu.be/FihjelyaoEE
👉 Apple Podcasts: https://bit.ly/aia-apple
👉 Spotify: https://bit.ly/aia-spotify
👉 Скачать mp3: https://aia.simplecast.com/episodes/109
Сегодня ныряем в мир ИИ: обсуждаем горячие покупки OpenAI (Windsurf, собственная соцсеть, Codex в опенсорсе), новые модели GPT-4.1 и o3, амбициозные планы Anthropic по интерпретируемости и сознанию ИИ, свежие релизы от Google (Gemini 2.5 Flash) и Nvidia (производство ИИ-чипов в США), тестируем обновления в Grok и новых ассистентов от JetBrains и Docker, кайфуем от музыкальных возможностей DeepMind (Lyria 2) и видеоаватаров Character.AI, следим за революцией в кино с Runway и Fabula, изучаем первого в мире опенсорс-агента общего назначения Suna и погружаемся в законотворческие ИИ-эксперименты в ОАЭ.
Ну а в финале — мощнейший полный разбор со СПОЙЛЕРАМИ всех серий нового сезона «Чёрного зеркала», ведь каждая из них так или иначе про ИИ!
👉 YouTube: https://youtu.be/FihjelyaoEE
👉 Apple Podcasts: https://bit.ly/aia-apple
👉 Spotify: https://bit.ly/aia-spotify
👉 Скачать mp3: https://aia.simplecast.com/episodes/109
से पुनः पोस्ट किया:
Эволюция Кода / Анонсы

22.04.202511:36
📰 ТОП-4 новости из 48го дайджеста новостей ИИ в программировании
🔸 OpenAI представила reasoning-модели o3 и o4-mini: o3 — теперь самая мощная модель OpenAI, обходит даже pro-режим o1. Обе модели поддерживают 200k токенов контекста и могут "думать" изображениями, открывая новые задачи.
🔸 Google показала Gemma 3 QAT: оптимизированные модели Gemma 3 теперь занимают в 3–4 раза меньше памяти при сохранении качества. Доступны даже на обычных потребительских устройствах благодаря Quantization-Aware Training.
🔸 OpenAI выложила Codex в open source: CLI-инструмент для программирования в духе aider и claude code, но проще в установке и использовании. Работает локально, легко встраивается в dev-процессы.
🔸 Grok добавил Canvas с поддержкой Python и Bash: полноценное IDE-пространство прямо в браузере. Можно запускать код в разных языках, есть Google Drive-интеграция. Новый удобный инструмент для быстрой работы с ИИ.
👉 Полный дайджест (текст и аудио)
#aidigest
🔸 OpenAI представила reasoning-модели o3 и o4-mini: o3 — теперь самая мощная модель OpenAI, обходит даже pro-режим o1. Обе модели поддерживают 200k токенов контекста и могут "думать" изображениями, открывая новые задачи.
🔸 Google показала Gemma 3 QAT: оптимизированные модели Gemma 3 теперь занимают в 3–4 раза меньше памяти при сохранении качества. Доступны даже на обычных потребительских устройствах благодаря Quantization-Aware Training.
🔸 OpenAI выложила Codex в open source: CLI-инструмент для программирования в духе aider и claude code, но проще в установке и использовании. Работает локально, легко встраивается в dev-процессы.
🔸 Grok добавил Canvas с поддержкой Python и Bash: полноценное IDE-пространство прямо в браузере. Можно запускать код в разных языках, есть Google Drive-интеграция. Новый удобный инструмент для быстрой работы с ИИ.
👉 Полный дайджест (текст и аудио)
#aidigest
05.04.202519:14
🔥Буквально только что Meta наконец выкатила Llama 4 (ждали долго).
В семействе есть две модели: Llama 4 Scout и Llama 4 Maverick, и все они опенсорсные (с лицензией Meta ofks). Модель Llama 4 Scout является смесью 16 экспертов по 17B (итого 109B), с максимальной длиной контекста в рекордные 10 млн токенов. Llama 4 Maverick является смесью аж 128 экспертов по 17B (400B параметров) с максимальной длиной контекста в 1 млн токенов. Обе модели могут принимать на вход текст и изображения, отвечают только текстом. Среди поддерживаемых языков, к сожалению, нет русского.
Благодаря тому, что это MoE, есть вероятность, что не потребуется все 100–400 ГБ памяти для работы модели, так как в моменте ей нужно запускать эксперта на 17B. По крайней мере, Llama 4 Scout может работать на одном 1×H100 GPU в q4 (Maverick’у одной карточки не хватит).
Скачать модели можно тут, и в этом же репозитории есть намёки на ещё две модели, которые появятся позже: Llama 4 Behemoth и Llama 4 Reasoning. Ставлю на то, что Бегемот будет на 1T параметров 😊
UPD: ванговать не пришлось, будет 2Т!!!
В семействе есть две модели: Llama 4 Scout и Llama 4 Maverick, и все они опенсорсные (с лицензией Meta ofks). Модель Llama 4 Scout является смесью 16 экспертов по 17B (итого 109B), с максимальной длиной контекста в рекордные 10 млн токенов. Llama 4 Maverick является смесью аж 128 экспертов по 17B (400B параметров) с максимальной длиной контекста в 1 млн токенов. Обе модели могут принимать на вход текст и изображения, отвечают только текстом. Среди поддерживаемых языков, к сожалению, нет русского.
Благодаря тому, что это MoE, есть вероятность, что не потребуется все 100–400 ГБ памяти для работы модели, так как в моменте ей нужно запускать эксперта на 17B. По крайней мере, Llama 4 Scout может работать на одном 1×H100 GPU в q4 (Maverick’у одной карточки не хватит).
Скачать модели можно тут, и в этом же репозитории есть намёки на ещё две модели, которые появятся позже: Llama 4 Behemoth и Llama 4 Reasoning. Ставлю на то, что Бегемот будет на 1T параметров 😊
UPD: ванговать не пришлось, будет 2Т!!!
09.04.202521:08
https://youtu.be/XiwriW1ET-c - если вы думали, что чтение мыслей всё ещё сказка, очень рекомендую это недооцененное видео (117просотров на момент поста)
UPD: фантастика ближайших 10-15 лет начинается с 42ой минуты.
UPD: фантастика ближайших 10-15 лет начинается с 42ой минуты.
चैनल परिवर्तन इतिहास
अधिक कार्यक्षमता अनलॉक करने के लिए लॉगिन करें।