
Україна Online: Новини | Політика

Телеграмна служба новин - Україна

Резидент

Мир сегодня с "Юрий Подоляка"

Труха⚡️Україна

Николаевский Ванёк

Лачен пише

Реальний Київ | Украина

Реальна Війна

Україна Online: Новини | Політика

Телеграмна служба новин - Україна

Резидент

Мир сегодня с "Юрий Подоляка"

Труха⚡️Україна

Николаевский Ванёк

Лачен пише

Реальний Київ | Украина

Реальна Війна

Україна Online: Новини | Політика

Телеграмна служба новин - Україна

Резидент

АйТиБорода
Авторский by @iamitbeard. Про IT, технологии и ИИ; без цензуры и политстирильности. Чат @itbeard_talk
Слава Україні. Жыве Беларусь.
АйТиБорода: https://youtube.com/itbeard
Эволюция Кода: https://web.tribute.tg/l/ge
AIA Podcast: https://itbeard.com/aia
Слава Україні. Жыве Беларусь.
АйТиБорода: https://youtube.com/itbeard
Эволюция Кода: https://web.tribute.tg/l/ge
AIA Podcast: https://itbeard.com/aia
TGlist рейтинг
0
0
ТипАчык
Текшерүү
ТекшерилгенИшенимдүүлүк
ИшенимсизОрдуБілорусь
ТилиБашка
Канал түзүлгөн датаFeb 06, 2025
TGlistке кошулган дата
Oct 17, 2024Тиркелген топ

АйТиБорода / Комментарии, чат
357
Рекорддор
17.10.202423:59
21.9KКатталгандар16.03.202523:59
200Цитация индекси01.04.202523:59
3.5K1 посттун көрүүлөрү06.03.202514:39
3.5K1 жарнама посттун көрүүлөрү09.03.202517:55
27.73%ER01.04.202523:59
16.70%ERRӨнүгүү
Катталуучулар
Citation индекси
Бир посттун көрүүсү
Жарнамалык посттун көрүүсү
ER
ERR
Кайра бөлүшүлгөн:
XOR





09.04.202520:51
«Мы ожидаем от всех сотрудников навыков владения нейросетями», — гендиректор Shopify разослал сотрудникам письмо. Кратко о новой реальности:
🟢 Использовать ИИ в работе теперь обязаны все: от рядового менеджера до CEO.
🟢 Навыки промптинга появятся в перформанс-ревью Shopify.
🟢 И прежде чем просить больше сотрудников и ресурсов команды должны ходить доказывать, почему они не могут обойтись помощью ИИ. 😭
Как бы вы отнеслись к такой новой политике в вашей компании?
🔥 — за
💔 — против
@xor_journal
🟢 Использовать ИИ в работе теперь обязаны все: от рядового менеджера до CEO.
🟢 Навыки промптинга появятся в перформанс-ревью Shopify.
🟢 И прежде чем просить больше сотрудников и ресурсов команды должны ходить доказывать, почему они не могут обойтись помощью ИИ. 😭
Как бы вы отнеслись к такой новой политике в вашей компании?
🔥 — за
💔 — против
@xor_journal


31.03.202513:25
Правильное применение дипфейка (GPT-4o и Kling или SORA какая, пятиклассник сделает) в 2025😅
31.03.202523:07
В общем, я решил, что завязываю с каналом и АйТиБородой. Закрываю канал, выгорел окончательно. Видео будут доступны ещё два дня, а потом снесу все к чертям ватнячим. Скачивайте, пока есть возможность.


02.04.202522:20
Вот смотрите, какая статистика: сегодня я часов 7–8 очень интенсивно кодогенерировал клубного бота (для Эволюции Кода) вместе с Курсором и самой мощной в нём моделью Claude 3.7 Max. Ставил ему задачи, рассказывал про примеры, архитектуры, указывал на ошибки и всё такое. Это было похоже больше на парное программирование с младшим сотрудником, но который схватывает твои указания с полпинка и имплементирует за пару минут, потом ещё десять минут сидишь, вычитываешь и диву даёшься, как оно всё красиво на этом вашем Go написало.
По итогу, заимплементил штук восемь новых хендлеров для бота, перелопатили вместе архитектуру старых хендлеров, Клод нашёл отличную реализацию конверсейшенов в несколько сообщений (длинные диалоги в рамках телеграм-чата) и успешно её имплементировал с моих подачек. Запилили вместе мигратор (там база данных недавно появилась), пообновляли доку, переписали пользовательские сообщения. Словом, я бы на это потратил добрые 4–5 дня, и это при условии того, если бы я знал Go (я не знаю). На всё про всё Курсор спалил почти 24 бакса (стата на скрине).
Выводы какие?
Нулевой: Claude 3.7 Thinking (в Курсоре, который Max) на голову выше обычного 3.7 и в миллиард раз лучше Gemini 2.5 Pro. С новым ГПТ чё не успел сравнить, но вангую, что там будет что-то похожее. Ещё надо бы think прикрутить к обычному Claude 3.7 — есть шанс, что догонит думающий, но денежка будет палиться с подписки Курсора, а не напрямую с карты.
Первый: ИИ абсолютно точно умеет генерить фичи с нуля — главное, дробить грамотно и подавать контекст с продуманными наставлениями, а не абы что, как многие привыкли ("здарова, заимплеменьти мне мою задачу на 100500 сторипоинтов в гавнолите." "Уууу, не справилось, гавно!").
Второе: вайбкодинг — это хуетень для смузихлебов. Если бы я вайбкодил, то перестал бы понимать, что происходит, примерно на втором запуске агентов, а примерно на третьем весь мой бот превратился бы в отборный лапшекод и кусок абсолютно ненужного овна. Не то чтобы он идеален, но его приятно дописывать, расширять и в целом работать с ним. Не будь у меня какого-никакого опыта в архитектуре, вайбкод бы напрочь отбил желание что-то с ботом делать — пошёл бы в проститутки, как на том меме (кстати, может, надо было...).
Третий: при интенсивной работе с Курсором (либо по API с топовыми моделями, as you wish) если ты палишь меньше 10–25 баксов за 8–10 часов работы, то ты либо хуйней страдаешь, либо как-то не так используешь ИИ. Из статы видно, что рутовых (чистых) запросов к модели было кропаль на фоне вызова моделью инструментов — соотношение 1 к 5. Короче, если ты всё ещё "программируешь" в чате GPT, слыхом не слыхал, что такое MCP, инструменты, агенты — то у меня для тебя плохие новости. Может таки стоит потратить денег на Эволюцию Кода (ни на что не намекаю, meh)?
Четвёртый: если ты начинающий разраб/эсса, то тебе не повезло. Во-первых, тебе надо прилагать кратно больше усилий, чтобы совладать со своей ленью в эпоху всех этих ИИ. Во-вторых, я, честно, хз, как бы, будучи джуном, я смог бы качественно ИИ объяснять, что делать. Скорее всего, не смог бы. То есть новичкам теперь нужно: качать базу программирования, качать системный дизайн с архитектурой (всё, что Владос Тен завещал) и ещё сверху прокачивать навык работы и общения с ИИ, параллельно укрощая лень и нежелание вычитывать то, что там эта бездушная машина написала.
Как-то так я провел свой день. А как вы как развлекаетесь?
По итогу, заимплементил штук восемь новых хендлеров для бота, перелопатили вместе архитектуру старых хендлеров, Клод нашёл отличную реализацию конверсейшенов в несколько сообщений (длинные диалоги в рамках телеграм-чата) и успешно её имплементировал с моих подачек. Запилили вместе мигратор (там база данных недавно появилась), пообновляли доку, переписали пользовательские сообщения. Словом, я бы на это потратил добрые 4–5 дня, и это при условии того, если бы я знал Go (я не знаю). На всё про всё Курсор спалил почти 24 бакса (стата на скрине).
Выводы какие?
Нулевой: Claude 3.7 Thinking (в Курсоре, который Max) на голову выше обычного 3.7 и в миллиард раз лучше Gemini 2.5 Pro. С новым ГПТ чё не успел сравнить, но вангую, что там будет что-то похожее. Ещё надо бы think прикрутить к обычному Claude 3.7 — есть шанс, что догонит думающий, но денежка будет палиться с подписки Курсора, а не напрямую с карты.
Первый: ИИ абсолютно точно умеет генерить фичи с нуля — главное, дробить грамотно и подавать контекст с продуманными наставлениями, а не абы что, как многие привыкли ("здарова, заимплеменьти мне мою задачу на 100500 сторипоинтов в гавнолите." "Уууу, не справилось, гавно!").
Второе: вайбкодинг — это хуетень для смузихлебов. Если бы я вайбкодил, то перестал бы понимать, что происходит, примерно на втором запуске агентов, а примерно на третьем весь мой бот превратился бы в отборный лапшекод и кусок абсолютно ненужного овна. Не то чтобы он идеален, но его приятно дописывать, расширять и в целом работать с ним. Не будь у меня какого-никакого опыта в архитектуре, вайбкод бы напрочь отбил желание что-то с ботом делать — пошёл бы в проститутки, как на том меме (кстати, может, надо было...).
Третий: при интенсивной работе с Курсором (либо по API с топовыми моделями, as you wish) если ты палишь меньше 10–25 баксов за 8–10 часов работы, то ты либо хуйней страдаешь, либо как-то не так используешь ИИ. Из статы видно, что рутовых (чистых) запросов к модели было кропаль на фоне вызова моделью инструментов — соотношение 1 к 5. Короче, если ты всё ещё "программируешь" в чате GPT, слыхом не слыхал, что такое MCP, инструменты, агенты — то у меня для тебя плохие новости. Может таки стоит потратить денег на Эволюцию Кода (ни на что не намекаю, meh)?
Четвёртый: если ты начинающий разраб/эсса, то тебе не повезло. Во-первых, тебе надо прилагать кратно больше усилий, чтобы совладать со своей ленью в эпоху всех этих ИИ. Во-вторых, я, честно, хз, как бы, будучи джуном, я смог бы качественно ИИ объяснять, что делать. Скорее всего, не смог бы. То есть новичкам теперь нужно: качать базу программирования, качать системный дизайн с архитектурой (всё, что Владос Тен завещал) и ещё сверху прокачивать навык работы и общения с ИИ, параллельно укрощая лень и нежелание вычитывать то, что там эта бездушная машина написала.
Как-то так я провел свой день. А как вы как развлекаетесь?


15.04.202521:46
25.03.202510:25
З Днём Волі, шаноўнае спадарства!
Кайра бөлүшүлгөн:
partially unsupervised

15.04.202512:48
Про вайбкодинг
Я сжег уже больше 100М токенов в Claude Code, потому имею моральное право поделиться опытом про вайбкодинг.
1. Вайбкодинг действительно очень сильно ускоряет решение большей части задач. Нюанс, как обычно, в том, чтобы вовремя заметить те 20% кода, где его применять не надо.
Не надо применять:
- нетривиальный алгоритмический код (сломается в корнеркейсе - задолбаешься дебажить);
- свежие библиотеки (даже если заставлять читать документацию из интернета, в среднем получается плохо);
- метапрограммирование, написание фреймворков, дизайн API между компонентами;
- security-sensitive задачи.
Надо применять:
- +1 задачи (посмотри, как сделано здесь, и сделай по аналогии);
- все некритичные задачи в незнакомом домене (набросать фронтенд);
- типичный IO layer (в основном хендлеры);
- задачи, в которых вся “сложность” - знать 100500 команд и флагов API (например, aws cli).
2. Вайбкодинг несет неочевидный оверхед в сеньорной команде. Раньше если человек видел код и не понимал его с первой попытки, применялась презумпция качественного кода: если оно написано и закоммичено умным человеком, то, наверное, в этом смысл, надо перечитать и вдуматься. Сейчас иногда приходится переспрашивать “в этом есть какой-то нетривиальный замысел или ты просто нагенерил говна?”
3. Всегда нужно останавливаться и рефакторить - что-то руками, что-то и вайбкодом (“остановись и посмотри, что ты нахуевертил”). Вайбкодинг приводит к куче лишних сущностей, надо вовремя подрезать.
4. Если диалог идет не в ту сторону с нескольких итераций, нужно всегда начинать сначала, его уже не спасти. Если несколько попыткок стабильно скатываются в дичь, несмотря на добавление деталей в изначальный промпт, см. пункт 1.
5. Главный кайф не только в кодогенерации, а именно в активном агентском режиме - кидаешь промпт типа “посмотри на CI, почему упал такой-то PR и найди проблему” или “я задеплоил сервис этим терраформом, посмотри все логи и разберись, почему хелсчеки не проходят”.
6. Для эффективной работы нужно дописывать правила в
Делитесь своими лучшими практиками в комментах! Просто ворчать, что вайбкодинг - херня для кретинов, можно тоже там.
Я сжег уже больше 100М токенов в Claude Code, потому имею моральное право поделиться опытом про вайбкодинг.
1. Вайбкодинг действительно очень сильно ускоряет решение большей части задач. Нюанс, как обычно, в том, чтобы вовремя заметить те 20% кода, где его применять не надо.
Не надо применять:
- нетривиальный алгоритмический код (сломается в корнеркейсе - задолбаешься дебажить);
- свежие библиотеки (даже если заставлять читать документацию из интернета, в среднем получается плохо);
- метапрограммирование, написание фреймворков, дизайн API между компонентами;
- security-sensitive задачи.
Надо применять:
- +1 задачи (посмотри, как сделано здесь, и сделай по аналогии);
- все некритичные задачи в незнакомом домене (набросать фронтенд);
- типичный IO layer (в основном хендлеры);
- задачи, в которых вся “сложность” - знать 100500 команд и флагов API (например, aws cli).
2. Вайбкодинг несет неочевидный оверхед в сеньорной команде. Раньше если человек видел код и не понимал его с первой попытки, применялась презумпция качественного кода: если оно написано и закоммичено умным человеком, то, наверное, в этом смысл, надо перечитать и вдуматься. Сейчас иногда приходится переспрашивать “в этом есть какой-то нетривиальный замысел или ты просто нагенерил говна?”
3. Всегда нужно останавливаться и рефакторить - что-то руками, что-то и вайбкодом (“остановись и посмотри, что ты нахуевертил”). Вайбкодинг приводит к куче лишних сущностей, надо вовремя подрезать.
4. Если диалог идет не в ту сторону с нескольких итераций, нужно всегда начинать сначала, его уже не спасти. Если несколько попыткок стабильно скатываются в дичь, несмотря на добавление деталей в изначальный промпт, см. пункт 1.
5. Главный кайф не только в кодогенерации, а именно в активном агентском режиме - кидаешь промпт типа “посмотри на CI, почему упал такой-то PR и найди проблему” или “я задеплоил сервис этим терраформом, посмотри все логи и разберись, почему хелсчеки не проходят”.
6. Для эффективной работы нужно дописывать правила в
CLAUDE.md
(.cursorrules
и так далее), подключать релевантные MCP и в целом анализировать, где оно косячит. Например, вот кусок моего глобал конфига: Python style guide:
Делитесь своими лучшими практиками в комментах! Просто ворчать, что вайбкодинг - херня для кретинов, можно тоже там.
16.04.202512:48
Ну, теперь заживём: JetBrains наконец-то релизнули своего агентного кодописателя Junie: https://blog.jetbrains.com/blog/2025/04/16/jetbrains-ides-go-ai/
Если кто-то ещё не в курсе, это агентный чат, который умеет писать код под ключ и вызывать инструменты на уровне Cursor, а местами даже лучше. Я делал целый двухчасовой обзор для клуба, если что.
Инструмент распространяется по единой подписке JetBrains AI Pro (наконец-то она будет стоить своих денег) и доступен в IntelliJ IDEA Ultimate, PyCharm Professional, WebStorm и GoLand. PhpStorm, RustRover и RubyMine обещают добавить в скором времени.
Также в подписку добавили free-уровень, дающий доступ к неограниченным локальным однострочным кодкомплишенам (было и раньше) и возможность подключать локальные модели в чат AI Assistant (через LMStudio и Ollama). Использование Junie и AI Assistant в этой подписке credit-based.
И ещё из приятного: теперь вместе со стандартными подписками All Products Pack и dotUltimate вам в придачу дадут дополнительно подписку JetBrains AI Pro.
UPD: А ещё, для AI Assistant завезли поддержку MCP. Короче, подарков как на Новый Год!
Если кто-то ещё не в курсе, это агентный чат, который умеет писать код под ключ и вызывать инструменты на уровне Cursor, а местами даже лучше. Я делал целый двухчасовой обзор для клуба, если что.
Инструмент распространяется по единой подписке JetBrains AI Pro (наконец-то она будет стоить своих денег) и доступен в IntelliJ IDEA Ultimate, PyCharm Professional, WebStorm и GoLand. PhpStorm, RustRover и RubyMine обещают добавить в скором времени.
Также в подписку добавили free-уровень, дающий доступ к неограниченным локальным однострочным кодкомплишенам (было и раньше) и возможность подключать локальные модели в чат AI Assistant (через LMStudio и Ollama). Использование Junie и AI Assistant в этой подписке credit-based.
И ещё из приятного: теперь вместе со стандартными подписками All Products Pack и dotUltimate вам в придачу дадут дополнительно подписку JetBrains AI Pro.
UPD: А ещё, для AI Assistant завезли поддержку MCP. Короче, подарков как на Новый Год!
Кайра бөлүшүлгөн:
Эволюция Кода / Анонсы



29.03.202509:41
🔥 Сравнение ВСЕХ AI-first IDE!
В этом обзоре я сравню семь AI-first IDE по здоровенной куче параметров: начиная от автокомплита и ИИ-чатов и заканчивая подписками, работай с локальными моделями и безопасностью. На сравнение попали: Cursor, Windsurf Editor, Trae, PearAI, Void, Theia IDE и Zed.
ЧТО ВНУТРИ
- Базовая информация про IDE из обзора
- КУЧА сравнений
- Плюсы и минусы всех участников обзора
- А что там с JetBrains IDEs и VS Code?
- Про то, что такое AI-first IDE сегодня
КРИТЕРИИ СРАВНЕНИЯ
- Интерфейсы IDEs
- Автодополнения
- Настройки Theia IDE
- Отключение автодополнений
- Inline-промптинг
- Контекстное меню
- сравенение ИИ-чатов и агентных чатов
- Создание своих агентов
- ИИ-терминал
- Думающие модели
- Поддержка ключей API
- Пользовательские промпты
- Web-поиск
- Автокоммит-сообщения
- Изображения на входе
- Параллельная работа
- Продвинутое автодополнение
- Буфер обмена
- Next Tab Edit
- Индексация проектов
- Правила для проектов
- Автоматическое выполнение команд
- MCP
- Индексация документации
- Память
- Интеграция с Git
- Автовыбор моделей, саммаризация чатов
- Подсчет токенов
- Про подписки
- Личный кабинет
- Прозрачность цен
- Pay-as-you-go и статистика запросов
- Работа с локальными моделями
- Безопасность и сертификаты
- Team-подписки
- Self-hosted версии
- Интеграция с GitHub Copilot
👉 Смотреть целиком в Эволюции Кода
#evo_обзор
В этом обзоре я сравню семь AI-first IDE по здоровенной куче параметров: начиная от автокомплита и ИИ-чатов и заканчивая подписками, работай с локальными моделями и безопасностью. На сравнение попали: Cursor, Windsurf Editor, Trae, PearAI, Void, Theia IDE и Zed.
ЧТО ВНУТРИ
- Базовая информация про IDE из обзора
- КУЧА сравнений
- Плюсы и минусы всех участников обзора
- А что там с JetBrains IDEs и VS Code?
- Про то, что такое AI-first IDE сегодня
КРИТЕРИИ СРАВНЕНИЯ
- Интерфейсы IDEs
- Автодополнения
- Настройки Theia IDE
- Отключение автодополнений
- Inline-промптинг
- Контекстное меню
- сравенение ИИ-чатов и агентных чатов
- Создание своих агентов
- ИИ-терминал
- Думающие модели
- Поддержка ключей API
- Пользовательские промпты
- Web-поиск
- Автокоммит-сообщения
- Изображения на входе
- Параллельная работа
- Продвинутое автодополнение
- Буфер обмена
- Next Tab Edit
- Индексация проектов
- Правила для проектов
- Автоматическое выполнение команд
- MCP
- Индексация документации
- Память
- Интеграция с Git
- Автовыбор моделей, саммаризация чатов
- Подсчет токенов
- Про подписки
- Личный кабинет
- Прозрачность цен
- Pay-as-you-go и статистика запросов
- Работа с локальными моделями
- Безопасность и сертификаты
- Team-подписки
- Self-hosted версии
- Интеграция с GitHub Copilot
👉 Смотреть целиком в Эволюции Кода
#evo_обзор
25.03.202516:25
Андрей Столяров заболел, рак. Ему нужна наша помощь: https://youtu.be/L0Cxx30QIfc
Даже если вы просто поделитесь его обращением или этим постом, это сильно поможет Андрею. Спасибо.
Даже если вы просто поделитесь его обращением или этим постом, это сильно поможет Андрею. Спасибо.
04.04.202517:59
Хабр же всегда был токсичным пристанищем диназавров и им подражающих из эпохи форумов и указок по пальцам, ничего не перепутал?
https://youtu.be/X4KSF5hnfK8
P.S. Сане респект за заданные вопросы. Услышал всё, что хотел. Пожалуй, единственная нормальная руязычная айтишная журналистика из существующей на ЮТ сегодня.
P.P.S. Понял, что заходил на хабр в последний раз года три назад, а активно следить перестал и вовсе в году 2014-16, после нескольких статей и смачных хуёв в комментариях.
https://youtu.be/X4KSF5hnfK8
P.S. Сане респект за заданные вопросы. Услышал всё, что хотел. Пожалуй, единственная нормальная руязычная айтишная журналистика из существующей на ЮТ сегодня.
P.P.S. Понял, что заходил на хабр в последний раз года три назад, а активно следить перестал и вовсе в году 2014-16, после нескольких статей и смачных хуёв в комментариях.
Кайра бөлүшүлгөн:
Эволюция Кода / Анонсы

22.04.202511:36
📰 ТОП-4 новости из 48го дайджеста новостей ИИ в программировании
🔸 OpenAI представила reasoning-модели o3 и o4-mini: o3 — теперь самая мощная модель OpenAI, обходит даже pro-режим o1. Обе модели поддерживают 200k токенов контекста и могут "думать" изображениями, открывая новые задачи.
🔸 Google показала Gemma 3 QAT: оптимизированные модели Gemma 3 теперь занимают в 3–4 раза меньше памяти при сохранении качества. Доступны даже на обычных потребительских устройствах благодаря Quantization-Aware Training.
🔸 OpenAI выложила Codex в open source: CLI-инструмент для программирования в духе aider и claude code, но проще в установке и использовании. Работает локально, легко встраивается в dev-процессы.
🔸 Grok добавил Canvas с поддержкой Python и Bash: полноценное IDE-пространство прямо в браузере. Можно запускать код в разных языках, есть Google Drive-интеграция. Новый удобный инструмент для быстрой работы с ИИ.
👉 Полный дайджест (текст и аудио)
#aidigest
🔸 OpenAI представила reasoning-модели o3 и o4-mini: o3 — теперь самая мощная модель OpenAI, обходит даже pro-режим o1. Обе модели поддерживают 200k токенов контекста и могут "думать" изображениями, открывая новые задачи.
🔸 Google показала Gemma 3 QAT: оптимизированные модели Gemma 3 теперь занимают в 3–4 раза меньше памяти при сохранении качества. Доступны даже на обычных потребительских устройствах благодаря Quantization-Aware Training.
🔸 OpenAI выложила Codex в open source: CLI-инструмент для программирования в духе aider и claude code, но проще в установке и использовании. Работает локально, легко встраивается в dev-процессы.
🔸 Grok добавил Canvas с поддержкой Python и Bash: полноценное IDE-пространство прямо в браузере. Можно запускать код в разных языках, есть Google Drive-интеграция. Новый удобный инструмент для быстрой работы с ИИ.
👉 Полный дайджест (текст и аудио)
#aidigest
Кайра бөлүшүлгөн:
Эволюция Кода / Анонсы



24.03.202511:56
🔥 Горячий обзор на Windsurf Editor и сравнение его с Cursor IDE!
Из этого видео вы узнаете про все фишки второй по популярности AI-first IDE, а также сможете понять, чем он лучше и хуже нашего любимого Cursor. Будем сравнивать буквально по всем параметрам: автокомплиты, ИИ-чаты, настройки, генерация кода, доступность функций, кабинеты и цены, приватность, возможность работать on-premise и многое другое. Полнее сравнения двух топовых ИИ-IDE я ещё не видел 😊
ЧТО ВНУТРИ
- Автодополнения кода и ИИ-чаты
- Стоимость моделей
- Настройки Cascade, Memories и MCP
- Настройки редактора
- Автокомплит из буфера обмена ОС на примере
- Пример работы с Next Tab Edits и всех его фишек
- Удаление лишнего кода через Next Tab Edits
- Индексация проекта
- Про подписки и личный кабинет
- Прозрачность цены запросов и Flex Credits
- Приватность и сертификация
- Можно ли установить GH Copilot?
- Плюсы и минусы Cursor и Windsurf
- Codeium Forge - что за оно?
👉 Смотреть целиком
#evo_обзор
Из этого видео вы узнаете про все фишки второй по популярности AI-first IDE, а также сможете понять, чем он лучше и хуже нашего любимого Cursor. Будем сравнивать буквально по всем параметрам: автокомплиты, ИИ-чаты, настройки, генерация кода, доступность функций, кабинеты и цены, приватность, возможность работать on-premise и многое другое. Полнее сравнения двух топовых ИИ-IDE я ещё не видел 😊
ЧТО ВНУТРИ
- Автодополнения кода и ИИ-чаты
- Стоимость моделей
- Настройки Cascade, Memories и MCP
- Настройки редактора
- Автокомплит из буфера обмена ОС на примере
- Пример работы с Next Tab Edits и всех его фишек
- Удаление лишнего кода через Next Tab Edits
- Индексация проекта
- Про подписки и личный кабинет
- Прозрачность цены запросов и Flex Credits
- Приватность и сертификация
- Можно ли установить GH Copilot?
- Плюсы и минусы Cursor и Windsurf
- Codeium Forge - что за оно?
👉 Смотреть целиком
#evo_обзор
15.04.202501:15
UPD: тот gpt-4.1, что завезли в Виндсерф, работает в разы хуже думающего соннета 3.7. Надеюсь там под капотом mini, и полная версия будет работать хотя бы на уровне соннета...
Мде, старый конь, как известно, чего-то там не портит.
UPD2: опении совсем подурели с неймингвми. Выкатили 4.1 и задеприкейтили 4.5, мол она старше и слабее... Видимо считают они до сих пор при помощи gpt 3.5 (4.1 > 4.5 и всё в этом духе)
Мде, старый конь, как известно, чего-то там не портит.
UPD2: опении совсем подурели с неймингвми. Выкатили 4.1 и задеприкейтили 4.5, мол она старше и слабее... Видимо считают они до сих пор при помощи gpt 3.5 (4.1 > 4.5 и всё в этом духе)
05.04.202519:14
🔥Буквально только что Meta наконец выкатила Llama 4 (ждали долго).
В семействе есть две модели: Llama 4 Scout и Llama 4 Maverick, и все они опенсорсные (с лицензией Meta ofks). Модель Llama 4 Scout является смесью 16 экспертов по 17B (итого 109B), с максимальной длиной контекста в рекордные 10 млн токенов. Llama 4 Maverick является смесью аж 128 экспертов по 17B (400B параметров) с максимальной длиной контекста в 1 млн токенов. Обе модели могут принимать на вход текст и изображения, отвечают только текстом. Среди поддерживаемых языков, к сожалению, нет русского.
Благодаря тому, что это MoE, есть вероятность, что не потребуется все 100–400 ГБ памяти для работы модели, так как в моменте ей нужно запускать эксперта на 17B. По крайней мере, Llama 4 Scout может работать на одном 1×H100 GPU в q4 (Maverick’у одной карточки не хватит).
Скачать модели можно тут, и в этом же репозитории есть намёки на ещё две модели, которые появятся позже: Llama 4 Behemoth и Llama 4 Reasoning. Ставлю на то, что Бегемот будет на 1T параметров 😊
UPD: ванговать не пришлось, будет 2Т!!!
В семействе есть две модели: Llama 4 Scout и Llama 4 Maverick, и все они опенсорсные (с лицензией Meta ofks). Модель Llama 4 Scout является смесью 16 экспертов по 17B (итого 109B), с максимальной длиной контекста в рекордные 10 млн токенов. Llama 4 Maverick является смесью аж 128 экспертов по 17B (400B параметров) с максимальной длиной контекста в 1 млн токенов. Обе модели могут принимать на вход текст и изображения, отвечают только текстом. Среди поддерживаемых языков, к сожалению, нет русского.
Благодаря тому, что это MoE, есть вероятность, что не потребуется все 100–400 ГБ памяти для работы модели, так как в моменте ей нужно запускать эксперта на 17B. По крайней мере, Llama 4 Scout может работать на одном 1×H100 GPU в q4 (Maverick’у одной карточки не хватит).
Скачать модели можно тут, и в этом же репозитории есть намёки на ещё две модели, которые появятся позже: Llama 4 Behemoth и Llama 4 Reasoning. Ставлю на то, что Бегемот будет на 1T параметров 😊
UPD: ванговать не пришлось, будет 2Т!!!
Көбүрөөк функцияларды ачуу үчүн кириңиз.