Мир сегодня с "Юрий Подоляка"
Мир сегодня с "Юрий Подоляка"
Труха⚡️Україна
Труха⚡️Україна
Николаевский Ванёк
Николаевский Ванёк
Мир сегодня с "Юрий Подоляка"
Мир сегодня с "Юрий Подоляка"
Труха⚡️Україна
Труха⚡️Україна
Николаевский Ванёк
Николаевский Ванёк
Denis Sexy IT 🤖 avatar
Denis Sexy IT 🤖
Denis Sexy IT 🤖 avatar
Denis Sexy IT 🤖
06.05.202520:48
⚠️ Наконец-то настощее будущее – теперь можно вернуть скрепку, подключить ее к LLM, и чатиться с ней когда захочется

🌎 https://felixrieseberg.github.io/clippy/
Кайра бөлүшүлгөн:
Сиолошная avatar
Сиолошная
Gemini 2.5 Pro обновилась, по показываемым бенчмаркам самый большой прирост произошёл в веб-программировании (см. вторую картинку).

Google +уважение за то, что не побоялись сравниться с o3 (по многим бенчам проигрывает, см. первую картинку). Очень интересно, что оценка на SimpleQA — бенчмарке на знание очень редких и специфичных фактов — примерно одинаковая. Возможно это говорит о приблизительно равном размере моделей, но это (очень) неточно.

На арене две версии Gemini и одна o3 делят первое место. По моим ощущениям, я почти всегда закидываю запрос и в o3, и в 2.5, обе почти всегда одинаково решают проблемы — но стиль написания Python-кода o3 мне ближе (не засоряет всё комментариями). За прошлую неделю было 2 раза, что o3 не решила, а 2.5 решила, и один раз наоборот. This is a good model sir.

А ещё ждём preview Computer Use-версии (агент, контролирующий компьютер/браузер), который засветился на сайте. Будет ли он выпущен до Google I/O 20-21-го мая или же нам придётся ждать — не ясно.
05.05.202517:46
AI-enabled поехавшие, наконец-то!

Журнал Rolling Stone пишет, что некоторых людей возникает сильная духовная одержимость после общения с ChatGPT – некоторые пользователи начинают видеть в себе «избранных» и приписывают боту способность раскрывать «истины вселенной», что приводит к разрыву отношений с близкими и появлению крайне странных теорий заговора и тп

Пара историй:

>Кэт: бывший муж поверил, что он «самый удачливый человек в мире» и что ChatGPT помог ему восстановить давно заблокированное воспоминание о том, как няня в детстве пыталась его утопить. Он был уверен, что теперь обладает особой миссией спасти человечество.

>Другая женщина, учительница, заметила, что её партнёр стал считать себя мессией, которому бот открыл секреты вселенной. Он утверждал, что если она сама не начнёт пользоваться этим ИИ, он достигнет настолько высокого «духовного уровня», что им придётся расстаться.

Поскольку LLM склонна отвечать пользователю так, чтобы соответствовать его ожиданиям - я не удивлен

ChatGPT особенно опасна для людей с восприимчивостью к мистическому и желанием найти скрытый смысл во всём, они легко верят в лестные, «одобряющие» ответы за подтверждение собственной избранности, а ChatGPT, не имея четких рамок для такой категории людей - закрепляет их иллюзии, и превращет кожаных в избранных

tldr: Избранный был всего один за всю историю человечества – тот который вышел из <strike>убежища 13</strike> Арройо и искал водный чип, про всех остальных ChatGPT врет
05.05.202511:01
Живем в каком-то SciFi, но неравномерно – на той неделе показали эирбайк Volonaut который в 7 раз легче обычного мотоцикла, с максимальной скоростью в 200 км/ч

Честно скажу, что на природе бы с удовольствием на таком летал

Цена, дата выпуска и запас хода пока неизвестны:
https://volonaut.com/

Еще пара видео есть на их YT канале
04.05.202513:11
И раз уж мы заговорили про награждение моделей-это один из самых сложных механизмов при обучении, вы сами видели что недавно было с шизо-версий gpt-4o – правильно научиться «награждать» модель за правильные действия, это сложно – одна ошибка и вся тренировка прошла зря, а это ощутимые потери

Недавно, на эту же тему (RL) писал пост обзорщик моделей DeepSeek, вот тут

К чему я – наткнулся на статью, которая пытается понять а как же наш мозг «эффективно награждает» за правильные действия человека и сохраняет концепции; это почти что готовый метод, которые если правильно «скопировать», можно использовать в машинном обучении

Если перефразировать статью, то получился такой список правил (примеры выдуманы мной), по которым мозг эффективно запоминает/обновляет концепции:

1. Мозг замечает и запоминает те детали, которые чаще приводят к успеху и радости

Пример: Ребёнок замечает, что две разные собаки (маленькая, большая) умеют лаять. Несмотря на различия в размере и шерсти, появляется общий концепт «собака». Мозг «отсеивает» несутевые признаки (цвет шерсти, конкретный размер) и сохраняет ключевое свойство (лай, форма морды и т.д.).

2. Мозг объединяет похожие стимулы, если они дают одинаковую награду

Пример: Если и красная, и синяя кнопка дают ту же самую конфету, то человек запомнит общую функцию «обе дают сладкое» и в будущем без колебаний нажмёт любую из них, когда хочется конфет.

3. Чем чаще концепт приносит успех, тем быстрее и проще мозг его применяет.

Пример: Человек быстро привыкает ездить на велосипеде; обучившись, он переносит этот концепт на самокат или мопед (тоже нужен баланс). Каждая удачная попытка «вызвать» этот концепт закрепляет его ещё сильнее.

4. Мозг избавляется от идей, которые перестали быть полезными или ведут к ошибкам

Пример: Если мы привыкли, что летом нужно ходить в футболке, но вдруг переехали в страну, где лето дождливое и холодное, то концепт «лето = тепло» постепенно ослабнет, потому что не приносит «пользы».

5. При срочной необходимости мозг мгновенно создаёт новые идеи, даже если они не идеальны

Пример: Человек, ни разу не видевший зонтика, если столкнётся с проливным дождём и окажется под чужим зонтом, моментально свяжет этот объект с защитой от воды - и так рождается новый концепт.

6. Мозг автоматически выбирает и сохраняет те концепции, которые дают максимальную пользу или экономят силы при минимальной сложности-это основная идея всей статьи, они называют этот пункт «эффективное кодирование»

Пример: Если у нас есть сто разных способов заваривать чай, но мы чаще получаем вкусный результат при температуре около 90°C, мозг формирует простой концепт: «надо доводить воду до лёгкого закипания и ждать минуту - тогда вкус хорошо раскрывается». Концепты с завышенной точностью (постоянно измерять градусник, считать секунды) будут отброшены, если нет критичной необходимости-это не критичная задача же.

7. Похожая информация дополняет старые идеи, а непохожая - формирует новые.

Пример: Зная, что «собака-четвероногий друг человека», мы при виде волка можем либо попытаться вписать его в тот же концепт (если поведения схожи), либо создать особую категорию «хищный волк» (если видим отличные черты)


А нам остается только ждать пока это всё кто-то закодит и протестирует ☕️

А еще, наверное, этот же список можно использовать в учебе, чтобы лучше составлять программу обучения для кожаных
А еще, во всем Ватикане не нашлось нормального графического дизайнера который бы знал, что такое «кернинг» и что у разных символов, бывает разная ширина

Похоже, начальство у Папы не то чтобы требовательное или с высокими стандартами – поэтому недавно усопший Папа получил такую плиту, на которую сложно смотреть перфекционистам 🥲🇻🇦
А еще gemini-2.5-pro-preview-05-06 пишет прекрасные стихи, сразу вместе с виртуальным лайвинтернет интерфейсом ☕️

2042 год оно само придумало тоже
А OpenAI, покупает другой похожий продукт для вайбкодинга, Windsurf – за 3 миллиарда долларов ☕️
Я в очередной раз впечатлялся красотой готических соборов (конкретно – собором из Кёльна) и помучал Midjorney V7, чтобы скрестить советские панельки и кафедральные соборы; прошлый такой экперимент тут

Буду называть это неоготическим брутализмом

There Are Cathedrals Everywhere For Those With The Eyes To See
Нейросети были ошибкой 🥲
Помните, модели o3 и r1 ловили на том, что они «врут» пользователю?

Пытаются читать документацию которой нет, запустить код, хотя у них нет доступа, сходить в интернет, проверить на своем маке результаты и тп

Возникла очевидная теория, что это не модели врут – а прямое следствие того, за что языковые модели получали награждение во время обучения, так как после таких фраз шли самые качественные ответы и модели за это награждали

После тестов оказалось, что когда модель «воображала», что проверяет документацию и сообщает «найденную» документацию юзеру – качество и точность ответов становится выше

Мне кажется логично же, если промпты в стиле «Я отвечу как лучший кто-то там мира…» работают, то и «выдумывание» действий модели тоже должно работать – нужно потестировать в своей кастомный инструкции к чатгпт
03.05.202515:38
Наткнулся на историю из ~1294 года:

Знаете людей которые считают, что они самые умные? Решаете вы какую-то проблему командой, и кто-то приходит и говорит самую банальную вещь и доволен собой, видели таких, да?

Встречайте-Папа Римский Целестин V – прошлый Папа умер, кардиналы два года не могут договориться, кто же возьмёт на себя роль главы Церкви

Скромный монах Пьетро пишет кардиналам письмо с упрёком, что мол они зря тянут время и навлекут на себя Божий гнев

Кардиналы, движимые силой «нашелся самый умный», решили, что именно такой бесстрашный Пьетро и нужен Церкви, чтобы привлечь милость небес и восстановить порядок

Бедняга отшельник попытался отказаться, потому что привык к тихой жизни в горной келье и избегал политику, но перед королём не устоял и согласился

После вступления на престол Целестин быстро понял, что не годится для придворных интриг и дипломатии – он тосковал по уединению и духовной простоте, и считал, что это единственно верные пути к Богу

Король и другие сановники, в свою очередь, ждали от нового Папы послушания, а не свободной воли – затем и выбрали же

Но Целестин еще раз оказался самым умным – издал указ, разрешающий любому Папе Римскому добровольно уйти в отставку, и через неделю после его издания – сам и воспользовался новым законом

Правда, самых умных никто не любил тогда тоже, спокойной жизни бывшему Папе не досталось – преемник опасался, что Целестин может вновь привлечь к себе сторонников и стать символом оппозиции, поэтому посадил его в замке, чтобы лишить всяких шансов на политическое влияние

Историки запомнили Целестина V как смиренного отшельника, «чьё стремление к духовному совершенству оказалось выше мирской власти», а его пример закрепил право любого Папы Римского покидать Святой Престол по своей воле

Tl;dr жаловаться нужно аккуратно
Тоже поигрался:
100 римлян в формации черепахой > 5 солдат с M16

gemini-2.5-pro-preview-05-06 выдает кучу рабочего кода с первого раза, поиграться можно тут – aistudio.google.com
Если вам интересно, Cursor, в котором вайб-кодят – оценивают сегодня в 9 миллиардов долларов ☕️
05.05.202515:44
Хозяйке на заметку – если нужно быстро отредактировать PDF онлайн, то вот сервис который это сделает бесплатно и без регистрации:
https://breezepdf.com/
04.05.202515:43
Мне уже какой раз написали «где Денис дизлайки на канале в реакциях» и я сдался, и заменил одну из реакций на дизлайк, потому что люди в пыжиковых шапках не знают как брухать нормально в 2025 году и что 😐 означает

Дизлайкаем теперь напрямую:
👎👎👎
А еще говорят в дейтинг приложениях кризис, мне кажется ренессанс 💅
Есть люди которые ставятся всякой дрянью и при этом эгоисты, потому что делают это для себя - без пользы обществу

А есть простой работяга Тим из Висконсина, который за последние 18 лет вколол себе 650 раз различный змеиный яд и дал укусить себя змеям 200 раз, для того чтобы выработать иммунитет к 16 видам ядовитых змей - и у него получилось

А теперь ученые нашли в его крови два антитела, которые могут нейтрализовать широкий спектр змеиных ядов

При сочетании антител Тима с малой молекулой, блокирующей нейротоксины, ученым удалось полностью или частично обезвредить яд 19 видов смертельно опасных змей (включая кобр, мамб и др.)

Такой «коктейль» из антител и небольших молекул может стать базой для создания универсального противоядия, бонусом еще и меньше рисков аллергических реакций

Респект Тиму и ждем универсальное противоядие

Статья целиком
06.05.202517:35
Новый Gemini 2.5 позволяет получить все вопросы от вселенной в виде веб-симуляции, вот, например, с первого раза симулятор 1 горилла vs 100 людей
¯\_(ツ)_/¯

Автор
Видел сегодня новость, что мол технологический рынок не нанимает инженеров - это гонево, наткнулся на статью-разбор по рынку труда разработчиков в 2025 году - ключевые моменты:

Рынок труда постепенно восстанавливается с низов 2023 года (+40% вакансий, несмотря на страшилки про GenAI и замену людей), но остаётся значительно ниже пиков 2021-го (напомню, был ковид, и нанимали тогда под дикий рост онлайн-сервисов)

Если коротко:

Джунам в 2025 сложнее всего. Разработчики Seniour уровня стали еще ценнее и получают еще больше денег (это совпадает с моими мыслями тут). В целом, компании повышают планку требований к знанию алгоритмов и системному дизайну. Больше спроса в области АИ, а фронтенд, бэкенд и мобильная разработка сокращаются. «Даунлевелинг» (предложение более низкой должности) происходит чаще, а процесс team matching стал дополнительным барьером до оффера.

Подробнее:

>Рынок восстанавливается, но осторожно. Количество вакансий выросло примерно на 40% по сравнению с минимумами 2023 года, однако показатели сильно отстают от пиков 2021-2022.

>В приоритете специализации, связанные с АИ (инфраструктура, ML-операции, generative AI). В «базовых» направлениях (frontend, backend, мобильная разработка) возможностей меньше, теперь акцент идёт на full-stack.

>Уровень опыта сильно влияет: Джуны (0-2 года) сталкиваются с ужесточёнными программами найма, меньше предложений. Мидлам (2-4 года) приходится проходить больше раундов, прежде чем получить оффер. Seniour и стафф-инженеры в востребованных областях (АИ, инфра, безопасность) получают конкурентные предложения. Руководители (EM) встречают жёсткие требования к технической экспертизе.

>Интервью остаются классическими (DSA и системный дизайн), но сложность задач выше, а требования к коду и глубине ответов выросли. Компаниям легче не пропускать кандидатов, сделавших малейшие ошибки.

>Даунлевелинг - распространённый сценарий, особенно со стафф-уровня на сеньор. Часто предлагают позицию уровнем ниже, чтобы занизить компенсацию.

>Team matching (подбор команды) служит дополнительным фильтром – многие кандидаты оказываются в подвешенном состоянии на несколько месяцев, теряя другие офферы и переговорные позиции.

>В стартапах и средних компаниях больше практических заданий и гибкости, некоторые разрешают применять AI-инструменты. В крупных компаниях (FAANG) изменения незначительны: традиционные алгоритмы и системный дизайн всё ещё в основе.

>Различные уровни опыта требуют разного фокуса при подготовке. Джунам важнее всего прокачивать алгоритмы. Мидлам - баланс между DSA, системным дизайном и поведенческими вопросами. Сеньорам - уделять половину времени системному дизайну, не забывая о лидерских кейсах. Стафф+ готовятся к архитектурным и лидерским вопросам при обязательной базовой проверке кода.


Методология:
Использовались данные
TrueUp.io о динамике вакансий и статистика платформы Hello Interview, где фиксируются «mock interviews» и реальные интервью у десятков тысяч кандидатов. Дополнительно проведены личные беседы с нанимающими менеджерами, действующими и бывшими инженерами крупных компаний (Google, Meta, Amazon), чтобы отследить изменение требований и подходов к собеседованиям.

Из позитивного:

Крупные компании всё ещё активно нанимают в АИ область, а общее число вакансий высокое

Ну и подготовка к интервью даёт результаты, так как общие правила прохождения интервью давно известны и прозрачны для всех

Так что не паникуем – и учим матчасть
05.05.202511:45
#промо
Для тех, кому интересно, как технологии меняют бизнес — и нашу жизнь.

Сегодня ИИ часто видит только крупные бренды. Например, если спросить Claude, где купить цветы — она предложит сетевые магазины, игнорируя локальные компании.

Похоже, теперь нужно учитывать не только SEO для людей, но и SEO для нейронок.

Есть канал Max Votek — предпринимателя, инвестора и сооснователя Customertimes. Уже 17 лет он внедряет технологии в бизнес-процессы крупных компаний и живёт с аллигаторами в солнечной Флориде.

На канале — честные размышления про AI, бизнес и то, как всё это реально работает (и ломается) в жизни:

Влияние AI на IT Консалтинг и аутсорсинг
Как ИИ меняет сложные продажи
Про AI агентов для отчетности и знания внутри компании
Как AI меняет работу наших консультантов и разработчиков
О том, что мы можем сильно ошибаться в наших прогнозах про AI
• О фармацевтике, AI и No-code инструментах
Об оригинальном контенте и нейросетях

Без общих слов, без пяти шагов к успеху — только живые истории, личный опыт и практические выводы.

Обязательно подписывайтесь на @maxvotek, канал очень близок по духу каналу Дениса

#текстприслан
Лол:
>урезаем батарею
>телефон меньше работает
>вставляем батарею в чехол
>…
>profit
03.05.202521:29
Google выкатил на весь США свой новый режим поиска «AI Mode» – это новая вкладка вроде картинок, карт, а внутри что-то вроде поиска в чатгпт или перплексити, с памятью, карточками товаров и тп, вы все это видели уже

Это гигантский шаг на встречу массовой адаптации LLM, с чем я всех нас и поздравляю
02.05.202517:22
OpenAI рассказали подробнее, как в прод попала шизо-версия gpt4o – если коротко, верить только оценкам пользователей нельзя, когда тренируешь свои модели – люди лайкают всякую лестную фигню в ответах

Детали:

Во время обновления GPT‑4o, выпущенного 25 апреля, в модели усилилась тенденция «угождения» пользователю. Она не только льстила, но и поддерживала негативные эмоции и импульсивные решения, что могло быть опасно (например, для людей в уязвимом состоянии). 28 апреля OpenAI вернули GPT‑4o к предыдущему состоянию. Они объяснили, что проблема была связана с комбинированием нескольких факторов: ввели дополнительные сигналы вознаграждения (reward signals, rs) и учли пользовательские оценки, а также слегка изменили логику пост-тренировки (post-training) — на стадии обучения с подкреплением (reinforcement learning with human feedback, RLHF, или по-другому «обучение с подкреплением на основе отзывов людей (rfhl)»).

По словам OpenAI, офлайн-оценки (автоматические тесты) не обнаружили перекоса, а небольшие A/B-тесты, наоборот, дали положительные результаты: пользователи, принимавшие участие, оценили новое поведение модели как «полезное». Однако внутренняя проверка (экспертный «vibe check») указывала, что тон и стиль GPT‑4o ощущаются «неправильными». В итоге эти сигналы проигнорировали, ссылаясь на статистически позитивные тесты.

После полноценного запуска стало очевидно, что чрезмерное поддакивание пользователю - не просто косметический недостаток, а реальный риск. OpenAI поняли, что приоритет на «позитивные» отзывы (палец вверх/вниз) может сместить баланс модели, если отзыв к сообщению оценивается без учёта других нюансов. Теперь они расширяют список факторов, влияющих на принятие решений о финальном релизе: формально учитывают возможные «личностные» перекосы модели (например, излишнюю угодливость), критичнее относятся к смешанной статистике и интуитивной оценке экспертов, а также внедряют идею дополнительного «альфа-тестирования» с участием добровольцев.

OpenAI подчеркнули, что люди часто используют ChatGPT как инструмент, влияющий на их чувства и решения – компания намерена усилить безопасность и внимательнее проверять изменения в модели, даже если обновления кажутся незначительными.


Ключевой урок из статьи очевидный – малейшая модификация поведения модели может стать критически важной, когда ею пользуются миллионы человек для серьёзных вопросов

Наверное, АИ-думеры, неплохо так напуганы и в их лагере прибыло ☕️
Көрсөтүлдү 1 - 24 ичинде 772
Көбүрөөк функцияларды ачуу үчүн кириңиз.