Reposted from:
AI Product | Igor Akimov

22.04.202521:35
Anthropic вчера опубликовал, а сегодня на хабре перевели отличный гайд по использованию агентов в программировании, чтобы не ругаться на тупой chatgpt или Claude, когда он вам пол-проекта перепишет :)
Например там про то, чтобы план составить сначала:
https://habr.com/ru/articles/902422/
Например там про то, чтобы план составить сначала:
https://habr.com/ru/articles/902422/
22.04.202519:11
12. Циклы Кондратьева и колебания неравенства 🌊
• Фаза медленного роста стимулирует поиск новой GPT; после внедрения начинается резкий подъём и «разрыв» между ранними и поздними адаптерами.
• Сегодняшний низкий TFP может сигнализировать о предстоящем цикле экспансии, если ИИ станет полноценным GPT.
13. Географическая концентрация богатства и знаний 🗺
• До 1980‑х регионы выравнивались; с наступлением компьютерной эпохи мегаполисы (НЙ, СФ, Шэньчжэнь) поглощают таланты и капитал.
• Попытки «копировать» кластеры (Сколково, зарубежные технопарки) наталкиваются на дефицит плотности идей и сетевых эффектов.
14. Политические и социальные вызовы 🛠
• Без массового переобучения средний сегмент рынка труда рискует остаться «выжженным».
• Неравенство внутри стран и между регионами усилится, если не создавать условия для мобильности и распределения инвестиций.
• Нужна модернизация городской, транспортной и энергетической инфраструктуры, иначе ИИ‑эффект «упрётся» в физические ограничения.
15. Итоговый вывод 🎯
Искусственный интеллект имеет реальный шанс стать новой технологией общего применения и запустить волну быстрого роста, но исторический опыт показывает:
• нужны десятилетия, чтобы перестроить инфраструктуру и институты,
• период «боли перехода» возможен — особенно для средних навыков,
• государствам придётся инвестировать в образование, мобильность и сглаживание региональных разрывов, чтобы выиграть от грядущей AI‑революции, а не стать её жертвой.


22.04.202516:32
Reposted from:
РБК. Новости. Главное



22.04.202515:49
США подняли пошлины до 3521% на импорт солнечных панелей из четырёх стран Юго-Восточной Азии: Камбоджи, Таиланда, Вьетнама и Малайзии, передает The Wall Street Journal.
Минторговли США вело расследование в отношении азиатских панелей в течение года. Ведомство пришло к выводу, что Китай втайне поставлял в США панели через эти страны, чтобы избежать уплаты пошлин.
🐚 Картина дня — в телеграм-канале РБК
Минторговли США вело расследование в отношении азиатских панелей в течение года. Ведомство пришло к выводу, что Китай втайне поставлял в США панели через эти страны, чтобы избежать уплаты пошлин.
🐚 Картина дня — в телеграм-канале РБК
22.04.202515:18
🥵🥵🥵🥵


22.04.202506:41
22.04.202521:00
22.04.202519:11
мой агент сходил на лекцию и записал всё на диктофон.
саммари:
саммари:
1. Повторяющиеся технологические «сенсации» 🔄
• Каждое десятилетие объявляют «мир‑меняющую» новинку: термоядерный синтез, блокчейн, нанотех, роботы, метавселенные.
• Прогнозы обрываются: спустя годы обещанные перевороты либо остаются нишевыми, либо откладываются ещё «на 20 лет».
2. Реальные макропоказатели: затяжное торможение производительности 📉
• ВВП на час труда и TFP росли бурно в 1960‑е, но с 1975 г. темпы погасли почти до нуля во всех развитых странах.
• США — выпуск растёт линейно, значит TFP замедляется; Германия и Япония стагнируют с 1990‑х; Франция и Великобритания просели после 2008 г.
• Парадокс: исследователей всё больше, а отдача по TFP падает.
3. Роботы: сугубо демографический инструмент 🤖
• Около 90 % новых установок — Китай, Япония, Корея, Германия, Италия: там быстро стареет рабочая сила.
• Сферы — электроника и автопром (> 50 %). Роботы заменяют уходящих на пенсию, а не ломают промышленную структуру.
• Темп мирового ввода роботов не растёт, а сокращается.
4. ИИ сегодня: узкий корпоративный круг 🧠
• 40 % американских программистов уже применяют AI‑ассистенты; массового эффекта за пределами IT нет — только 5 % фирм реально интегрировали ИИ.
• То есть кривая проникновения похожа на ранние ПК: сначала разработчики, затем долгое «заполнение ниши».
5. Прогнозы массовой автоматизации — хронология ошибок 📜
• От Энгельса, Кейнса и Леонтьева до Фрея–Осборна (2013) твердят о грядущем «классе ненужных» — ни один всплеск страхов не подтвердился.
• Факт‑чек: из 300 самых распространённых профессий 1950 г. исчезла одна; 99 % рутинных функций поглощены внутри существующих профессий.
6. Кому грозит замещение на самом деле? 🎯
• Наибольший риск — у среднего сегмента (операторы, бухгалтеры, офисный «бэк‑офис»).
• Высококвалифицированных (нейрохирурги, аудиторы) могут заменить первыми: дорогой час работы и жёсткие протоколы => задача рутинная и выгодная для AI.
• Низкоквалифицированные строители или сиделки менее уязвимы: задачи ситуативные, физические, требуют гибкости.
7. Финансовые сигналы: масштаб инвестиций 💰
• Капитализация шести AI‑гигантов ≈ 16 трлн $: сопоставима с национальным богатством десятка стран.
• После первого релиза мощной китайской модели индекс топ‑30 местных IT‑компаний +40 % за месяц.
• Nasdaq‑100 вырос вдвое с момента выхода ChatGPT, обойдя «широкий» S&P 500.
8. AI как технология общего применения (GPT) и реальные прорывы 🚀
• Новые антибиотики халицин и авауцин созданы полностью алгоритмами.
• AlphaFold предсказала 200 млн белковых структур, миллионы учёных уже используют базу.
• Эти кейсы впервые выводят ИИ из сферы «программирование помогает программистам» в материальный мир.
9. Инфраструктурные тормоза и «лаг» внедрения ⏳
• Электродвигатель был готов к 1890 г., но массовая электрификация фабрик заняла ≈ 40 лет — требовалась совместная перестройка жилья, транспорта, электросетей.
• Похожий барьер ждёт автономные автомобили: без коридоров 200 км/ч и синхронизации потоков экономического эффекта не будет.
• США с наследием COBOL‑систем и устаревших регуляций меняются медленнее, в Китае «чистого листа» — внедрение идёт быстрее.
10. Исторические уроки: «лошадь и двигатель» 🐴➡️🚗
• Каждая технология сначала увеличивает спрос на старый ресурс (лошадей понадобилось больше из‑за железных дорог), а затем одно радикальное новшество (ДВС) обрушивает спрос мгновенно.
• Сценарий вероятен и для труда: множество мелких «усиливающих» инструментов — потом одна замена целиком.
11. Пауза Энгельса и порождение марксизма 📚
• 1760‑1840 гг.: выпуск рос на 46 %, а почасовая зарплата британских рабочих падала — дети работали по 18 ч, появилась идейная база «ужасов капитализма».
• Уже к 1870‑м реальные доходы резко выросли и опровергли тезис об «абсолютном обнищании», но теория прижилась.
Reposted from:
Рациональные числа



22.04.202516:22
В каких странах мира доминировала торговля с США и Китаем в 2000 и 2024 годах (Soltani)
Синим отмечены страны, в которых объёмы всей торговли товаров и услуг с США превышают объёмы торговли с Китаем. Красным — в которых доминирует торговля с Китаем
К сожалению, автор визуализации не уточнил, указаны ли данные с поправкой на инфляцию
Больше интересных визуализаций международной торговли:
— Взаимоотношения Японии и Китая в визуализациях 1932 года
— Объёмы экспорта производственных товаров стран мира, 2023
— Объёмы экспорта товаров из Китая, ЕС и США, 1980–2023
— Топ-30 стран мира по объёмам экспорта и импорта в $, 2023
— Распределение мирового экспорта товаров среди стран мира, 1870–2020
Синим отмечены страны, в которых объёмы всей торговли товаров и услуг с США превышают объёмы торговли с Китаем. Красным — в которых доминирует торговля с Китаем
К сожалению, автор визуализации не уточнил, указаны ли данные с поправкой на инфляцию
Больше интересных визуализаций международной торговли:
— Взаимоотношения Японии и Китая в визуализациях 1932 года
— Объёмы экспорта производственных товаров стран мира, 2023
— Объёмы экспорта товаров из Китая, ЕС и США, 1980–2023
— Топ-30 стран мира по объёмам экспорта и импорта в $, 2023
— Распределение мирового экспорта товаров среди стран мира, 1870–2020
Reposted from:
Метаверсище и ИИще

22.04.202515:40
Vidu Q1: Сорри, я опять с этими видеогенераторами.
Китайцев покусал OpenAI и после версии Vidu 2.0 они выпустили версию Q1. Во втором квартале.
Что нового:
Сильно прибрали мыло.
Первый и последний кадр.
Звук и звуковые эффекты.
1080р
24fps
Можно и нужно тестировать, тем более, что по промокоду VIDUQ1 дают +100 кредитов на новый акк(тоже 100), плюс наваливают ещё немного(20) каждый день.
https://www.vidu.com/
@cgevent
Китайцев покусал OpenAI и после версии Vidu 2.0 они выпустили версию Q1. Во втором квартале.
Что нового:
Сильно прибрали мыло.
Первый и последний кадр.
Звук и звуковые эффекты.
1080р
24fps
Можно и нужно тестировать, тем более, что по промокоду VIDUQ1 дают +100 кредитов на новый акк(тоже 100), плюс наваливают ещё немного(20) каждый день.
https://www.vidu.com/
@cgevent
Reposted from:
r/ретранслятор

22.04.202515:18
Вышел ремастер The Elder Scrolls IV: Oblivion
Разработчики сообщили, что переделали игру с нуля на Unreal Engine 5, сильно улучшив графику.
Обливион уже доступен на Xbox Series X|S, PS5 и в Steam — ссылка
В это мы играем
r/#oblivion
Разработчики сообщили, что переделали игру с нуля на Unreal Engine 5, сильно улучшив графику.
Обливион уже доступен на Xbox Series X|S, PS5 и в Steam — ссылка
В это мы играем
r/#oblivion
Reposted from:
Denis Sexy IT 🤖



22.04.202506:34
Поспали? Читаем про ту батарейку, что заряжали пока спали – ее как раз возможно нашли ученые:
Это не какой‑то скрытый аккумулятор, а обычная миелиновая оболочка, то есть «изоляция» вокруг нервных волокон (как в проводах). Учёные заметили, что внутри этой оболочки есть белки‑губки, способные «впитывать» крошечные частицы‑протоны. Пока мы спим, дыхательная цепочка тихо гонит протоны к этим белкам, что-то вроде насоса который качает воду в высокий водяной бак на крыше. Получается, что миелин за ночь «напитывается» положительным зарядом
Когда мы просыпаемся, протоны начинают стекать обратно через миниатюрные «турбины» – молекулы АТФ‑синтазы (белковый «моторчик» встроенный в клетки). Турбина крутится, и из её работы получается АТФ – универсальная энергетическая монета для клеток. По специальным каналам эта свежая «мелочь» сразу поступает в аксон (проводник нервных сигналов), чтобы тот мог быстро передавать сигналы. Если такой поток блокируется, например особым жирным веществом олеамидом, каналы закрываются, и мозг как бы сам принудительно уходит в режим экономии, то есть в сон.
Учёные прикинули, сколько зарядов миелин успевает набрать за ночь: цифра почти совпала с тем, сколько он в принципе способен удержать. Это объясняет, почему человеку обычно нужно около восьми часов сна – столько времени уходит на полную «подзарядку» изоляции. Интересно, что животные с меньшим объёмом белого вещества (грубо говоря, с тоньшей «изоляцией») спят дольше: их батарейка меньше, и чтобы наполнить её до краёв, требуется больше времени – в посте как раз картинка этой связи, красным подчеркнул то сколько в % спит животное из 24 часов
Если не давать себе спать, запас быстро опустошается, белки теряют заряд, слои миелина начинают сближаться, и оболочка утоньшается – именно такую картину врачи видят на МРТ у людей после бессонных ночей
Получается, что сон нужен мозгу не только «переварить» впечатления дня, но и буквально зарядить свою внутреннюю энерго-станцию, чтобы наутро нервные волокна вновь могли молниеносно передавать мысли, чувства и команды телу
Тут на сложном, научном языке
Это не какой‑то скрытый аккумулятор, а обычная миелиновая оболочка, то есть «изоляция» вокруг нервных волокон (как в проводах). Учёные заметили, что внутри этой оболочки есть белки‑губки, способные «впитывать» крошечные частицы‑протоны. Пока мы спим, дыхательная цепочка тихо гонит протоны к этим белкам, что-то вроде насоса который качает воду в высокий водяной бак на крыше. Получается, что миелин за ночь «напитывается» положительным зарядом
Когда мы просыпаемся, протоны начинают стекать обратно через миниатюрные «турбины» – молекулы АТФ‑синтазы (белковый «моторчик» встроенный в клетки). Турбина крутится, и из её работы получается АТФ – универсальная энергетическая монета для клеток. По специальным каналам эта свежая «мелочь» сразу поступает в аксон (проводник нервных сигналов), чтобы тот мог быстро передавать сигналы. Если такой поток блокируется, например особым жирным веществом олеамидом, каналы закрываются, и мозг как бы сам принудительно уходит в режим экономии, то есть в сон.
Учёные прикинули, сколько зарядов миелин успевает набрать за ночь: цифра почти совпала с тем, сколько он в принципе способен удержать. Это объясняет, почему человеку обычно нужно около восьми часов сна – столько времени уходит на полную «подзарядку» изоляции. Интересно, что животные с меньшим объёмом белого вещества (грубо говоря, с тоньшей «изоляцией») спят дольше: их батарейка меньше, и чтобы наполнить её до краёв, требуется больше времени – в посте как раз картинка этой связи, красным подчеркнул то сколько в % спит животное из 24 часов
Если не давать себе спать, запас быстро опустошается, белки теряют заряд, слои миелина начинают сближаться, и оболочка утоньшается – именно такую картину врачи видят на МРТ у людей после бессонных ночей
Получается, что сон нужен мозгу не только «переварить» впечатления дня, но и буквально зарядить свою внутреннюю энерго-станцию, чтобы наутро нервные волокна вновь могли молниеносно передавать мысли, чувства и команды телу
Тут на сложном, научном языке


22.04.202520:17
Reposted from:
эйай ньюз

22.04.202518:06
Мини-отчет о моих свеже-опубликованных статьях. Этот год выдался очень продуктивным и <strike>мы сильно попотели</strike> нашим статьям очень повезло. В итоге у нас 3/3 статей принято на топовые конференции, и все три получили дополнительные awards. Я работал в основном над генерацией картинок и видео, и немного над ускорением LLM.
1️⃣Autoregressive Distillation of Diffusion Transformers – CVPR25, Oral
TL;DR статьи: В обычной диффузии мы семплируем картинки по шагам, где следующий семпл зависит только от одного предыдущего. Мы же дисстилировали diffusion transformer в авторегрессионную архитектуру (как LLM), где используется вся история семплов,и это позволило существенно увеличить качество картинки при очень быстрой генерации в 3–4 шага. Получили SOTA в своем размере на Imagenet-256 и на text2image генерации в 3 шага (1.7B параметров).
Наша статья получила на CVPR высшую награду – Oral (это 18-минутная презентация со сцены, куда выбирают только самые лучшие работы), тогда как остальные статьи просто вывешивают постеры. Oral на CVPR получают < 1% из всех засабмиченых статей.
В этой статье я последний автор – это тот, кто вел и руководил проектом (по сути профессорская роль). Я придумал идею, выдал бейзлайн модели и расписал своему интерну Юнгмину (первому автору) какие эксперименты нужно провести, и какие цели мы преследуем в этом ресерче. А Юнгмин виртуозно все реализиовал, выдавив весь сок из модели на бенчмарках.
Мой интерн выложил даже код.
2️⃣ FlexiDiT: Your Diffusion Transformer Can Easily Generate High-Quality Samples with Less Compute – CVPR25, Spotlight
TL;DR статьи: Ускорили diffusion transformer. Мы показали ,как запускать text2image и tex2video генерацию на 80%, 60% либо 40% компьюта с минимальными потерями в качестве. Достигается это за счет того что мы адаптивно меняем размер DiT патча во время инференса.
Тоже статейка с нашим интерном. Она тоже получила Award - Spotlight. Это презентация работы со сцены на 4 минут. Spotlight получили < 3% лучших статей из 13 тысяч засабмиченных.
3️⃣ Judge Decoding: Faster Speculative Sampling Requires Going Beyond Model Alignment – ICLR25, Oral
TL;DR статьи: Метод семплинга, которыйсильно ускоряет большие LLM. Мы ускорили Llama-3.1 405B в 9× раз с помощью использовани 8b модели в качестве драфта, практичесик без потерь в качестве.
Тут было много драмы, статья с двух ног влетела в топ-3 сильнейших статей по LLM на ICLR на основе среднего рейтинга ревьюеров (еще до вынесения решения.) Я уж думал будет железный Oral, но в итоге дали всего-лишь Spotlight. Мы подрасстроились, а через несколько недель пришло письмо, что статью все-таки выбрали на Oral (на ICLR это 12-минутная презентация). В этом году Oral получили только top 1.8% лучших статей! Интерн будет презентовать ее через пару дней в Сингапуре – я, к сожалению, до туда не долетел. Но, надеюсь, увидимся на CVPR в Нэшвилле!
#резерч #personal #конфа
@ai_newz
1️⃣Autoregressive Distillation of Diffusion Transformers – CVPR25, Oral
TL;DR статьи: В обычной диффузии мы семплируем картинки по шагам, где следующий семпл зависит только от одного предыдущего. Мы же дисстилировали diffusion transformer в авторегрессионную архитектуру (как LLM), где используется вся история семплов,и это позволило существенно увеличить качество картинки при очень быстрой генерации в 3–4 шага. Получили SOTA в своем размере на Imagenet-256 и на text2image генерации в 3 шага (1.7B параметров).
Наша статья получила на CVPR высшую награду – Oral (это 18-минутная презентация со сцены, куда выбирают только самые лучшие работы), тогда как остальные статьи просто вывешивают постеры. Oral на CVPR получают < 1% из всех засабмиченых статей.
В этой статье я последний автор – это тот, кто вел и руководил проектом (по сути профессорская роль). Я придумал идею, выдал бейзлайн модели и расписал своему интерну Юнгмину (первому автору) какие эксперименты нужно провести, и какие цели мы преследуем в этом ресерче. А Юнгмин виртуозно все реализиовал, выдавив весь сок из модели на бенчмарках.
Мой интерн выложил даже код.
2️⃣ FlexiDiT: Your Diffusion Transformer Can Easily Generate High-Quality Samples with Less Compute – CVPR25, Spotlight
TL;DR статьи: Ускорили diffusion transformer. Мы показали ,как запускать text2image и tex2video генерацию на 80%, 60% либо 40% компьюта с минимальными потерями в качестве. Достигается это за счет того что мы адаптивно меняем размер DiT патча во время инференса.
Тоже статейка с нашим интерном. Она тоже получила Award - Spotlight. Это презентация работы со сцены на 4 минут. Spotlight получили < 3% лучших статей из 13 тысяч засабмиченных.
3️⃣ Judge Decoding: Faster Speculative Sampling Requires Going Beyond Model Alignment – ICLR25, Oral
TL;DR статьи: Метод семплинга, которыйсильно ускоряет большие LLM. Мы ускорили Llama-3.1 405B в 9× раз с помощью использовани 8b модели в качестве драфта, практичесик без потерь в качестве.
Тут было много драмы, статья с двух ног влетела в топ-3 сильнейших статей по LLM на ICLR на основе среднего рейтинга ревьюеров (еще до вынесения решения.) Я уж думал будет железный Oral, но в итоге дали всего-лишь Spotlight. Мы подрасстроились, а через несколько недель пришло письмо, что статью все-таки выбрали на Oral (на ICLR это 12-минутная презентация). В этом году Oral получили только top 1.8% лучших статей! Интерн будет презентовать ее через пару дней в Сингапуре – я, к сожалению, до туда не долетел. Но, надеюсь, увидимся на CVPR в Нэшвилле!
#резерч #personal #конфа
@ai_newz
Reposted from:
Марзаганов вещает



22.04.202516:03
Сегодня в 17 часов меня порадовал Abuse Telegram своим приходом. Он пришел, чтобы уведомить на меня о том, что либо мой бот ChatGPT полностью переходит на оплату старсами, либо его заблокируют.
Конкретно в данный проект я вложил десятки (больше 50) миллионов рублей и каждый день привожу десятки тысяч пользователей в Телеграм.
Конечно же, весь бот живет исключительно из-за рекуррентных подписок — без них он умрет. Пока что Дуров не придумал, как адекватно сделать рекурренты старсами — и потому подобных историй не было.
По моей информации, подобных ботов с подпиской не должны были трогать, однако, что-то поменялось.
Теперь математика проекта ухудшится в несколько раз и что сейчас делать — пока непонятно
Конкретно в данный проект я вложил десятки (больше 50) миллионов рублей и каждый день привожу десятки тысяч пользователей в Телеграм.
Конечно же, весь бот живет исключительно из-за рекуррентных подписок — без них он умрет. Пока что Дуров не придумал, как адекватно сделать рекурренты старсами — и потому подобных историй не было.
По моей информации, подобных ботов с подпиской не должны были трогать, однако, что-то поменялось.
Теперь математика проекта ухудшится в несколько раз и что сейчас делать — пока непонятно
22.04.202515:21
а ремастер морровинда когда...... его решили попозже чтобы типа потренироваться на игре менее регалистой???? ну лан
Reposted from:
r/ретранслятор



22.04.202515:01
В Аргентине позеленели капибары
Там произошло массовое цветение водорослей в водоёмах, которое покрыло животных зеленью.
r/#interestingasfuck
Там произошло массовое цветение водорослей в водоёмах, которое покрыло животных зеленью.
r/#interestingasfuck


22.04.202506:28
Reposted from:
Denis Sexy IT 🤖

22.04.202520:01
Вашему вниманию – самый популярный шорт этой недели на ютубе, почти 400 миллионов просмотров
Its so over ☕️
Its so over ☕️
Reposted from:
Метаверсище и ИИще

22.04.202517:18
Тут на https://wan.video/ раздают бесплатную видеогенерацию в Relax Mode.
Говорят, что с 23 апреля All users can create stunning videos and images entirely free with Relax Mode.
Непонятно, сколько будет время ожидания, может час, а может сутки.
@cgevent
Говорят, что с 23 апреля All users can create stunning videos and images entirely free with Relax Mode.
Непонятно, сколько будет время ожидания, может час, а может сутки.
@cgevent
22.04.202515:49
гпт нарисовали
22.04.202515:19
тес 6 должна быть на их старом своём движке как и старфилд
она выйдет хуже? или решили всё перехуярить на уе5? а то тес6 кажись будет хуже чем это
она выйдет хуже? или решили всё перехуярить на уе5? а то тес6 кажись будет хуже чем это
22.04.202514:40
работайте братья 🙏🙏


22.04.202506:20
пошли аб тесты
2 в 4 превратила
2 в 4 превратила
Shown 1 - 24 of 50
Log in to unlock more functionality.