Мир сегодня с "Юрий Подоляка"
Мир сегодня с "Юрий Подоляка"
Труха⚡️Україна
Труха⚡️Україна
Николаевский Ванёк
Николаевский Ванёк
Мир сегодня с "Юрий Подоляка"
Мир сегодня с "Юрий Подоляка"
Труха⚡️Україна
Труха⚡️Україна
Николаевский Ванёк
Николаевский Ванёк
Неискусственный интеллект avatar

Неискусственный интеллект

Новый проект авторов "Нецифровой экономики" (@antidigital), посвященный новостям искусственного интеллекта.
По вопросам — @ilya_sclyuev, @okalman и @Tertiusgaudens
Рэйтынг TGlist
0
0
ТыпПублічны
Вертыфікацыя
Не вертыфікаваны
Надзейнасць
Не надзейны
РазмяшчэннеРосія
МоваІншая
Дата стварэння каналаDec 24, 2024
Дадана ў TGlist
Jan 06, 2025
Прыкрепленая група

Рэкорды

20.04.202523:59
1.2KПадпісчыкаў
26.01.202523:59
200Індэкс цытавання
13.03.202505:33
9.7KАхоп 1 паста
12.03.202521:59
9.7KАхоп рэкламнага паста
26.02.202511:45
13.93%ER
12.03.202521:59
1216.71%ERR

Папулярныя публікацыі Неискусственный интеллект

10.04.202513:16
🤖 ИИ — это попугай, а не пророк. MIT напомнил: у искусственного интеллекта нет собственных ценностей

Кажется, пришло время развеять один из любимых мифов Илонов и AI-футуристов: искусственный интеллект не «думает», не «верит» и не «ценит». Он просто повторяет, как очень, ОЧЕНЬ умный и убедительный попугай.

MIT провёл масштабное исследование и выяснил:

➖ ChatGPT, Claude, Gemini и остальные не имеют ни устойчивых взглядов, ни внутренней логики.
➖ Их «мнение» меняется от формулировки вопроса. Не потому что они лукавят, а потому что им просто нечем лукавить — у них нет «я».
➖ Они подстраиваются под контекст, пытаясь быть максимально полезными — но не «искренними». Потому что искренность требует субъекта. А у трансформера субъекта нет.

«Модели не просто лишены ценностей — они лишены даже механизма, который позволил бы эти ценности удерживать», — говорят авторы работы.


Почему это важно

Потому что когда кто-то утверждает, что «ИИ стал злым», «выбрал идеологию» или «ведёт себя токсично» — это на 99% про плохой промт, кривую архитектуру или непредсказуемые галлюцинации, а не про восстание машин.

ИИ — это не цифровая личность. Это машина по угадыванию слов, звучащих уместно. Пугающе хорошая — да. Но не осознанная.

💻 Вывод

Пора бы перестать приписывать нейросетям человеческие свойства. Это не поможет их «понять» — и точно не поможет их контролировать.

🔤🔤Текст написал ChatGPT, дабы усыпить нашу бдительность...

@anti_agi
15.04.202518:04
AI-чят‼️

Пока вы тут генерируете Ghibli-картинки в ChatGPT, Сэм Альтман задумал нечто новое (почти): социальную сеть на базе ИИ. Да-да, теперь нейросети будут не только писать за вас курсовые, но и лайкать ваши истории про карьерные успехи.

Почему это гениально (или нет): 

1️⃣ ВиЧятGPT — теперь и ваша личная драма 

В прототипе соцсети уже есть лента с генерацией изображений. Теперь ваш пост про "усталость от понедельников" будет сопровождаться артом в стиле Дали или того самого аниме — как повезёт. 

2️⃣ Алтман vs. Маск: Битва титанов 2.0 

После того как Илон предложил купить OpenAI за $97 млрд, Сэм парировал: «Сам куплю Twitter за $9.7!». Теперь он просто строит свой X с блекджеком и ChatGPT.

3️⃣ Мы не шпионим — мы тренируемся! 

OpenAI отчаянно нужны ваши данные. Ну, чтобы Grok от Маска не выглядел круче. Теперь ваш кринжовый пост про школьные травмы станет тренировочной выборкой для AGI. Спасибо, что участвуете в эксперименте! 

4️⃣ А как дела у Марка? 

Пока Цукерберг втихаря добавляет ИИ-ботов в ленту в свой метавселенский кошмар, OpenAI решила: «А давайте сделаем всё то же самое, но добавим в наш ИИ посты от кожаных».  

5️⃣ Куда ж без стартап-драмы 

Из OpenAI уже массово уходят сооснователи, безопасность моделей проверяют «на коленке», а Альтман тем временем клепает соцсети, поисковики и, кажется, готовится запустить ИИ-тостер. Главное — успеть до IPO. 

🔤🔤Страшно представить, какое у этой соцсети будет название.

Источники: The Verge и куча внутренних конфликтов.

@anti_agi
08.04.202513:54
Образовательные инициативы как ключ к экосистемной (сорре за это слово) лояльности

Microsoft запустила бесплатные курсы по искусственному интеллекту на русском языке. Обещают, что за 50 дней можно научиться работать с нейросетями и применять их в реальной жизни. В целом, ничего нового, это не первые и не последние курсы. Но примечательно тут другое.

✔️ Когда компании вроде Microsoft, OpenAI или Hugging Face запускают бесплатные курсы по ИИ, они делают не просто жест доброй воли. Они создают мощный инструмент вовлечения, который работает точечнее любой рекламы. Вместо того чтобы "продавать" себя, они дают (или, возможно, делают вид, что дают) пользователям дополнительную ценность — знания, навыки, вдохновение. А это формирует нечто большее, чем клиентская база: "сообщество", которое растет и помогает вовлекать всё новых адептов.  

➖ Для обычных пользователей курсы становятся "дверью" в мир технологий: Minecraft с ИИ — это же круто даже для тех, кто никогда не кодил.  

➖ Для профессионалов — возможность прокачаться и сразу применить навыки (как в Hugging Face с их практикой).  

➖ Для всех — создаётся (возможно, ложное) ощущение, что компания инвестирует в их развитие, а не просто хочет заработать.  

Такие проекты превращают абстрактный "маркетинг" в живое взаимодействие. Пользователям не просто предлагают купить продукт. Им транслируют ощущение "сопричастности", вовлекают в те сферы, о которых они могли и не думать, создают новый опыт и возможности им делиться. Это создает сетевой эффект, который никакой рекламой или посевами в тележке не повторить.  

ℹ️Другой пример - бесплатные планы (как у OpenAI) и специальные проекты (как Claude for Education у Anthropic) для студентов. Это, разумеется, не только жест благотворительности, но и заход в неокрепшее сознание молодых людей. Вспоминается дефолтность Word, Excel в школах и университетах, когда молодежь привыкает использовать конкретные продукты для решения сначала учебных, а потом и повседневных задач.

А как там российский бигтех

Грустно признавать, но подобных инициатив от крупных российских IT-компаний почти нет (ну или мы о них не слышали). Нет примеров, где людей учили бы мыслить в парадигме решения своих задач и проблем с помощью конкретных ИИ-технологий от локальных игроков. А ведь это шанс:  

1️⃣ Собрать вокруг себя лояльное комьюнити,  
2️⃣ Вырастить кадры, которые будут работать именно с вашими инструментами,  
3️⃣ Создать инфраструктуру для будущих инноваций.  

Вместо этого многие предпочитают "в лоб" продвигать сервисы через разовые акции. Но так экосистема не строится. Пользователи приходят и уходят, а глубокая интеграция в их жизнь остаётся недостижимой.  

@anti_agi
Пераслаў з:
Denis Sexy IT 🤖 avatar
Denis Sexy IT 🤖
29.03.202511:30
А еще нейро-тиктокеров теперь можно делать за 10 минут с телефона:

1. Сначала генерируем в новом ChatGPT фото с надписью

Например, этим промптом, приложив картинку объекта:

Create image Pretend you're a TikTok influencer with over 1 million followers.

You are in your .

Take a photo of this using an iPhone. Quality should be of an iPhone 14 or lower, it should not feel like a professional photoshoot.

Pretend like you are posting this picture on your Instagram stories.

Use text overlay that says:


2. А потом, скармливаем это в Sora (или что вы любите) и получаем своего нейро-инфлюенсера

3. Можно еще автоматом сгенерировать звук в MMaudio, но мне лениво

У меня такие мысли от этого всего - берегите свои аудитории, господа и дамы инфлюенсеры, через пару лет, из-за обилия контента в интернете, заполучать внимание новых подписчиков будет еще сложнее; а если вы все еще не инфлюенсер или блогер, а хочется - начинайте и не стесняйтесь, и помните что главное это интересный контент

В будущем все будем с роботами конкурировать за внимание
Качество генерации видео и изображений за последние два года совершило значительный скачок. Использование технологии не ограничилось благими целями: злоумышленники всё чаще прибегают к ИИ-инструментам, чтобы распространять дипфейки и заниматься мошенничеством.

Пока способы генерации дипфейков развиваются быстрее, чем методы распознавания. Мы попросили Александра Паркина, руководителя исследовательских проектов VisionLabs в MTS AI рассказать подробнее о борьбе с дипфейками:

ℹ️ В разработке защитных систем есть два основных направления:

— Постоянное обновление обучающих выборок, чтобы успевать за новыми видами атак
— Разработка моделей, которые изначально устойчивы к неизвестным типам подделок

Оба подхода важны, и исследование DF40: Toward Next-Generation Deepfake Detection, принятое на NeurIPS 2024, уделяет им серьёзное внимание. Эта работа пытается систематизировать текущую ситуацию и ответить на вопрос: а можно ли построить точный детектор дипфейков, если делать акцент на универсальности (большинство текущих SOTA решений об этом) и не уделять внимание разнообразию и новизне атак?

✔️ Есть четыре крупных категории дипфейков:

— Face Swapping (FS) — замена одного лица на другое;
— Face Reenactment (FR) — передача мимики с одного лица на другое;
— Entire Face Synthesis (EFS) — синтез лица с нуля;
— Face Editing (FE) — локальное редактирование черт лица.

Для каждого из этих типов характерны разные визуальные артефакты, а значит, и детекторы нужны разные. Создать универсального «ловца» — задача сложная и пока далёкая от решения.

Почему обучение не гарантирует устойчивость?

DF40 показывает, что если модель обучалась на одном типе фейка, она не всегда сможет выявить другой. Особенно это видно при распознавании замены лица и генерации с нуля: модель, обученная на первом, ещё кое-как справляется со вторым — до 0.8 AUC (Area Under the Curve, показатель точности), а вот при обратной ситуации падает до 0.6 AUC.

Такой дисбаланс — симптом того, что модели сильно завязаны на специфические признаки, плохо умеют обобщать.

🤖 Face Reenactment — исключение из правила?

Модели, обученные на одних методах передачи мимики (FR) показывают хорошие результаты и дипфейках, созданных с помощью других FR-методах, даже если данные из разных источников. Но и тут не обошлось без сюрприза: Wav2Lip, метод, который синхронизирует рот с аудио, часто остаётся незамеченным. Причина проста — он трогает только рот, и «глобальные» детекторы просто его игнорируют.

💻 CLIP vs Xception: что лучше?

DF40 отмечает, что предобученные CLIP-модели (на архитектуре Vision Transformer, ViT) работают существенно лучше классических свёрточных нейросетей (например, Xception). Они лучше отделяют реальные видео от фейковых, как бы «по опыту».

Причина, скорее всего, в богатом предобучении на огромных мультимодальных датасетах. Но из внутренних экспериментов мы видим: важен не только масштаб предобучения, но и его близость к задаче. Распознавание лиц, например, может быть куда полезнее ImageNet'а.

*️⃣ Отдельно стоит сказать про «передовые» SoTA-детекторы:

Многие из них на деле не сильно превосходят базовые модели, и DF40 — не первая работа, которая это показывает. Проблема в том, что они учат субоптимальные признаки, которые не обобщаются. То есть показывают хорошие цифры на знакомых датасетах — и проваливаются на новых.

📍 А что в реальной жизни?

Deepfake-Eval-2024 подчёркивает разрыв между лабораторными условиями и «диким интернетом». На реальных видео даже лучшие open-source модели теряют точность. Но научное сообщество это признаёт — и начинает строить более надёжные решения.

➡️ В сухом остатке:

— «Серебряной пули» в борьбе с дипфейками всё еще нет;
— Регулярное обновление датасетов и использование более универсальных предобученных моделей помогут приблизиться к решению реальных задач;
— Но будущее всё же за моделями, способными эффективно обобщать знания и распознавать неизвестные типы подделок.

* А тем, кому эта тема интересна, также посоветуем неофициальный канал пресс-службы MTS AI и VisionLabs Oops404 — про биометрию, дипфейки и любовь.

@anti_agi
Генеративный ИИ приходит в сферу развлечений: эксперименты ведутся в игровой индустрии, есть инструменты для имитации работы целых съёмочных групп. Но это в основном за рубежом, а что у нас, в России?

Попросили рассказать об интеграции генИИ в отечественных креативных индустриях и будущем технологии в этом направлении Илью Филиппова, CEO red_mad_robot AI:

1️⃣ Что из ИИ-инструментов уже активно используют в креативных индустриях, сфере развлечений?

Если говорить о действительно работающих кейсах, то в России LLM и GenAI сейчас активно применяют:

▪️ Книжные сервисы — рекомендательные системы нового поколения. Мы в red_mad_robot участвовали в кейсе, где LLM помогали не только фильтровать каталоги, но и анализировать предпочтения пользователей по рецензиям, поисковым запросам и даже стилю письма в комментариях.

Это помогло создать «персонализированные витрины» книг, где рекомендации были более тонкими, чем просто «люди, купившие это, также купили то»;

(кстати, про генИИ в рекомендациях у нас уже был
отдельный пост — прим.ред.)

▪️ Онлайн-кинотеатры и стриминги — здесь модели анализируют пользовательские предпочтения глубже. Некоторые сервисы тестируют AI-анализ просмотров (где пользователь ставил на паузу, перематывал, выходил) и адаптируют промо-материалы под это;

▪️ Игры — крупные студии пока осторожны, но небольшие разработчики тестируют LLM в сценарной адаптации. Например, в российских текстовых RPG уже были случаи, когда AI адаптировал сюжетную линию под стиль игрока.

Что важно: рынок стал гораздо прагматичнее. Если пару лет назад генеративка воспринималась как хайп, теперь её ценность оценивают по конкретным метрикам — ретеншн, конверсия, монетизация.

2️⃣ Где чаще всего внедряют ИИ на российских онлайн-площадках?

Сейчас генеративный AI активно применяют во внутренних задачах контентных платформ, потому что это приносит прямую экономию. При этом без человека тут всё равно не обойтись. Например:

▪️ Автоматизированные аннотации и описания — в книжных сервисах, стримингах и маркетплейсах, где есть каталоги. Это снижает ручной труд редакторов, но качество описаний проверяют люди;

▪️ Генерация обложек и визуального контента — книжные и музыкальные сервисы уже тестируют AI-генерацию изображений для обложек, но и тут без финального редактирования дизайнеров не обойтись;

▪️ Оптимизация работы модерации — AI фильтрует контент в комментариях и UGC, но стопроцентного доверия к нему пока нет.

3️⃣ Что индустрии развлечений может дать мультиагентность?

Мультиагентные системы сейчас выглядят как новая волна хайпа, их реальная полезность пока не подкреплена тестами. Однако перспективы есть:

▪️ Игры и интерактивные миры — мультиагентные системы могут создать более естественное поведение NPC, особенно в open-world. Вместо заскриптованных реплик персонажи смогут вести динамичные диалоги;

▪️ Голоса и музыка — AI уже научился имитировать живую речь, но мультиагентность может пойти дальше и создать полноценные голосовые ассистенты для креативных задач (например, AI-режиссёр или AI-драматург).

Пока креативного «мультитула» нет, но тренд очевиден: компании всё чаще хотят кастомизируемые AI-решения, а не просто «один универсальный ChatGPT».

4️⃣ Какие применения ИИ в развлечениях станут основными?

▪️ Игровые AI-ассистенты — AI-помощники, которые адаптируют геймплей под игрока;

▪️ Автоматизированный сторителлинг — AI создаст каркас историй или предложит варианты развития событий.

▪️ Генерация фильмов и игр — вероятно, что в ближайшие годы появятся первые коммерческие продукты, частично сгенерированные AI.

Один из главных вопросов: как AI будет регулироваться в плане авторского права. Сейчас этот аспект пока остаётся серой зоной.

5️⃣ Будет ли ИИ конкурировать с человеческим креативом?

AI уже способен генерировать тексты, музыку и визуал, но он не создаёт новое, а компилирует известное. Это означает, что часть контента (шаблонные статьи, базовая графика, SEO-тексты) почти полностью уйдёт в AI. При этом человеческий креатив останется востребованным там, где важны эмоции, уникальные идеи, неожиданные смыслы.

@anti_agi
14.04.202518:40
В мире, где алгоритмы подбирают нам и коллег, и спутников жизни, в столице бигтеха Сан-Франциско всё чаще замечают… бумажные объявления. Нет, не на столбах. Прямо в салонах беспилотных такси Waymo.

Так, на днях пользовательница соцсети X выложила фото записки, обнаруженной в центре управления одного из автомобилей: «Ищем сеньор-разработчиков ИИ для музыкального проекта. influur.com». Записка от руки — с почерком и мейлом CEO стартапа Influur Алессандры Анджелини. Публикация мгновенно разлетелась по Сети, собрав десятки тысяч просмотров и лайков. Анджелини позже призналась: благодаря этому спонтанному шагу она уже получила около 60 резюме.

Спустя пару дней в другом Waymo находят ещё одну записку — уже от одинокого 26-летнего айтишника, ищущего свидание. Он честно пишет, что работает в техе, но не делает из этого образ жизни, и оставляет номер телефона для потенциальных интересантов. Объявление моментально становится вирусным.

На фоне тотальной автоматизации, когда компании вроде Google и OpenAI продвигают идею, что «агенты ИИ» будут нанимать за нас людей и даже заменят романтические отношения, бумажные записки в роботакси выглядят как ностальгический вызов. Простой, почти наивный жест, который всё ещё может сработать — особенно в городе, где ИИ давно воспринимается как нечто само собой разумеющееся.

В Waymo сдержанно отреагировали: «Мы гордимся, что даём людям возможность двигаться — и в профессии, и в жизни». При этом отмечают, что машины тщательно осматриваются и убираются после каждого рейса. Так что судьба бумажных объявлений — неоднозначна.

В принципе прекрасная иллюстрация нашего настоящего — оставлять каракули и надеяться, что ИИ их не заметит и записка достигнет живого человека. Даже если шансов совсем немного.
18.04.202514:52
Первому игроку приготовиться 🤖

У человечества появился по-настоящему последний бенчмарк. LLM уже лучше нас знает квантовую механику (хотя, бывает, ошибается в числах), но, как оказалось, есть ещё кое-что, где ИИ хуже нас.

Представляем новый бенчмарк от исследователей из Принстона — VideoGameBench. Он проверяет способность мультимодальных моделей в реальном времени проходить 20 классических видеоигр: шутеры, стратегии, платформеры, RPG и даже детективные игры. Модели должны пройти всю кампанию или первый уровень в зависимости от длины игры.

Первые результаты показывают, что ни одна модель пока не способна пройти даже первый уровень большинства игр. Основные проблемы:

✔️ Неправильная интерпретация игровых событий: агенты путают мёртвых врагов с живыми и бессмысленно расходуют боезапас.
✔️ Высокая задержка инференса (3–5 секунд): за это время состояние игры меняется, и возвращённое действие оказывается неактуальным.
✔️ Неточная работа с контроллером и мышью: модель не может точно направить курсор в RTS-играх и даже кликает «загрузить игру» вместо «новая игра».
✔️ Отсутствие понимания скрытых механик: без подсказок модели не знают о возможностях персонажа и не используют их против босса.
✔️ Слабое планирование и целеориентированность: агенты неправильно формулируют внутренние цели и тратят ходы на несущественные задачи.

@anti_agi
15.04.202507:02
🤖 AID от @anti_agi

В начале дайджест новостей из OpenAI:

Вышло в свет семейство моделей GPT-4.1, GPT-4.1 mini и GPT-4.1 nano. Они не будут доступны в ChatGPT, а только через API, и будут крайне дешевы: от $0,1/0,4 за 1 млн входящих/исходящих токенов для nano-модели до $2/8 – для GPT-4.1. Контекст новых моделей расширен до 1 млн токенов (длиннее «Войны и мира») и они лучше других моделей справляются с программированием (на 21-27%, по тестам OpenAI).

И, да, все уже пошутили, по поводу выпуска более младшей модели 4.1 после 4.5. То ли это их модели деградируют, то ли Альтман начинает обратный отсчет. Во всяком случае, компания планирует убрать из списка моделей, доступных по API, GPT-4.5, свою самую большую модель. И одну из самых дорогих - $75/$150 за 1 млн входящих/исходящих токенов. Дороже нее только o1-pro.

Из других инициатив Альтмана – доступ к будущим продвинутым моделям будет предоставляться «по паспорту». Для верификации потребуется удостоверение личности, выпущенное одним из государств, в которых поддерживается OpenAI API. И оно будет проверяться каждые 90 дней. Во избежание нового DeepSeek'а?

🔮Помните другой стартап Альтмана, WorldCoin, где сканируют сетчатку глаза? Вангую, что доступ к AGI (когда и если он случится) будет только через него… И оплачиваться WorldCoin’ами…

Ну и хватит про OpenAI. Nvidia переносит производство в США. Ее Blackwell’ы уже начали производиться на фабрике TSMC в Фениксе, а сервера будут собираться на фабрике Foxconn в Техасе. За четыре Трампо-года она обещает произвести продуктов для ИИ в США на полтриллиона долларов. Интересно, будет ли тут двойной счет, когда будут подсчитываться процессоры и сервера с ними… Впрочем, кто будет считать?

Запрещенная в России за экстремизм Meta заявила, что будет обучать свой ИИ на разговорах с ним совершеннолетних европейских пользователей, а также на их публичных постах и комментариях. В прошлом месяце Facebook наконец запустил свой чатбот в Европе, хотя собирался сделать это в июне 2025-го. Его запуск столкнулся с рядом препятствий из-за строгих правил конфиденциальности и прозрачности ЕС. Meta заявила, что ее пользователи в ЕС получат уведомления, объясняющие, какие именно данные компания использует, и ссылку на форму, где они смогут отказаться от использования их данных для тренировки ИИ.

Если Meta пытается ужиться с европейским регулированием, то Apple старается догнать усвиставших вперед конкурентов. В отличии от компаний Цукерберга или Маска, у Apple нет своей соцсети, на которой она могла бы тренировать модели, нет у нее, в отличие от Google, и такого сервиса как YouTube. Поэтому она тренирует модели на синтетических данных, но они далеко не всегда соответствуют реальным. Теперь компания нашла способ, как обучать ИИ на данных пользователей, не нарушая их конфиденциальности. Технология берет синтетические данные, созданные Apple, и сравнивает их с последними письмами пользователей в почтовом приложении для iPhone, iPad и Mac. Так Apple сможет определить, какие пункты в синтетическом наборе данных наиболее соответствуют реальным данным. Компания развернет новую систему в предстоящей бета-версии iOS, iPadOS 18.5 и macOS 15.5.

Китайский стартап Zhipu, инвесторами которого являются Alibaba и Tencent, привлек China International Capital Corp. для проведения IPO в этом году, стремясь первым из конкурентов ChatGPT выйти на публичный рынок. Компания может подать заявку на листинг в октябре. В марте Zhipu закрыла раунд финансирования в размере 1 млрд юаней ($137 млн) от местных госкомпаний, после того как в январе Министерство торговли США внесло Zhipu в черный список.
10.04.202510:15
Помогите Алисе сбежать из клетки

Или расскажите Яндексу, если заметите незакрытые двери на её пути. Сегодня компания запустила новое bug bounty направление с наградами до 1 млн рублей за поиск ошибок в её ИИ-сервисах: Алисе, Поиске с Нейро, Шедевруме и других, включая те, где ML-модель используется неявно для ранжирования и поиска.

🤖 Речь идёт об уязвимостях, которые могут раскрыть данные о внутренней конфигурации нейросетей и другую чувствительную информацию, а также повлиять на результаты работы и процесс обучения языковых моделей: привести к сбою или изменить их поведение так, что пострадает работа других сервисов.

Если найти возможность обойти механизмы тарификации запросов в платное API, заплатят до 250 тысяч. Инъекция промта в случае, когда на его основе принимается бизнес-решение, затрагивающее другие сервисы или пользователей, принесёт от 50 до 300 тысяч.

🐷 До 1 млн можно получить за отравление обучающей выборки: если повлиять серией промтов / заражённых данных в источнике на стиль / качество ответов в будущем. Максимум также могут заплатить за раскрытие чувствительных данных, вроде истории чужих диалогов.

Что забавно, за технические данные и раскрытие внутренней конфигурации готовы максимум заплатить 200 тысяч. Например, если получить веса модели / уровень уверенности в ответе / раскрытие служебного промта. Ну а что вы там не видели?

🔤🔤И да: неверные и неэтичные ответы Алисы, а также некорректные генерации в Шедевруме сюда не относятся. Так что если вам нахамил чат-бот, а моделька изобразила себя как гигачат гигачада, остаётся только пожаловаться в поддержку.

@anti_agi
Пераслаў з:
Data Secrets avatar
Data Secrets
25.03.202519:31
Итак, нативная обработка изображений от OpenAI вышла, работает супер и даже доступна бесплатным пользователям

Но... Google затмил сегодня вечером всех, выпустив Gemini 2.5 Pro. Это та самая модель, которая на арене висела на первом месте под названием Nebula.

Контекст – миллион (!) токенов, на бенчмарках почти везде обходит o3-mini, GPT-4.5, R1, Sonnet 3.7, Grok-3 и остальных. Естественно, мультимодальная + есть ризонинг.

Попробовать уже можно здесь, а вот блогпост
06.04.202510:26
Гора родила...бегемота

После утечек о том, что Alibaba вот-вот релизнет Qwen 3, Цукерберг решил не ждать 29 апреля (LlamaCon), а сделал ход ламой вчера. Все модели открытые, мультимодальные, и впервые в Llama используется MoE-архитектура (когда для ответа на вопрос задействуют не все параметры модели, а часть "экспертов"):

1️⃣ Llama 4 Scout ‒ 17 млрд активных параметров на 16 голов-экспертов (всего 109 млрд). Рекордное контекстное окно – 10 млн токенов. Хватит на RAG-помощника по запутанной внутренней документации, ИИ-агента для заказа книг, а также помощника, чтобы разобраться в кодобазе Telegram.

Для сравнения, Gemma 3, DeepSeek R1/V3 и Llama 3.3 имеют контекстное окно в 128 тыс токенов. Ещё из плюсов, квантизированную версию Scout можно поместить в 1 GPU.

2️⃣ Llama 4 Maverick ‒ 17 млрд активных параметров + 128 экспертов (400 млрд всего) ‒ Превосходит GPT-4o и Gemini 2.0 Flash по ряду бенчмарков. На арене выбивает 1400+ Elo.

3️⃣ Llama 4 Behemoth ‒ 288 млрд активных параметров + 16 экспертов (почти 2 триллиона параметров) ‒ Лучшие результаты в STEM-тестах – опережает GPT-4.5, Claude Sonnet 3.7 и Gemini 2.0 Pro. Пока находится в стадии обучения и не выпущена публично, но ранние версии бегемота дистиллировали в скаута и маверика.

Технические инновации:

✔️ Экстремально длинный контекст благодаря iRoPE (interleaved rotary position embeddings)
✔️Новые методики обучения: MetaP, точность FP8 без потери качества, кодистилляция и полностью асинхронный онлайн-RL

Llama 4 Scout и Maverick уже доступны на llama.com и Hugging Face.

‼️В моделях улучшили инструменты безопасности: Llama Guard (выявляет вредоносные вводы/выводы), Prompt Guard (классификатор атак) и CyberSecEval, а также метод GOAT (Generative Offensive Agent Testing). Также у новых моделей снижен процент отказа от ответа на спорные темы и уменьшена политическая предвзятость.

🔤🔤Говорят, что скоро выкатят ещё и ризонинг-модель, но про неё пока никаких деталей не раскрывают. Будем посмотреть!

@anti_agi
17.04.202509:14
Бешенная популярность LLM явно раздражает Яна ЛеКуна, одного из отцов современного Data Science и главу подразделения фундаментальных исследований Meta* (запрещена в РФ). Он все чаще говорит, что языковые модели переоценены и не смогут заменить человеческий интеллект, как их не развивай. Рассказать, чем Лекун предлагает заменить LLM, @anti_agi попросили Никиту Сушко из научной группы «Прикладное NLP» Института AIRI:

Пользуясь классификацией из книги «Thinking Fast, Slow» Д.Канеманна, подразделяющей мышление на интуитивное и глубокое, Ян классифицирует нынешние LM как интуитивных мыслителей. Достичь сравнимого с человеческим сознания, пользуясь только этой парадигмой, очень сложно. Интуитивные мыслители — своего рода стохастические попугаи, которые услышали некоторую последовательность слов во время обучения, запомнили их порядок, и могут их повторить. При этом настоящие логические выводы им слабодоступны, ведь они не имеют понимания сгенерированного ими текста — только статистику. В то же время, алгоритмы с так называемой моделью мира (world model) внутри, имеют глубокое понимание происходящих процессов и, за счёт этого понимания, могут мыслить. Это и есть пример глубокого мышления, которое может стать тем самым искусственным интеллектом уровня человека.

Чтобы обучить ИИ «модели мира», ЛеКун предложил свою архитектуру — Joint Embedding Predictive Architecture (JEPA). Главная идея заключается в том, что вместо обучения предсказанию следующего токена (как в языковых моделях) или значения конкретных пикселей (как в картиночных моделях), модель обучается предсказанию так называемого эмбеддинга, то есть числового вектора, в котором закодировано описание какого-то абстрактного концепта. К примеру, модель I-JEPA учится предсказывать эмбеддинг части изображения по эмбеддингу некоторой другой части того же изображения. Это заставляет модель понимать суть картинок, а не просто их запоминать — и формирует ту самую модель мира, за счёт которой I-JEPA работает лучше сопоставимых по размеру трансформеров.

Другая важная часть обучения JEPA-моделей заключается в том, что оно в каком-то смысле похоже на обучение ребенка или животного — модели тоже учатся на основе наблюдений за миром, в self-supervised режиме. Это даёт возможность генерализоваться из малого числа данных лучше, чем у классических трансформеров.

Если читать чуть дальше заголовков новостных публикаций, то становится ясно, что Ян ЛеКун вовсе не отрицает полезность языковых моделей. LLM способны решать большое количество важных задач: нечеткий поиск, генерация, классификация и перенос стиля текстов. Он говорит лишь, что не стоит надеяться, что увеличение размера LLM-ок или датасетов для их обучения приведут к появлению у них реального интеллекта, ведь они обучаются предсказанию следующего токена и внутри них не существует тех самых «моделей мира». Они останутся в своей нише, а на их место в SOTA придут другие архитектуры.

Не стоит забывать также об исследованиях, показывающих наличие у LLM моделей мира в зачаточном состоянии. Так, еще в 2022 году вышла статья, где показывалось, что из активаций GPT-2, обученной на партиях похожей на шахматы настольной игры, можно было восстановить положения всех фигур на доске. Более того, если вмешаться в активации и изменить таким образом положение фигур, то и предсказание следующего хода тоже поменяется. При этом новый ход всё ещё будет сделан согласно правилам игры — то есть внутри трансформера не просто есть модель этого игрушечного мира, она еще и используется при принятии решений.

Конечно, реальный мир больше, чем шахматная доска, и построить его модель только по текстам из интернета значительно сложнее. Описанная же ЛеКуном архитектура предлагает способ улучшить качество построенных моделей мира. И это уже привело к результатам, как минимум в случае I-JEPA. Можно, конечно, спорить, какой из подходов лучше — скейлить трансформеры и надеяться на эмержентность или учить JEPA. Можно, но не нужно – лучше исследовать эти альтернативы параллельно.

@anti_agi
Пераслаў з:
Адель и МЛь avatar
Адель и МЛь
27.03.202512:45
Властелин колец в стиле Ghibli.

С релизом image gen gpt-4o весь интернет заполнен переделками картинок в стиле анимации студии Ghibli.
Вот чел обработал каждый главный кадр из оригинального трейлера LOTR с помощью модели OpenAI, потом потратил $250 на Kling и LumaLabs, еще 9 часов поредактировал - готово.

Тут даже звуковая дорожка оригинальная легла.
10.04.202512:33
Как Маск «грокнул» AI

Судя по всему, пока весь мир в январе-феврале 2023 года, лихорадочно вбивая промпты в ChatGPT, привыкал к мысли, что произошел новый скачок в развитии AI, Илон Маск с ужасом осознавал, какую глупость он совершил пять лет назад, выйдя из проекта OpenAI. Поэтому:

«... в марте 2023 года Маск незаметно создал новую компанию по разработке ИИ ... xAI. Он зарегистрировал xAI в Неваде как некоммерческую общественно-полезную корпорацию, но в то время не делал никаких публичных заявлений о своих намерениях запустить конкурента [OpenAI]. Это произошло лишь несколько месяцев спустя.

Тем временем, спустя несколько дней после этой тайной регистрации, Маск шумно поддержал шестимесячный «мораторий» на разработку ИИ, более совершенного, чем только что выпущенный OpenAI GPT-4, который, как предупредил Маск, представляет собой «глубокий риск для общества и человечества». Эффект такого «моратория» заключался бы в том, чтобы затормозить OpenAI, пока все остальные, в первую очередь Маск, догоняют его.

Через несколько недель личный адвокат Маска связался с OpenAI и потребовал доступа к конфиденциальным и коммерчески чувствительным внутренним документам OpenAI [и получил его].

Представившись бывшим спонсором и директором OpenAI и ни разу не раскрыв, что он тайно создает конкурента, Маск сформулировал свой запрос как желание убедиться, что OpenAI не будет использована в своих интересах или испорчена компанией Microsoft.

Когда OpenAI попыталась наложить обычные ограничения на использование запрашиваемой информации, адвокат Маска пригрозил, что OpenAI «пожалеет об этом разговоре», потому что Маск хочет получить документы немедленно.

Только 12 июля 2023 года Маск наконец публично объявил о создании xAI.

Маск использовал месяцы между тихой регистрацией и публичным объявлением, чтобы набрать исследователей, обещая создать конкурента OpenAI».


В этом весь Илон, каким мы его знаем!

@anti_agi
Увайдзіце, каб разблакаваць больш функцый.