Notcoin Community
Notcoin Community
Proxy MTProto | پروکسی
Proxy MTProto | پروکسی
Proxy MTProto | پروکسی
Proxy MTProto | پروکسی
iRo Proxy | پروکسی
iRo Proxy | پروکسی
Сиолошная avatar

Сиолошная

Канал SeeAll'а с новостями (и мыслями о них) из мира NLP, VR и космоса.
Более подробно смотри в первом сообщении в канале (оно закреплено). А еще у нас есть чат! Заходи: https://t.me/+i_XzLucdtRJlYWUy
Рейтинг TGlist
0
0
ТипПублічний
Верифікація
Не верифікований
Довіреність
Не надійний
РозташуванняРосія
МоваІнша
Дата створення каналуСіч 23, 2023
Додано до TGlist
Лист 18, 2023
Прикріплена група

Рекорди

20.02.202523:59
56.4K
Підписників
25.05.202423:59
200
Індекс цитування
19.02.202523:59
28.1K
Охоплення 1 допису
08.05.202415:37
21.7K
Охоп рекл. допису
24.01.202518:23
19.08%
ER
18.02.202523:40
49.92%
ERR

Популярні публікації Сиолошная

Переслав з:
Denis Sexy IT 🤖 avatar
Denis Sexy IT 🤖
04.02.202513:13
Как мне o1 Pro с шеей помогла 

>36 лет, почти 2 метра роста
>в ~33 много сидел за ноутом в позе буквы G и заработал хронические боли в шее (ригидность шеи)
>прошел много сессий массажа чтобы снять боль, но полностью боль не проходила
>купил всякие подставки для ноута, начал ходить чаще в зал, в шее все еще скованность мышц – не посмотреть в право без ощущения натянутой струны в затылке
>надоело, решил снова записаиться на массаж-терапию и починиться – массажист-терапевт сразу заметил, с какими мышцами проблема
>Но мы же в будущем
>Описал o1 Pro всю историю болезни и попросил сделать мне программу для починки мышц
>Попросил сразу включить поисковые запросы для Youtube чтобы быстро найти нужные техники
>3 вечера занимаюсь по ее программе
>Терапевт на втором приеме сегодня – Денис, я не могу нащупать напряженные мышцы???
>Показал ему программу o1 Pro, терапевт в восторге – все по науке
>Впервые могу смотреть во все стороны как нормальный обычный человек

Программа тут, если кто-то с шеей страдает – но, o1 Pro не замена для врачей, но очень классно помогает – рекомендую
Elon написал, что релиз Grok 3 с живой демонстрацией состоится в 7 утра по Москве во вторник. («Grok 3 release with live demo» я воспринимаю как «сначала демка а почти сразу после — публичный доступ, релиз: надеюсь так и будет).

Всё ещё обещает, что это «самый умный ИИ на Земле» — вот и поглядим, на чём это продемонстрируют. Правда ставочники на площадке предсказаний Manifold не верят в тезис, и дают 70%, что Grok 3 не окажется самым умным. Но там нет точных критериев, оценка проводится автором вопроса (и он не совсем нонейм), и... в сравнении не участвуют reasoning-модели 🤷‍♂️

Голосуйте эмоутами под этим постом, 👍 верите ли вы или 👎 нет
gptPhone: начало post-mobile эпохи?

OpenAI планирует выпустить новое «GenAI-устройство» на замену смартфону. Слухи об этом ходили давно, но в последнее время Альтман и Ко мощно активизировались в этом направлении:

- На днях OpenAI подали заявку на патенты целого ряда «умных» продуктов. Среди них — часы, браслеты, носимые компьютеры и камеры, а также гуманоидные роботы.

- Альтман разъезжает по Корее и Японии, где даёт интервью с анонсами новых смартфонов и собственных полупроводников. Рассматривают партнерство с Samsung для конкуренции со взлетевшим китайским DeepSeek.

- Легендарный дизайнер Apple Джонни Айв может приложить руку к новым AI-устройствам. Альтман утверждает, что с Айвом на борту они смогут создать новый «iPhone-момент» для индустрии.

Подходы к созданию ИИ-девайсов уже были: начиная от провалившихся Rabbit и Humane Pin, до умеренно успешных Meta Ray-Ban. iPhone тоже не был первым смартфоном, но ему удалось нащупать правильный интерфейс и маркетинг — что привело к перевороту игры.

Такое же хотят повторить OpenAI. Тайминг выбран как нельзя лучше: рынок созрел для революции в мобильных устройствах. Существующие смартфоны практически достигли потолка развития, а ИИ-технологии достаточно продвинулись для создания принципиально новых интерфейсов.

Назревает платформенная революция, сравнимая с вебом в 90-х или мобайлом в конце нулевых. А такие времена — кладезь новых возможностей для стартеров.

@trendoscope
Sama настолько расщедрился, что анонсировал введение o3-mini в БЕСПЛАТНЫЙ тир. Не в Plus за $20/месяц — в БЕСПЛАТНЫЙ.

Что..странно, с учётом того, что на подписке за $200 компания теряет деньги.

Но Big для наращивания аудитории.
10.02.202500:56
Реклама OpenAI на Суперкубке была слабенькая, слишком абстрактно, не ясно какая польза (что рекламируют то вообще?) и чё делать. -$8M, короче. Глобально идея показать развитие и эволюцию мб и норм, но пипл не поймёт

https://fixupx.com/OpenAI/status/1888753166189031925

Думал хоть скажут что вот мол o3-mini доступна всем бесплатно, бегите. Или подчеркнут национальный статус проекта, что нибудь про АМЭРИКУ и Трампа.

UPD: а вот тут через двое суток CMO расскажет, как они это делали и что это значит.

UPD2: оказывается реклама стоила 14 миллионов, а не 8! Можно было натренировать 2 дипсика и ещё останется. «Мы хотим, чтобы сообщение было актуальным для аудитории, которая смотрит Суперкубок, а это десятки миллионов людей, не знакомых с ИИ», сказала CMO. Как думаете, человек на диване дома, не знакомый с ИИ, понял, что именно рекламируют?
Переслав з:
эйай ньюз avatar
эйай ньюз
😮 Французский ответ Stargate

На AI Action Summit, президент Эммануэль Макрон анонсировал гигантские инвестиции во французскую ИИ индустрию - 109 миллиардов евро в течении следующих нескольких лет. Вплоть до 50 миллиардов придёт от фонда MGX из ОАЭ (он также участвует в финансировании Stargate), 20 миллиардов - от канадской инвестионной фирмы Brookfield, остальные деньги от плеяды более мелких инвесторов.

Значительная часть из вычислительных ресурсов, построенных на эти деньги, явно уйдёт Mistral - это сейчас единственная европейская компания способная выдавать конкурентноспособные LLM. Стартапам поменьше тоже достанется порядочно, но вот сколько - вопрос.

Похоже, что это всё - часть единой европейской стратегии по ИИ, которую должны представить завтра. Она должна включать упрощенные регуляции, на замену отвратительному AI Act. Франция в этой стратегии должна сыграть лидирующую роль - у страны есть и куча талантов, и большие избытки атомной электроэнергии и доступ к современным чипам.

Государства всё ещё лишь начинают играть мышцами в сфере ИИ, это не последний такой анонс в этом году. Мои выводы после анонса Stargate лишь подтверждаются.

@ai_newz
ПОСТ ПРО ДИПСИК (но не полный)

Наконец-то состоялось первое серьезное мероприятие с олимпиадными задачами по математике в период после релиза рассуждающих моделей. Можно взять свежие проблемы, которых не было в тренировочных данных*, пропустить через все интересные нам LLM и сравнить.

Соревнование это — American Invitational Mathematics Examination (AIME), первая часть из двух, в каждой из которых по 15 задач. Вторая пятнашка появятся 12-го февраля, тоже отпишусь.

На картинке вы видите, как разные модели справились с олимпиадой. Каждая модель решала каждую задачу 4 раза (независимо от других своих попыток).

Зелёный квадратик означает, что модель справилась 4/4 раз, желтый 1-3, красный — 0 раз из 4. Кому не интересно вникать — проще смотреть колонку «Acc», где отображена усреднённая точность «участников».

Модели OpenAI с большим отрывом обходят R1 (кстати топ-1 и стоит дешевле 😀), Sonnet 3.6 из коробки вообще ничего не решает.

Но что куда интереснее это сравнить метрики за 2024й год (которые репортились самими компаниями) и то, что получилось в 2025м:
— o3-mini: 87.3% -> 78.33% сейчас, есть просадка но всё равно топ-1
— o1: 74.4% -> 76.67%, показала себя даже чуть лучше, чем на давно доступных задачах
— R1: 79.8% -> 65% 🥱☠️
— дистиллянт R1-Qwen-14b: 69.7% -> 50% (падение даже больше чем у R1)

Я не думаю, что эти данные ультимативно подтверждают тезис о лучшей генерализации и отсутствии переобученности моделей OpenAI, но делают хорошую подводку.

(это не отменяет того что модель R1 от DeepSeek хороша)

* а вот в этом твиттер-треде нашли, что как минимум 3 задачи уже были в интернете (куда смотрели авторы олимпиады..?).

Источник — MathArena, увидел у @j_links. Задачи читать тут.
Переслав з:
Denis Sexy IT 🤖 avatar
Denis Sexy IT 🤖
25.01.202509:39
11.02.202520:22
Серьёзный вопрос к некоторым представителям моей аудитории

Зачастую под анонсом моделей, технологий, блогпостов, эссе, да хоть чего, касающегося лидеров ИИ-компаний (в основном Sama и Dario Amodei) всплывает комментарий в духе «чего не скажешь ради инвестиций, всё делают ради бабок, просят деняк» и тому подобное. Я вот прям сейчас увидел первый комментарий у Gonzo вот тут — он такого же содержания.

Я пытаюсь понять, для вот таких людей это действительно единственное объяснение, которое они считают очевидным и самым вероятным, и зачастую даже не дают никаких сопроводительных комментариев?

Вопрос к таким людям — как вы для себя отбиваете всю остальную критику такой точки зрения? Или вы просто эту критику не видите/не воспринимаете, всерьёз считая, что никаких реальных изменений и пользы от ИИ в каком-то виде нет и не будет? Или что это на горизонте десятилетия не отобьет несколько десятков миллиардов долларов? Или реальная цель топ компаний положить деньги инвесторов в карман?

не жаль тех кто уже за написание подобного отлетел в бан, они не смогут отметиться под постом 😀

UPD: тех, кто забанен, но всё ещё читает канал, приглашаю во временный чат с адекватными сообщениями (там модерация ещё более строгая будет): https://t.me/+SVP0PC-iUHYzMWRi
10.02.202516:27
Наверняка вы читали про недавно обнаруженный астероид 2024 YR4, который может столкнуться с Землей в 2032м. Последняя вероятность этого события, что я видел, была 2.2%. Если она реализуется, то прям совсем критичного для человечества ничего не произойдёт — это будет сравнимо с одним взрывом ядерной бомбы, ни о каком уничтожении человечества речи не идёт.

Из пары видео узнал, что до сих пор остаётся очень сложной оценка траектории и параметров астероида, и что есть надежда на 3 вещи:
1) или мы найдём данные в записях 2020-го года, которые покажут, где был астероид
2) или мы найдём определенные данные за 2020-ый год, где астероида не было видно, и это тоже даст нам какую-то информацию («X не был здесь, следовательно, траектория не такая»)
3) или мы ждём 2028-го года, где практически сразу как только астероид выйдет из тени и глубокого космоса и мы его заметим — всё станет понятно, будет удар ещё через 4 года или нет.

Scott Manley попытался ответить на вопрос, что будет, если вдруг мы узнаем, что всё же столкновению быть. По его расчётам, даже очень маленького ударного воздействия хватит, чтобы подвинуть орбиту, и астероид пролетел мимо. У человечества для этого есть всё: в определённых конфигурациях даже хватит ракеты Falcon 9 (не Falcon Heavy).

Также он с помощью инструмента NASA оценил, что существует две траектории от Земли, которые доставят нашу посылку в лицо астероиду примерно за 100 дней, так, что контакт может произойти 26-го декабря 2028го — на следующий день после рождества. Вот был бы клёвый подарок!

Если честно — не подумайте что я враг человечества — мне бы хотелось, чтобы по итогу переоценки орбиты астероида оказалось, что он летит на нас, и мы как человечество смогли легко отбить его атаку. Это вдохновляет, это объединяет, это футуристично, это круто.

Но чтоб совсем не переживать — вот вам пара тезисов про миссию DART от NASA. В её рамках как раз таки произвели запуск спутника (удивительно, тоже на Falcon 9), который в 2022м году врезался в астероид и успешно изменил его орбиту, причём даже сильнее, чем мы рассчитывали (и не расколол его). Это была тренировка, но если бы он угрожал Земле — то всё бы обошлось. И тот астероид к тому же был в несколько раз массивнее, чем 2024 YR4.

Так что у нас всё схвачено 👍

UPD: ахахха а потом будут люди которые не поверят, что это произошло, и скажут что всё выдумки и снято в голивуде. Мы ж не могли видеть это, ну вот и дурят.
Competitive Programming with Large Reasoning Models

OpenAI выпустили скорее не статью, а отчёт о том, как они замеряют прогресс в программировании у моделей, и сравнивают o3 с o1 и o1-ioi (системой, которая была заточена на решение международной олимпиады по информатике; там были свои методы с агрегацией и фильтрацией решений).

Большая часть метрик уже была показана ранее, тут больших сюрпризов нет, просто добавили деталей. Одна из важнейших — это то, как сравнивают решения LLM с решениями людей в соревнованиях, где играет роль время отправки решения и количество ошибок. Недостаточно просто написать код, который прошёл все тесты — нужно это делать как можно быстрее. Понятно, что кластер с 100,000 видеокарт сгенерирует пару сотен решений быстрее, чем человек, так ещё и одновременно для всех задач сразу — как быть?

OpenAI выбрали, как мне кажется, достаточно резонную стратегию (тут и ниже — в контексте оценки рейтинга CodeForces): они использовали медианное время отправки и количество попыток среди всех людей, кто решил задачу. Таким образом полученные оценки слегка занижены относительно того, если бы OpenAI гнались за максимальным скором, и считали, что отправляют решения быстрее всех (или хотя бы как топ-10-20%, а не медианный).

<тут я должен напомнить что при таком замере рейтинг o3 достигает 2724, или 99.8 перцентиль, то есть лучше неё очень малая доля участников>

===

Другая интересная вещь: o3 во время рассуждений может пользоваться инструментами (o1 пока нет), то есть запускать код, который сама пишет, без отправки решения. Почти наверняка модель так обучалась.

На картинке вы видите одну из стратегий, обнаруженную o3 во время тренировки и применяемую тут: для проблем, где проверка нетривиальна, она часто пишет простые решения методом перебора — жертвуя эффективностью ради правильности — затем перекрестно проверяет результаты с помощью своих более оптимизированных алгоритмических реализаций. Этот самодельный механизм проверки позволяет o3 выявлять потенциальные ошибки и повышать надежность своих решений.

Говоря проще код на картинке — это проверка в духе «так, вот тут решение, в котором я точно уверен, а вот моё оптимизированное. Не продолбался ли я где-то? Ща проверим на сотне случайных примеров». И всё это в рамках цепочки рассуждений.

Благодаря DeepSeek R1 мы знаем, что OpenAI не врали, когда говорили, что модель сама по себе придумывает паттерны рассуждений, без вмешательства человека и явного прописывания таких стратегий. Скорее всего, этот пример тоже относится к таким — модель во время обучения просто поняла, что такие проверки позволяют чаще справляться с задачами, меньше ошибаться (что вполне логично), и начала применять технику. Ведь по сути это та же самопроверка, которую мы видели для математических задач, просто с отдельным запуском кода.

Absolute Cinema 🖐😶🤚
05.02.202520:59
Я откладывал пост про Deep Research от OpenAI, так как не было времени сесть и собравшись с мыслями написать мнение (как и про DeepSeek 🙂). Две самые главные вещи оттуда:

— основано на o3 (не mini), с которой не-сотрудникам OpenAI до этого не было возможности взаимодействовать

— Sama написал, что Deep Research «по моим приблизительным подсчетам может выполнять однозначный процент [прим. 1-9%] всех экономически значимых задач в мире, что является колоссальным достижением». С одной стороны это заявление может казаться неправильным, мол, в мире нет такого спроса на задачи поиска информации и компиляции отчётов. Если спросить Deep Research, то система найдёт несколько свежих экономических оценок, из которых выходит, что это 15-20% по доле занятости в мире (не США). Понятно, что продукт OpenAI не займёт 100% рынка. С другой стороны можно заметить, что технология не надёжна и иногда ошибается, но ведь ошибаются и люди (я регулярно слышу от матери рассказы про «дураков на работе, вообще ведь ничего не соображают». Согласны? Узнали?). Какие-то десятки нижних перцентилей исполнителей вполне могут быть хуже системы.

Но технологии не стоят на месте, и скоро выйдет и o4 (в идеале на основе GPT-5/Orion), и OpenAI соберут большое количество обратной связи и улучшат систему, закрыв очевидные проблемы/ошибки. В общем, я считаю, что тезис про однозначный процент верен, если трактовать его как «в самое ближайшее время, через пару итераций, инструмент СМОЖЕТ делать X, но сможет не равно БУДЕТ» (последняя часть важна, потому что компании медленные). Разумеется, умные компании должны начинать готовиться уже вот в этом году, а не когда клубника доспеет.

====

Вместо послесловия вставлю отрывок сообщения если не критика, то скептика развития AI, экономиста и профессора Tyler Cowen, который вот недавно участвовал в дебатах по поводу влияния AI на рост ВВП:

Я попросил Deep Search написать несколько десятистраничных работ, и каждая из них была выдающейся [outstanding в оригинале]. Я оцениваю качество как сопоставимое с работой хорошего научного ассистента с PhD, которому поручили задачу на одну-две недели, а может и больше.

Deep Research выполняет эту работу за пять-шесть минут. И, похоже, не делает ошибок благодаря качеству модели o3.

Я запросил работу с объяснением теории ренты Рикардо и её места в его более широкой теории распределения. Результат я сравнил с рядом других источников в интернете и пришёл к выводу, что этот вариант лучше, поэтому использую его для своего курса по истории экономической мысли.

Пока я не вижу признаков оригинальности, но уровень точности и ясности впечатляет. Кроме того, эта работа показывает, что модель способна к некому долгосрочному планированию, и это свойство может быть обобщено на самые разные контексты и задачи — это, пожалуй, одна из главных новостей, связанных с этим релизом.


(перевод взят с канала @longviewecon с мелкими правками)
25.01.202517:54
Принимаю в комментарии идеи того, на чём попробовать Operator, какие задачи.

Для вдохновления рекомендую посмотреть 14 примеров на сайте OpenAI.

В идеале от вас длинный промпт на 5+ строк, и может даже пара файлов, которые нужно закинуть в гугл диск. Хотя можете их и в телеграме оставить — Operator может заходить в мою учётку и банить вас качать их.

Я выберу несколько интересных примеров и выложу видео (мб в канал, мб в комментарии, в зависимости от интересности) — Operator умеет сам записывать ход сессии.

UPD: помните, что оператор плохо работает с задачами на 20+ минут, а так как всё делается медленнее, чем при исполнении человеком, то задачи должны быть на 5-8 минуток.
10.02.202510:28
Пост про дипсик (но не совсем)

Сегодня ночью будет Супербоул (в 2:30 по мск), который я по традиции буду смотреть.

Сообщается, что OpenAI купили 30-секундную рекламу (за $8M). В новостях пишут что это первая TV-реклама, но на моей памяти в целом вообще первая — компания вкладывала примерно нуль в своё продвижение до недавнего времени. А вот, например, Anthropic в прошлом году уже появлялись на Супербоуле.

«Ха-ха, боятся конкуренции с DeepSeek» — может кто-нибудь сказать. Но вообще-то про начало маркетинговых компаний CMO OpenAI Kate Rouch говорила ещё в конце 2024-го года. Ближе к концу января мы узнали, что у OpenAI ОЧЕНЬ амбициозные планы на 2025й: они хотят вырастить аудиторию более чем в 4 раза (до МИЛЛИАРДА пользователей В СУТКИ), поэтому логично, что начнутся а) маркетинговые акции б) коллаборации в) промо-акции со скидками.

Также для того, чтобы привлекать бесплатных юзеров, было пора бы и модель обновить (там всё ещё крутилась GPT-4o-mini, если память не изменяет), и появление o3-mini для бесплатных юзеров — да ещё и с поиском — это скорее логическая закономерность нежели ответ на китайские релизы. Я не верю, что OpenAI приняли это решение испугавшись роста конкурента (который по итогу не смог выдержать наплыва аудитории и был долгое время недоступен — прямо как сами OpenAI в 2022м), но допускаю, что они могли чуть поднять лимиты по сравнению с теми, которые рассчитали до выхода и популярности R1.

Про коллаборации — вот например OpenAI предоставят доступ к ChatGPT Edu для студентов и сотрудников California State University, более 500'000 человек!

Ну и промо-акции: через неделю после релиза R1 в коде сайта OpenAI было обнаружено, что планируется давать скидку в 50% на Plus-подписку. А вчера нашли ещё больше информации (названия промо-кампаний):
— "students-2025-six-month-discount"
— "first month discount", "first month free", "six months discount", и "six months free"

(🥱 вот бы это на Pro-тир распространялось 👶...)

Тут у каждого оценка шансов субъективная, но для меня «компания с бывшим директором YC, где персонально он учил расти стартапы, и которая наняла CMO, который уже с месяц говорил про маркетинг, и в планы которой входил рост в 4 раза за год, планировала промо-кампании заранее» куда более вероятно, чем «эта же компания за неделю перевернулась и сделала промо-акции в ответ на китайскую угрозу». Почитаю в комментах почему я не прав 😀

для особо интересующихся напишу очевидную вещь: «не из-за DeepSeek» не равно «не из-за конкурентов»

===

О, и ещё: Similarweb пишет, что сайт ChatGPT стал 6м по трафику в мире, обойдя Twitter, Reddit, Netflix, и совсем чуть-чуть отставая от Instagram. За январь рост составил без малого 6%.

UPD: написал в комментах, но вынесу и сюда. Я считаю, что цены на на o3-mini / o1-mini упали почти наверняка из-за DeepSeek, и за это им спасибо.
Elon и команда показали Grok 3 и новые фичи, которые появятся скоро:

— ранний (незаконченный) чекпоинт Grok 3 занимает первое место на LMSYS Arena во всех категориях (первая и вторая картинки), в общем рейтинге без учёта контроля стиля ответов он первым перешагнул 1400 очков. В категориях «общий, с контролем стиля», «креативность/письмо», «длинные запросы» и «следование инструкциям» делит это самое первое место с другими моделями, например, с последней версией ChatGPT.
— пока официальный лидерборд не обновляют, идёт оценка финальной версии, которая, как ожидается, займёт место ещё чуть-чуть повыше.
— по оценкам на наборе бенчмарков (остальные картинки) обходит все остальные модели; но к сожалению, бенчмарков очень мало. Внушает осторожный оптимизм, но будем ждать публичного доступа, чтобы народ протестировал на всём подряд.
— Grok 3 умеет быть и обычной моделью, и рассуждающей. В трансляции это не проговорили явно, но мне показалось, что всё же это одна модель, а не две разные. По началу полные цепочки рассуждений доступны не будут, лишь их сжатая версия.
— рассуждающие модели как будто бы хуже, чем OpenAI o1 — обратите внимание на более светлые части вверху полосочек; OpenAI так обозначали агрегацию ответов от N генераций (сгенерировали 16 ответов -> выбрали самый часто попадающийся; это улучшает качество). Если и тут также, то получается, что более тёмная часть полосочек лежит на уровне или ниже o1/o3-mini-high. Альтернативно это может быть разница между low и high compute, в таком случае перформанс лучше o1 и o3-mini, в том числе на недавнем AIME '25.
— Модель имеет нативный аудио инпут/аутпут, как GPT-4o Advanced Voicemode, однако пока он не будет доступен (обещают скоро).
— Следуя моде, вместе с Grok 3 будет работать Deep Research агент, делающий запросы в интернет и вычитывающий страницы за вас; никаких метрик сравнения, хоть тех же, что показывали Perplexity неделю назад, нет.
— xAI сначала запустили кластер на 100 тысяч видеокарт за 122 дня, про это все писали; а в следующие 92 дня они удвоили количество видеокарт — это новая информация. Правда во время трансляции я не услышал прям однозначного «да, вот почти вся тренировка сразу была на всех картах», возможно их подключили совсем ближе к концу, но так или иначе говорят, что кластер есть. Точно будет использоваться дальше по дороге. Elon сказал, что для следующей итерации модели планируется расширение в 5 раз (до 1M GPU, датацентр будет потреблять 1.2GW энергии)
— Grok 2 будет выложен в открытый доступ «в течение нескольких месяцев», как полностью запустят все фичи Grok 3.

Grok 3 должен быть доступен уже сегодня для подписчиков Twitter Premium + (я вчера взял кстати 🤠) за $22. Также анонсировали какую-то подписку на сайте/в приложении, но пока не увидел цены.

TLDR: неплохие приросты, чуть меньше чем я бы ожидал от модели следующего поколения на LMSYS Arena; набор бенчмарков неплохой, но очень маленький и не conclusive, и ни одного мультимодального (картинки/видео). Ждём внешней валидации.

<страницы блога пока нет, тоже ждём>

Пообщаться с моделью БЕСПЛАТНО и без Premium + можно на арене: идём на https://lmarena.ai/ и выбираем сверху Direct chat -> Grok 3.
Увійдіть, щоб розблокувати більше функціональності.