Мир сегодня с "Юрий Подоляка"
Мир сегодня с "Юрий Подоляка"
Труха⚡️Україна
Труха⚡️Україна
Николаевский Ванёк
Николаевский Ванёк
Труха⚡️Україна
Труха⚡️Україна
Николаевский Ванёк
Николаевский Ванёк
Лёха в Short’ах Long’ует
Лёха в Short’ах Long’ует
CR AI avatar
CR AI
CR AI avatar
CR AI
У 🧘Perplexity вышла своя версия Deep Research, причём она, в отличие от конкурентов, сразу доступна бесплатно всем пользователям.

Идея сервиса в том, что ИИ будет не просто давать ответ, а сначала проводить «исследование» — формировать план, делать отдельные точечные запросы в поиск, сам себе задавать уточняющие вопросы и потом на основе многих десятков источников компилировать ответ.

Решили протестировать, попросив сделать доклад о состоянии российского рынка ИИ. Итогом примерно 7 минут блужданий по сайтам стал текст на пару-тройку страниц А4.

За внешне стройной структурой и уверенным изложением сервис пытается спрятать большое количество критичных галлюцинаций. Perplexity, скомпилировав материал с 80 сайтов, начинает лепить из них Франкенштейна, незаметно добавляя к докладу вымышленные компании, меняя местами проекты разных участников рынка и пытаясь всё это уместить в несколько страниц.

В итоговом абзаце Perplexity щедро подарил России суперкомпьютер «Черчилль», который к 2030 году выведет страну в топ-10 мировых лидеров по направлению ИИ… Вероятно, где-нибудь в источниках были рекомендации со ссылками на другие материалы, которые тоже попали в доклад.

Протестировать можно на странице сервиса, в день дают 5 бесплатных запросов. На данный момент для каких-то серьёзных задач пользоваться Deep Research не стоит, чуда не случилось – на перепроверку фактов может уйти больше времени, чем на самостоятельное изучение темы.
Чтобы ИИ перестал быть абстрактным «инструментом» и стал настоящей движущей силой экономики и безопасности, требуется нечто большее, чем алгоритмы и амбиции — нужна инфраструктура. В преддверии своего ухода с поста президента Джо Байден подписал указ, направленный на укрепление лидерства США в области инфраструктуры для искусственного интеллекта. И в этом документе есть несколько любопытных моментов.

Например, создание ЦОДов стало задачей национальной безопасности. Для этого были задействованы федеральные земли, участки которых должны быть отданы в аренду частным компаниям.

Не забыл президент и про «экологическое лобби» — упомянутые выше арендаторы должны строить для своих ЦОДов автономные источники чистой энергии. Принято такое решение с целью предотвращения роста цен на электроэнергию для живущих вокруг центров потребителей, но получится ли этого избежать — вопрос открытый (тем более что фильм «Планета людей», спродюссированный Майклом Муром, отлично показал легкость, с которой можно обходить подобные ограничения).

Есть и другие нюансы. Центры требуют для охлаждения воды, а с водой в некоторых регионах США вроде Аризоны, Нью-Мексико, Колорадо, Калифорнии и так далее — проблемы. При этом проект не предполагает напрямую выделение льгот или субсидий, так что все траты ложатся на плечи операторов.

Все эти решения приняты ради безопасности данных — американцы прекрасно понимают, что отдавать свои секреты за границу не стоит. Инфраструктура также станет основой для реализации других планов из указов, вышедших одновременно с этим — по укреплению кибербезопасности и развитию ИИ.

Россия выбрала немного иной подход к развитию ЦОДов и активно вкладывает в это бюджетные средства.

До 2030 года на два федеральных проекта в этом направлении* выделено около 136 миллиардов рублей. Это вполне логично, учитывая, что стоимость доставки западных компонентов в Россию выросла из-за санкций, и государство будет частично компенсировать компаниям эти затраты. Некоторые депутаты даже предлагали строить ЦОДы на севере, чтобы экономить на охлаждении, хотя в таком случае остаётся вопрос о скорости доставки данных до потребителей.

Читаем указ и ещё раз вспоминаем, что дата-центры стали за последние несколько лет объектами стратегического значения, от которых зависят технологии и национальная безопасность.

*Упомянутые федеральные проекты — «Развитие инфраструктуры использования ИИ и работы с большими данными» и «Поддержка новых разработок программных решений и их внедрения в отраслях экономики»
05.02.202512:42
OpenAI потеряла ещё одного партнёра. На этот раз — по роботостроению

Компания Figure AI, одна из самых инновационных в разработке гуманоидных роботов, решила отказаться от сотрудничества с OpenAI. Теперь они сосредоточатся на собственной системе искусственного интеллекта. Причина такого решения – некий «крупный технологический прорыв», о котором CEO Бретт Адкок пока ничего не сказал. Но он обещает в течение 30 дней показать в робототехнике «что-то такое, чего мир ещё не видел».

До этого момента 2 компании работали вместе: планировалось использовать модели OpenAI для обеспечения общения и «зрения» роботов Figure 02. OpenAI даже были одним из крупнейших инвесторов. Теперь всё переигралось — Бретт Адкок считает, что им нужен более узкоспециализированный и интегрированный ИИ, который партнёры предоставить не в состоянии. Придётся, мол, всё делать самим.

Сильно жалеть OpenAI не стоит — они, пользуясь правилом «не складывать все яйца в одну корзину», заранее инвестировали в 1X. Это прямые конкуренты Figure, которые делают умных роботов для дома. На форуме в Давосе OpenAI также намекали на планы самостоятельно заняться разработкой роботов в ближайшие годы, а ещё раньше в сети появились их вакансии на разработку «robotics hardware», железа для роботов.

Возникают вопросы, смогут ли Figure AI с их довольно скромными (в сравнении с гигантами индустрии) ресурсами успешно создать свой ИИ? И что это за прорыв, который нам обещает компания? Новость особенно интересная на фоне планов Илона Маска по производству и интеграции его Optimus, да и в целом стремительно нарастающего противостояния в сфере робототехники.

На видео — робот Figure 02 от компании Figure AI
А у нас есть очередная визуализация. На этот раз — для моделей, которые генерируют для вас (или, по крайней мере, для нас) картинки — диффузий. Чтобы вы лучше могли понять процесс

Диффузионные модели показывают впечатляющие результаты в самых разных областях, от создания изображений и видео до разработки лекарств. В отличие от GAN (генеративно-состязательные сети, другой принцип генерации), диффузионные модели работают по принципу постепенного разрушения данных с последующим восстановлением.

В основе диффузионных моделей лежат два процесса.

Первый – прямой процесс, или диффузия. На этом этапе к исходному изображению постепенно добавляется шум. Этот процесс повторяется до тех пор, пока изображение полностью не превратится в случайный шум.

Второй процесс – обратный, или обратная диффузия. Здесь нейронная сеть учится восстанавливать исходные данные, шаг за шагом убирая шум. Цель – научить модель предсказывать предыдущее состояние, основываясь на текущем.

Сейчас немного «духоты» для тех, у кого тоже стоит ComfyUI или Automatic. Процесс генерации в Stable Diffusion выглядит следующим образом: сначала текстовый запрос токенизируется и кодируется в векторное представление с помощью модели CLIP; затем, начиная со случайного шума, картинка постепенно уточняется с помощью U-Net, опираясь на текст; и, наконец, изображение масштабируется в высокое разрешение с помощью VAE.

Диффузионные модели более стабильны в обучении, но GAN, как правило, быстрее. Качество генерации у обоих подходов высокое, но диффузионные модели отличаются большей универсальностью.

Как мы видим из визуализации, диффузионные модели — это мощный инструмент. Благодаря своей стабильности, качеству и универсальности, они успешно применяются в разных областях. Пускай они медленнее GAN, перенос генерации в облако или оптимизация на уровне железа (у видеокарт Nvidia, например) сделала их по итогу доминирующим вариантом генеративных нейросетей на сегодняшний день. Все популярные опции для генерации изображений — Stable Diffusion, DALLE, Midjourney, imagen и другие — используют именно этот подход.
28.01.202521:02
Китайцы не сдержались и перед Новым годом довыполнили KPI, сделав ещё один громкий анонс.

Alibaba представили новую версию своей модели — Qwen2.5-Max с архитектурой Mixture-of-Expert (это когда для экономии ресурсов в ответ на запрос пользователя активируются не все параметры, а только та часть, которая релевантнее всего на него ответит — нужный «эксперт» внутри модели).

Главная особенность — Qwen2.5-Max обучалась на 20 триллионах токенов. Видимо, компания даже взяла для этого где-то видеокарты. То есть санкции всё-таки «работают»…

На бенчмарках модель показывает себя вроде как даже лучше Deepseek V3, не говоря о многострадальных GPT-4o и Claude Sonnet, которых китайцы совсем уже не жалеют (а зря).

Правда, разница с тем же Deepseek минимальная, а стоит API сильно дороже. Так ещё и модель с закрытым исходным кодом. Но для простых пользователей бесплатно можно использовать через чат. В чате, кстати, ещё есть генерация картинок и видео, хотя по качеству они пока довольно посредственные в сравнении с конкурентами.

Как китайцы умудряются быть такими продуктивными? У этого есть своё объяснение — один из ведущих разработчиков этой модели и исследователь NLP в Alibaba Биньюань Хуэй начинает работать в 10 и заканчивает в 21, хотя даже после этого продолжает проверять прогресс модели и думать над развитием проекта.
NVIDIA решили начать год красиво — с кучи анонсов на конференции CES 2025. Главной темой, как это водится в последнее время, стал ИИ

Ключевым анонсом была новая линейка графических процессоров GeForce RTX 50 серии, основанная на архитектуре Blackwell. RTX 5090, флагман этой серии, содержит 92 миллиарда транзисторов и обеспечивает производительность ИИ в 3352 триллиона операций в секунду (TOPS), что делает его самым мощным графическим процессором GeForce на сегодняшний день. Этот скачок производительности, по словам NVIDIA, обусловлен оптимизацией для нейронного рендеринга, новыми потоковыми мультипроцессорами, оптимизированными для нейронных шейдеров, и пятым поколением тензорных ядер. Внедрение вычислений FP4 обещает значительное увеличение производительности в играх и других приложениях, использующих ИИ.

Однако NVIDIA не ограничилась аппаратными решениями. Компания представила анонсы и обновления ПО и платформ, основанных на ИИ: Cosmos, RTX Neural Shaders, DLSS 4, Reflex 2, NVIDIA ACE, Project G-Assist, Project R2X, AI Blueprints и NIM.

Подробно про всё рассказывать не будем, но ИИ используется примерно везде:
• DLSS 4 генерирует до 3 дополнительных кадров на каждый отрисованный благодаря трансформерам.
• ACE нужен для создания реалистичных цифровых персонажей с помощью генеративного ИИ (они могут воспринимать окружение, планировать и действовать как живые игроки).
• Project G-Assist — экспериментальный ИИ-помощник для ПК.
• Project R2X — управляемый зрением аватар для ПК, предоставляющий информацию, помогающий с приложениями, видеоконференциями, чтением и обобщением документов.
• AI Blueprints — шаблоны для создания, тестирования и запуска ИИ-агентов.
• NIM — микросервисы для создания ИИ-агентов для поддержки клиентов, обнаружения мошенничества и оптимизации цепочек поставок.

Особого внимания заслуживает платформа NVIDIA Cosmos, предназначенная для разработки моделей мира, которые помогут в создании роботов и автономных транспортных средств (AV) следующего поколения. Cosmos — модель для генерации физически аккуратного видео, обученная на 9000 триллионах токенов из 20 миллионов часов реального взаимодействия. Она предоставляет разработчикам возможность генерировать огромные объемы синтетических данных, необходимых для обучения физического ИИ, и находится в открытом доступе.

Другой важный анонс — Project DIGITS, настольный компьютер с ИИ, основанный на суперчипе NVIDIA GB10 Grace Blackwell. GB10 обеспечивает производительность ИИ до 1 петафлопс с точностью FP4 и включает графический процессор Blackwell с ядрами CUDA последнего поколения и тензорными ядрами пятого поколения. Project DIGITS по цене от 3000 долларов предоставит разработчикам доступ к мощностям, ранее доступным только в крупных дата-центрах. На одном ПК можно запустить модели вплоть до 200 млрд параметров, если соединить два — даже 405B модель.

Технология RTX Neural Shaders, позволяющая обучать и использовать небольшие нейронные сети внутри шейдеров, обещает революцию в графике. Сжатие текстур до 7 раз, ускорение обработки материалов до 5 раз и улучшенное непрямое освещение — лишь некоторые из возможностей этой технологии.

Анонсы NVIDIA на CES 2025 показывают стратегию укрепления их доминирования в сфере ИИ, где компания уже контролирует значительную долю рынка и получает от ИИ-ускорителей на порядок больше прибыли (в 10 раз), чем от игровых видеокарт. NVIDIA предлагает не только мощнейшее железо, но и развитую программную экосистему для различных ИИ-задач, от создания цифровых персонажей до тренировки роботов. Сейчас компания осознанно демократизирует доступ к передовым ИИ-технологиям, чтобы расширить рынок и укрепить свои позиции.
Что за DeepSeek и почему их новая модель — прорыв в ИИ?

Мы и раньше видели новости о достижениях китайских компаний в области LLM, но вышедшая на днях модель DeepSeek-R1 удивляет даже на фоне предыдущих громких релизов. Компания не только бросила вызов лидерам индустрии на Западе, но и подтвердила высокий уровень китайских разработок. Обо всём по порядку.

R1 — это «думающая» модель с 671 миллиардом параметров, одна из самых больших на рынке. Бенчмарки и тесты показывают, что по качеству она сравнима с одной из самых продвинутых моделей от OpenAI — o1 (правда, та уже относится к предыдущему поколению), с особенно сильными результатами в математике и кодинге.

Достижения модели — результат в том числе необычного и инновационного подхода к обучению. R1 обучалась исключительно методом обучения с подкреплением (Reinforcement Learning), без привычного этапа предварительного обучения на огромном массиве данных. Это позволило R1 развить эмерджентные свойства, то есть экспериментировать и действовать не так, как задумали авторы. Она способна к «самоанализу» и произвольно увеличивает время «размышлений», Chain of Thought, для решения сложных задач (её этому не учили).

Ключевыми преимуществами R1 являются низкая стоимость — API DeepSeek стоит примерно на 90% дешевле OpenAI и Anthropic, и открытый исходный код. Это позволяет пользователям адаптировать модель под свои задачи и использовать её в коммерческих проектах, что особенно важно для стартапов и бизнеса. Отдельно стоит отметить перевод на китайский — вроде как пока она показывает лучший результат в этой области. Единственный нюанс — стоит иметь в виду при работе с моделью, что на вопросы про Китай она либо не отвечает, либо поддерживает официальную позицию КПК.

Откуда вообще взялись DeepSeek? Компания была основана в 2023 году в Ханчжоу, став частью хедж-фонда High-Flyer. Генеральный директор DeepSeek — Лян Вэнфэн, выпускник факультета компьютерных наук, «китайский Сэм Альтман». Откуда конкретно они получают финансирование — загадка. Однако известно, что компанию спонсируют разные фонды: конкретного списка нет, как и известных источников государственного финансирования. Сам Лян Вэнфэн заявил об отсутствии проблем с деньгами, зато пожаловался на недостаток чипов для обучения из-за санкций США.

После релиза R1 CEO DeepSeek встретился с премьер-министром Китая. Делать выводы пока рано, но это может свидетельствовать об официальной государственной поддержке компании со стороны КПК. Хотя уже понятно, что DeepSeek, с её демпинговыми ценами, прорывными идеями в разработке ИИ и философией продвижения продуктов с открытым исходным кодом — стала одной из самых значимых компаний Китая и мира в сфере искусственного интеллекта.

А ведь год только начался…
В Китае создали экспериментальную сеть для быстрой передачи данных, обучения ИИ и не только

Китай завершил этап создания экспериментальной суперсети CENI (China Environment for Network Innovations) — уникальной платформы для тестирования технологий интернета будущего. Это масштабный национальный проект, который объединяет инновационные разработки в области оптической связи, детерминированных сетей и больших данных.

CENI была запущена в 2021 году под руководством Университета Цинхуа с целью стать «песочницей» для испытания технологий, способствующих созданию интернета нового поколения. Ученые планируют использовать её для проверки устойчивости систем к кибератакам, оптимизации передачи данных и разработки новых бизнес-моделей.

Сегодня сеть охватывает 40 ведущих университетов Китая, крупнейшие города и 13 провинций, а её протяжённость — 13000 километров. В ближайшем будущем планируется расширить сеть и увеличить количество подключенных вузов и компаний до 100.

CENI основана на передовых технологиях, обеспечивающих рекордные показатели передачи данных, нулевую потерю пакетов и задержку менее 20 микросекунд даже при пиковой нагрузке. Она способна передавать данные на расстояние более 2000 километров без необходимости в усилителях сигнала. По словам Лю Юньцзе, одного из главных разработчиков сети, её можно сравнить с «высокоскоростной железной дорогой для компьютеров», обеспечивающей стабильную передачу больших данных.

Новая сеть станет основой для обучения моделей ИИ, требующих обработки огромных массивов данных, создания промышленных интернет-приложений, разработки технологий для «умных городов» и формирования единой вычислительной инфраструктуры страны. В ходе эксперимента удалось с точностью до сантиметров и без задержек контролировать робота в 500 километрах от отеля, где был оператор.

CENI — не только инструмент укрепления кибербезопасности, но и ключевой элемент для реализации стратегии «Данные с востока — вычисления на западе», направленной на передачу данных из восточных регионов Китая в западные центры обработки. Это позволяет использовать возобновляемую энергию в ЦОДах, сократить затраты и улучшить экологические показатели. Также CENI — часть интегрированной национальной вычислительной сети, которая должна стать основой для «цифрового Китая». В долгосрочной перспективе эта инфраструктура должна ускорить развитие ИИ, поддержать рост цифровой экономики и повысить глобальную конкурентоспособность страны.
Показано 1 - 8 із 8
Увійдіть, щоб розблокувати більше функціональності.