Погружаемся в машинное обучение и Data Science Показываем как запускать любые LLm на пальцах. По всем вопросам - @haarrp @itchannels_telegram -🔥best channels Реестр РКН: clck.ru/3Fmqri
🎓 1) Andrej Karpathy Глубокие, но доступные лекции по глубокому обучению, языковым моделям и введению в нейронные сети. Ссылка: https://www.youtube.com/c/AndrejKarpathy
📊 2) 3Blue1Brown Потрясающие визуализации, которые делают абстрактные математические концепции понятными и интуитивными. Ссылка: https://www.youtube.com/c/3blue1brown
🎙️ 3) Lex Fridman Глубокие беседы с лидерами индустрии ИИ, позволяющие получить широкий взгляд на современные тенденции. Ссылка: https://www.youtube.com/c/LexFridman
🍉 6) Serrano Academy (Luis Serrano) Ясный и доступный контент о машинном обучении, глубоких нейронных сетях и последних достижениях в ИИ. Ссылка: https://www.youtube.com/c/LuisSerrano
💻 7) Jeremy Howard Практические курсы по глубокому обучению и обучающие видео по созданию AI-приложений, основанные на опыте Fast.ai. Ссылка: https://www.youtube.com/c/Fastai
🛠️ 8) Hamel Husain Практические уроки по работе с языковыми моделями (LLMs), RAG, тонкой настройке моделей и оценке ИИ. Ссылка: https://www.youtube.com/c/HamelHusain
🚀 9) Jason Liu Экспертные лекции по RAG и советы по фрилансу в области ИИ для специалистов по машинному обучению. Ссылка: https://www.youtube.com/c/JasonLiu
⚙️ 10) Dave Ebbelaar Практические руководства по созданию ИИ-систем и применению технологий в реальных проектах. Ссылка: https://www.youtube.com/c/DaveEbbelaar
📚 11) StatQuest with Joshua Starmer PhD Доступные и понятные объяснения основ машинного обучения и статистики для начинающих. Ссылка: https://www.youtube.com/c/statquest
Эти каналы предлагают разнообразный и качественный контент для всех, кто хочет углубиться в изучение искусственного интеллекта. Независимо от вашего уровня подготовки, здесь каждый найдёт что-то полезное для себя!
@data_analysis_ml
+8
22.03.202510:39
🤖 Modern Robotics Course: Открытый курс по современнойробототехнике.
Курс содержит лекции, учебные заметки, алгоритмы и практические задания, что позволяет последовательно изучать тему – от основ кинематики до сложных вопросов управления и планирования роботов.
🌟 Что внутри? ▪ Лекции: От основ робототехники, математики и физики до пространственных преобразований, обратной кинематике и более продвинутым концепциям . ▪ Практика: Примеры кода на Python и C++ для управления роботами. ▪Симуляторы: Интеграция с стимуляторами Gazebo и ROS ( операционная система для робото) для тестирования алгоритмов. ▪Задания: Реальные практические задачи (например, управление манипулятором робота).
🌟 Для кого? ▪ Начинающие робототехники: Освоить кинематику, динамику, управление. ▪ Программисты: Интегрировать алгоритмы в ROS, Gazebo, Python/C++. ▪ Инженеры: Возможность Научиться разрабатывать автономные системы и манипуляторы. ▪Технологические энтузиасты
С курсом у вас будет возможность проектировать роботов,не имея железа под рукой (через симуляторы).
✔️ Готовые решения: Внутри вы найдете библиотеки для работы с преобразованиями, датчиками, движением.
✔️Карьера в робототехнике: Курс даст возможность получить базовые навыки, востребованные в Bosch, Boston Dynamics, Tesla.
⭐️ Преимущества перед другими открытыми курсами 🟠 Акцент на практике: Минимум абстракций — максимум кода. 🟠Совместимость с ROS: Стандарт для промышленной робототехники. 🟠 Современные алгоритмы: Не только классика, но и нейросетевые подходы.
➡️ Cовет: Для погружения в курс, вам поможет книга Robotics, Vision and Control: Fundamental Algorithms in Python, Peter Corke, вот ее репозиторий с примерами кода.
P.S. А для тех, кто любит формат «сделай сам»: Курс научит вас собирать робота виртуально, а потом переносить решения на реальные устройства. 🤖💡
✔️ СuML от NVIDIA: Scikit-learn на скорости GPU – без единой строчки нового кода!
Все мы любим scikit-learn за его простоту и мощь. Но что если ваши модели обучаются слишком долго на больших данных? 🤔 NVIDIA предлагает решение!
Вы берете свой обычный скрипт cо scikit-learn, добавляете всего две строки в начало, и он начинает работать в 10, 50, а то и 100+ раз быстрее на NVIDIA GPU! 🔥
✨ Как это работает?
Библиотека cuml от NVIDIA содержит супероптимизированные для GPU версии многих алгоритмов машинного обучения. С помощью простого вызова cuml.patch.apply() вы "патчите" установленный у вас scikit-learn прямо в памяти.
Теперь, когда вы вызываете, например, KNeighborsClassifier или PCA из sklearn:
▶️Патч проверяет, есть ли у вас GPU NVIDIA. ▶️Проверяет, есть ли в cuml быстрая GPU-версия этого алгоритма. ▶️Если да – запускает ускоренную версию на GPU! 🏎️ ▶️Если нет (нет GPU или алгоритм не поддерживается) – спокойно запускает обычную CPU-версию scikit-learn.
Ключевые преимущества:
✔️ Нулевые изменения кода: Ваш scikit-learn код остается прежним. Добавляете только2 строчки: import cuml.patch и cuml.patch.apply(). ✔️ Колоссальное ускорение: Получите прирост производительности на порядки для поддерживаемых алгоритмов (KNN, PCA, линейные модели, Random Forest (инференс), UMAP, DBSCAN, KMeans и др.) за счет мощи GPU. ✔️Автоматическое переключение между GPU и CPU. Ваш скрипт будет работать в любом случае.
Топ инструмент для всех, кто работает с scikit-learn на задачах, требующих значительных вычислений, и у кого есть GPU от NVIDIA.
👇 Как использовать:
Установите RAPIDS cuml (лучше через conda, см. сайт RAPIDS):
🖥 OpenAI открывает бесплатное обучение по работе с нейросетями
OpenAI запустила "Академию OpenAI", которая претендует на роль главного учебника по работе с ИИ.
Платформа поможет освоить нейросети на практике, понять их возможности и научиться эффективно использовать ChatGPT и Sora в повседневной жизни и работе.
▪ Обширная база обучающих материалов доступна на отдельном сайте. ▪Live-трансляции и офлайн-мероприятия помогут глубже разобраться в технологиях. ▪ Бесплатный доступ — OpenAI стремится расширить аудиторию, а не ограничивать её ценником.
Программа рассчитана на широкий круг слушателей — от технических специалистов до политиков, представителей бизнеса и академического сообщества.
📌Awesome CursorRules: репозиторий с рецептами Cursor AI.
Awesome CursorRules — коллекция файлов-рецептов .cursorrules для тонкой настройки поведения Cursor AI. Автор репозитория собрал десятки шаблонов, адаптирующих генерацию кода под конкретные проекты: от мобильных приложений до блокчейн-решений.
Главная «фишка» .cursorrules — гибкость. Разработчики могут прописать правила, которые сделают подсказки ИИ более релевантными: например, учесть стиль кода команды или архитектурные особенности проекта. Это не только ускоряет работу, но и снижает риск ошибок.
Коллекция включает практически все сферы разработки: фронтенд (Angular, NextJS, Qwik, React, Solid, Svelte, Vue), бэкенд (Deno, Elixir, ES, Go, Java, Lavarel, NodeJS, Python, TypeScript, WordPress), мобильную разработку (React Native, SwiftUI, TypeScript, Android, Flutter) и специфические задачи — интеграцию с Kubernetes или оптимизацию под SOLID-принципы.
Для новичков есть пошаговые инструкции: достаточно скопировать файл в проект или установить расширение для VS Code.
Судя по отзывам, Awesome CursorRules уже стал мастхэв для тех, кто хочет выжать максимум из Cursor AI.
✔️ Transformers & LLMs cheatsheet for Stanford's CME 295
Это репозиторий с набором визуальных шпаргалок, посвященных трансформерам и большим языковым моделям (LLM).
🌟 Материалы основаны на курсе CME 295 "Трансформеры и большие языковые модели", читаемом в Стэнфордском университете.
Это не книга или подробный туториал, а именно сжатые, наглядные обзоры ключевых концепций. Используются диаграммы, краткие пояснения, основные формулы и определения.
✔️Содержание: Охватывает фундаментальные темы, необходимые для понимания LLM: ✔️Механизм внимания (Attention Mechanism) ✔️Архитектура Трансформера (Transformer Architecture) ✔️Позиционное кодирование (Positional Encoding) ✔️Предобучение (Pre-training) и его цели (например, Masked Language Modeling, Next Sentence Prediction) ✔️Дообучение (Fine-tuning) для конкретных задач ✔️Промптинг (Prompting) и различные его техники ✔️Оценка (Evaluation) LLM ✔️Другие важные концепции в этой области.
Идеально подходит для повторения материала или для того, чтобы быстро схватить суть той или иной концепции.
Тщательно отобранный список (Awesome List) с MCP серверами (Model Control Plane Servers).
✔️ Что такое MCP серверы? MCP серверы являются микросервисами, которые могут быть использованы LLM для выполнения вашей задачи. По сути это мост между LLM и внешним миром: сайтами, базами данных, файлами и сервисами и тд.
Коллекция из 300+ MCP-серверов для ИИ-агентов 100% oпенсорс.!
🌟 KBLaM: новая архитектура интеграции знаний для языковых моделей от Microsoft Research.
Microsoft Research представила KBLaM - архитектуру, которая решает ключевую проблему LLM — добавление новых внешних знаний. В отличие от традиционных методов файнтюна и RAG, KBLaM кодирует новые для LLM структурированные данные в виде векторных пар «ключ-значение», встраивая их напрямую в слои внимания модели. Это позволяет избежать дорогостоящего дообучения и построение дополнительных модулей, сохраняя линейную масштабируемость даже для баз знаний в 10 000 триплетов.
В KBLaM триплет — это структурированный элемент знания, состоящий из трех компонентов: сущности, свойства и значения. Например, в утверждении «Москва — столица России» сущностью выступает «Москва», свойством — «столица», а значением — «Россия».
В основе KBLaM - «прямоугольный механизм внимания»: языковые токены взаимодействуют с токенами знаний, но не наоборот. Такая структура сокращает вычислительные затраты до линейных, позволяя обрабатывать эквивалент 200 тыс. токенов на одном GPU. При этом модель динамически обновляет знания без пересчёта всей базы — достаточно изменить один триплет.
Эксперименты с KBLaM показали, что он не только эффективен, но и прозрачен: веса внимания визуализируют, какие факты использует модель. Например, при запросе о медицинском диагнозе высокие оценки внимания к соответствующим триплетам снижают риск «галлюцинаций», при этом, если ответ на запрос лежит вне базы знаний, модель отказывается на него отвечать.
Как заявляют авторы, KBLaM — не просто шаг к умным LLM, а мост между обученными на базовых знаниях моделями и реальным миром, где знания постоянно обновляются.
В опубликованном на Github коде для применения KBLaM поддерживаются модели с HF:
⚠️ Чтобы добавить поддержку других моделей, необходимо отредактировать скрипты обработки моделей и включить в них адаптер, подобный llama_model.py в src/kblam/models.
🔥 Китайцы снова жгут: Baidu выпустили ERNIE 4.5 и ERNIE X1, мощные модели по невероятно низкой цене!
Вот все, что вам нужно знать.
⚡️ERNIE 4.5
- Мулльтимодальная модель, превосходит GPT 4.5 в нескольких бенчмарках всего за 1% от цены GPT 4.5 - OpenAI GPT 4.5 - Input: $75 / 1M токенов, Output: $150 / 1M токенов; - ERNIE 4.5 - Input: $0.55 / 1M токенов, Output: $2,20 / 1M токенов
⚡️ERNIE X1
- Ризонинг модель с мультимодальными возможностями, спроизводительностью на уровне с DeepSeek R1, но в два раза дешевле.
Чатбот с искусственным интеллектом ERNIE Bot доступен бесплатно для всех пользователей.
Обе модели доступны в свободном доступе ERNIE Bot на его официальном сайте: https://yiyan.baidu.com.
#ernie #ai #llm #Baidu
27.03.202513:05
🌐 Nanobrowser – Мультиагентная AI-ситсема для веб-автоматизации.
Это open-source инструмент, который использует LLM для автоматизации работы у вас в браузере.
По сути это альтернатива OpenAI Operator, работающая локально.
Оператору можно задавать промпты на естественном языке (или через код), а умные агенты (Планировщик, Навигатор, Валидатор) выполняют их в веб-окружении. Чем полезен ? 🟢Автоматизация тестирования UI: Быстро просит пользовательские сценарии, заполнение форм, клики по элементам без написания сложного Selenium/Puppeteer кода. 🟢Прототипирование веб-скрапинга/сбора данных: Легко настраивайте сбор нужной информации с веб-страниц. 🟢Ускорение рутинных задач:Автоматизируйте взаимодействие с внутренними админками, дашбордами или любыми веб-интерфейсами.
Главное, что ваши данные не уходят на сторонние серверы (если вы используете локальную LLM).
Поддерживает различные большие языковые модели, не привязывая вас к одному провайдеру.
✔️ "Speech and Language Processing": 3-е издания книги
Этот открытый учебник считается де-факто стандартом и одним из самых авторитетных и всеобъемлющих ресурсов для изучения областей обработки естественного языка (NLP), вычислительной лингвистики и обработки речи.
🌟Авторы: Дэн Джурафски и Джеймс Х. Мартин - известные фигуры в области NLP и вычислительной лингвистики. Книга считается классическим текстом, обновленным для включения современных методов, таких как трансформеры, которые доминируют в области NLP.
Книга разделена на три части, включающие 24 основные главы и 8 приложений.
Темы охватывают широкий спектр, включая: 😶Фундаментальные алгоритмы 😶Приложения NLP (Обработки Естественного Языка) 😶Регулярные выражения 😶Нейронные сети и трансформеры, 😶Машинный перевод и другие аспекты NLP 😶Аннотирование (или Разметка) лингвистической структуры.
Для каждой главы доступны слайды в форматах PPTX и PDF, что делает ресурс полезным для преподавателей.
Для всех, кто заинтересован в изучении NLP это фантастическиполезный ресурс.
Авторский канал о ИИ и машинном обучении Machine Learning, а также канал о будущем и технологиях Droider, объединились для крутого конкурса!
На кону – 13-дюймовый MacBook Air на чипе M3!
Условия участия максимально простые:
🔸Подписаться на телеграм-канал Machine Learning 🔸Подписаться на телеграм-канал Droider 🔸Нажать кнопку "Участвовать" ниже.
ВСЁ! Вы участник!
Итоги подведём 29 марта. Доставка приза осуществляется только на территории РФ.
Всем удачи!
16.03.202514:03
✔️ Еще одна из лучших отечественных LLM это GigaChat 2 MAX — обновленная версия искусственного интеллекта от Сбера, которая обогнала ведущие мировые предложения по данным бенчмарка MERA.
Нейросеть точнее пишет код и создает ботов. GigaChat 2 MAX может генерировать точные сигнатуры функций, предлагать предварительные решения, автоматически разрабатывать и запускать тесты, а также оптимизировать и отлаживать код на основе их результатов.
Вместе с этим улучшилось качество ведения диалога. GigaChat 2 MAX стал полноценным собеседником с настраиваемым стилем общения.
Другие детали:
1️⃣ Контекстный интеллект улучшен в 4 раза, оставляя позади всех конкурентов; 2️⃣ GigaChat 2 MAX обходит GPT-4o и LLaMA 70B на MERA, и превосходит DeepSeek и Qwen в ключевых задачах; 3️⃣ Бесплатный API для тестирования — мощный инструмент для бизнеса без ограничений VPN и локализованный в России.
GigaChat 2 MAX также улучшил метрики и расширил контекст до 128 тыс. токенов. Разработчики также заявляют, что качество новых моделей значительно опережает предыдущие версии, что позволяет уверенно конкурировать с популярными open-source моделями на всех ключевых метриках.
📕 Андрей Карпаты опубликовал новый пост- необычный путь распространения LLM, их влияние на людей и организации, причины разрыва и взгляд в будущее.
В нем он анализирует необычное распространение больших языковых моделей (LLM).
Вот его содержание: В отличие от традиционных технологий, которые обычно проходят путь от государственных и военных структур через корпорации к индивидуальным пользователям, LLM сразу стали широко доступны обычным людям.
Это позволило моделям значительно расширить свои возможности в таких областях, как программирование, анализ данных и создание контента, без необходимости привлекать узких специалистов.
ChatGPT — самое быстрорастущее приложение в истории, у него 400 миллионов активных пользователей в неделю.
Люди используют его для написания текстов, программирования, перевода, обучения, анализа, исследований и генерации идей
Это не просто улучшение жизни— это мощный бустер возможностей человека.
И барьер для входа использования LLM невероятно низкий: модели бесплатны или дешевы, быстры, доступны всем через API или локально, и говорят на любом языке, включая сленг и эмодзи.
Никогда еще человек не получал такого технологического скачка так быстро.
Почему же эффект для корпораций и государственных институтов не такой весомый?
Во-первых, LLM дают "квази-экспертные" знания: широкие, но неглубокие и ненадежные. Для организаций, где уже есть эксперты (инженеры, юристы, аналитики), это лишь слегка повышает эффективность.
А вот для человека, который обычно эксперт лишь в одном, LLM открывают новые горизонты: программировать, разбираться в юриспруденции, анализировать данные или создавать контент — все это теперь возможно без посторонней помощи.
Во-вторых, организации решают более сложные задачи: интеграции, устаревшие системы, безопасность, регуляции, координация.
Ошибки LLM тут куда опаснее — "вайб кодить" не выйдет.
В-третьих, есть инерция: бюрократия, культура компаний, переобучение — все это тормозит внедрение.
Пока LLM радикально меняют жизнь людей, а не организаций.
Мэри, Джим и Джо получают больше, чем Google или правительство США. Но что дальше? Если топовые модели станут сильно дороже и лучше, крупные игроки смогут "купить интеллект", и элита снова уйдет в отрыв.
Сегодня Билл Гейтс использует тот же GPT-4o, что и вы, но завтра его ребенок может учиться у GPT-8-pro-max, а ваш — у GPT-6-mini.
Сейчас мы находимся в уникальном моменте: будущее уже здесь, и технологии удивительно равномерно распределены. Будущее тут, и оно доступно для всех. Власть людям!
- 735 тыс. решений на Python для 28 тыс. уникальных задач программирования - Крупнейший синтетический набор данных для генерации кода на основе рассуждений - Сгенерирован моделью R1 от NVIDIA с полным набором шагов рассуждений - Собран с 10 топовых платформ для кодинга.
🌟 MegaScale-Infer: как разделение модулей внимания и FFN ускоряет работу больших языковых моделей.
Обслуживание LLMс архитектурой MoE всегда было сложной задачей: несмотря на снижение вычислительной нагрузки за счёт «разреженной» активации экспертов, GPU часто простаивают из-за неэффективного распределения ресурсов.
Новая методика MegaScale-Infer от ByteDance|Seed предлагает разделение модулей внимания и feed-forward networks (FFN) на независимые узлы с индивидуальной оптимизацией. Это не только делает загрузку GPU эффективной, но и сокращает стоимость обслуживания моделей в 1,9 раза по сравнению с аналогами.
Суть MegaScale-Infer — в «дизагрегации»: модули внимания, отвечающие за работу с ключевыми значениями (KV-кэш), и FFN-эксперты распределяются по разным GPU. Например, узлы внимания можно развернуть на GPU с высокой пропускной способностью памяти, а эксперты — на устройствах с мощными вычислительными ядрами. Такой подход позволяет масштабировать каждый компонент отдельно и избежать дисбаланса, когда один модуль ждет завершения работы другого.
Чтобы скрыть задержки связи между узлами, система использует конвейерный параллелизм. Запросы разбиваются на микропакеты, которые перекидываются между модулями внимания и FFN, как мячик в пинг-понге. Это минимизирует простои: пока один микропакет обрабатывается экспертами, механизмы внимания на GPU уже начинают работать со следующим.
Для стабильной коммуникации между сотнями устройств разработана библиотека M2N — она ускоряет передачу данных в 4,2 раза по сравнению с NCCL, устраняя лишние копии данных и синхронизацию.
Эксперименты на моделях Mixtral 8x22B (141 млрд. параметров) и DBRX (132 млрд.) показали, что MegaScale-Infer обрабатывает до 2,56Х больше токенов в секунду на один GPU, чем vLLM и TensorRT-LLM.
На гетерогенных кластерах с GPU H20 (для внимания) и L40S (для экспертов) система демонстрирует еще больший эффект: стоимость генерации токена снижается в 1,86 раза за счет оптимального распределения ресурсов: H20, обладая огромной памятью, идеально подходят для работы с KV-кэшем, а L40S эффективно считают матричные операции в FFN.
Для разработчиков, которые работают с LLM, MegaScale-Infer — не просто еще один фреймворк. Это инструмент, который превращает MoE-модели из ресурсоемких «монстров» в управляемые системы, где каждый GPU работает на пределе возможностей.
Новые возможности для инвестиций и своя "дача" у моря — это Таиланд
Что, не ожидали? Регион активно развивается, рынок не перегрет. Стоимость недвижимости растет, потому что территория для застройки ограничена.
Иностранцам доступны рассрочки, а доходность в валюте составит 5-7% при сдаче в аренду на долгий срок или до 10% посуточно. А еще здесь стабильная к $ валюта и почти 0% инфляции.
Разобраться в недвижимости Таиланда помогает на своем канале аналитик Андрей Негинский. Он каждый день публикует квартиры и виллы для жизни и инвестиций, рассказывает об особенностях рынка недвижки и местного быта.
Llama 4 Scout (109B) контекстное окно размером 10 М, 17B активных параметров · 16 эксперто , 109B общих параметров.
Llama 4 Maverick (400B) 17 млрд активных параметров ,128 экспертов, 400 млрд общих параметров · Длина контекста более 1 млн
У зверюги бегемота (еще тренируется) суммарное количество 2T!!! 16 экспертов, 288B активных параметров. Служит в качестве модели для обучения по методу совместной дистилляции Maverick.
Сейчас выпущены только Scout и Maverick, Кот-бегемот еще обучается.
На сегодняшний день Llama 4 Maverick предлагает лучшее в своем классе соотношение производительности и стоимости,
🥹 Pokemon Gym —среда для обучения агентов игре Pokémon Red/Blue.
Интерфейс, похожна стандартные среды RL (например, OpenAI Gym/Gymnasium), но адаптированный для игры Pokémon Red/Blue.
Если хотите позалипать на выходных и попробовать различные RL-алгоритмы для обучения Ai игре в покемонов.
В основе лежит эмулятор Game Boy, реализованный на Python — библиотека pyboy.
Основная цель — создать и обучить ИИ-агентов, способных самостоятельно играть в Pokémon: исследовать мир, ловить покемонов, тренировать их, сражаться с другими тренерами и проходить игру.
Игроку любителю потребуется ~400 шагов, чтобы поймать первого покемона, Клоду 3.7 понадобилось ~450 🤗
Microsoft анонсировала масштабное обновление Copilot, добавив функции, которые делают его по-настоящему персональным. Теперь Copilot запоминает детали из жизни пользователя: от предпочтений в еде до рабочих проектов — благодаря системе «Память».
Другая новинка - «Copilot Vision»: ИИ теперь «видит» через камеру смартфона или экран Windows 11, анализируя окружение в реальном времени. На ПК Copilot интегрируется с приложениями, помогая искать файлы, настраивать параметры и работать в многозадачном режиме через голосовые команды.
Добавлены веб-действия: бронирование столиков, покупка билетов или подарков через партнерские сервисы Booking.com и OpenTable. А с функцией Deep Research Copilot за минуты проведет сложный анализ данных, экономя часы рутинной работы.
✔️ Llama 4 может быть выпущена в конце апреля, но это не точно.
Команда разработки Llama рассматривает возможность очередной отсрочки выпуска своей новой модели, который уже неоднократно переносился из-за проблем с производительностью.
Компания планирует выпустить Llama 4 в конце этого месяца, но источники сообщают, что она может снова перенести дату, поскольку модель не оправдала ожиданий в задачах на рассуждение и математику. theinformation.com
✔️ OpenAI: o3 и o4-mini выйдут через пару недель, GPT-5 отложили.
Сэм Альтман сообщил, что o3 и его «упрощённый» наследник o4-mini появятся уже через пару недель. Причина — задержка GPT-5, которую решили улучшить «сильнее, чем планировали». OpenAI признали: интеграция голосовых функций, поиска и глубокого ризонинга оказалась сложнее, чем предполагалось, а серверам компании нужно выдержать беспрецедентную нагрузку от недавнего релиза генератора изображений.
GPT-5, которую теперь ждут через несколько месяцев, предложит три уровня доступа: базовый — с ограничениями, Plus — повышенный интеллект, а Pro — максимальные возможности. Модель объединит все инструменты ChatGPT, включая Canvas и Deep Research. Sam Altman в X (ex-Twitter)
✔️Rolmocr -новая SOTA OCR с лицензией Apache 2.0.
Собрана на базе Qwen 2.5 VL В модели не используются метаданные, извлеченные из PDF-файлов. Это значительно сокращает длину запроса, что, в свою очередь, снижает время обработки и потребление VRAM - без ущерба для точности. HF
✔️ GitHub вводит премиум-тариф за Copilot.
GitHub объявил о введении новых лимитов и ценовой модели для сервиса Copilot, который теперь включает плату за "премиальные" ИИ-модели. Это изменение введет ограничения на тарифы для пользователей, которые переходят с базовой модели GPT-4o на другие модели ИИ.
Ожидается, что новая структура ценообразования повлияет на пользовательский опыт, особенно для тех, кто ранее полагался на бесплатный доступ к расширенным возможностям. github.blog
53% женщин заявили, что не готовы выходить замуж за мужчину, у которого нет автомобиля, и который не водит автомобиль.
Мотивировали это тем, что “как мы будем закупаться”, и вообще “как с ребенком в городе можно жить без машины”.
Почему?
Потому что женщины строят семью с детьми. А семья с детьми – это всегда про расходы, которые опережают доходы.
80% молодых семей живут в ноль. И это теперь на 18+ лет (у кого дочери – на 25+).
Многие ребята после рождения ребенка приходят к карьерному хаку – запустить свой Пет-проект.
Михаил Табунов сделал про это телеграм канал Твой пет проект, в котором пишет для разработчиков и менеджеров про свой опыт – где брать идею, что надо знать про маркетинг, как запускать и искать первые 10 клиентов, и многое другое.
✔️ OpenRouterAI представила бесплатную модель Quasar Alpha.
OpenRouterAI объявила о предварительном выпуске своей первой мультимодальной модели - Quasar Alpha, с длиной контекста в 1 млн. токенов. Модель оптимизирована для задач программирования, но в то же время подходит для общих NLP-задач.
Модель 55% на бенчмарке aider. Это сопоставимо с o3-mini-medium, последним DeepSeek V3 и старым Sonnet 3.6. Главная фишка - Quasar Alpha работает невероятно быстро.
Quasar Alpha доступна бесплатно, ее анонс вызвал интерес в ИИ-сообществе, где пытаются предположить, какая лаборатория стоит за разработкой этой модели.
🔥 Lumina-mGPT 2.0 (от Alpha-VLLM): семейство мультимодальных авторегрессионных моделей, разработанных для визуальных и текстовых задач.
Это передовая модель для генерации изображений, построенная по принципу авторегрессионных моделей только с декодером (decoder-only), архитектурно схожая с тем, как работают большие языковые модели вроде GPT (и конкретно сравниваемая с подходом к изображениям в GPT-4o).
Это означает, что она генерирует изображение последовательно (как текст), потенциально используя мощные возможности представления и понимания мира, присущие современным LLM.
Функции: -Text-to-Image (t2i): Генерация изображений по текстовому описанию.
- Редактирование изображений: Модификация существующих изображений на основе инструкций.
- Контролируемая генерация: Управление генерацией с помощью дополнительных входных данных (аналогично ControlNet).
Разработчики заявляют, что модель включает все функции ControlNet. своей архитектуре.
Модель спроектирована как самостоятельное решение, а не как дополнение к другим системам и по сути это альтернатива доминирующим диффузионным моделям.
Авторегрессионные модели хороши в сохранении контекста и последовательности. Это может (теоретически) лучше подходить для генерации изображений, требующих сложной внутренней логики или повествования.
Этот список для технической аудитории. Очень сложно выбрать всего 15 каналов, ведь есть множество других, создающих отличный контент.
Если знаете ещё каналы, дайте пишите в комментариях!
@vistehno
04.04.202516:20
🧠 В исследовании, опубликованном в журнале Science, нейробиологи впервые наблюдали, как глубокие структуры мозга, в частности таламус, активируются при осознании человеком своих мыслей, что известно как сознательное восприятие.
Ключевые аспекты исследования:
Роль таламуса в сознательном восприятии: Таламус, расположенный в центре мозга, участвует в обработке сенсорной информации и рабочей памяти. Ранее его роль в сознательном восприятии была предположительной; данное исследование предоставляет прямые доказательства его участия.
Методология: Участники, проходившие лечение от хронических головных болей с использованием глубоко имплантированных электродов, выполняли задания, требующие фиксации взгляда в зависимости от того, замечали ли они появление определенного значка на экране.
Это позволило исследователям записывать нейронную активность в таламусе и коре головного мозга во время осознания или неосознания стимула.
Участникам показывали иконку на экране таким образом, что они замечали (осознавали) ее появление только примерно в половине случаев. В это время исследователи одновременно записывали активность как из глубоких структур (таламуса), так и из коры головного мозга.
Выводы: Результаты показали, что активность в высокоуровневых ядрах таламуса тесно связана с состояниями сознания, подтверждая его роль в фильтрации и передаче информации, которая становится осознанной.
Это исследование расширяет понимание нейронных механизмов сознания, подчеркивая важность глубоких структур мозга, таких как таламус, в процессах осознания.
Работа позволяет изучить временные взаимосвязи (тайминг) активации между таламусом и корой, что критически важно для понимания того, как эти области взаимодействуют для порождения сознательного опыта. Это помогает строить более полные теории сознания, выходящие за рамки одной лишь коры.
Технологии меняют нашу реальность, но за их развитием стоят люди, которые умеют находить нестандартные решения. И именно в Школе анализа данных Яндекса готовят таких специалистов! Здесь амбициозные и увлечённые студенты:
- погружаются в машинное обучение, Data Science и искусственный интеллект; - перенимают опыт экспертов из индустрии; - учатся решать задачи, стоящие перед ведущими IT-компаниями и исследовательскими центрами.
Учёба в ШАДе — это серьёзный вызов даже для тех, кто уже знаком с анализом данных. Поступить непросто, но если вы готовы к интенсивной нагрузке, нестандартным кейсам и полной пересборке своего мышления — это место для вас! За 2 года обучения вы получите инструменты и навыки, которые позволят работать над сложнейшими задачами индустрии, запускать собственные проекты и двигать науку вперёд.
Занятия полностью бесплатны и проходят по вечерам. Если в вашем городе нет филиала, можно учиться онлайн. Готовы бросить вызов данности? Тогда подавайте заявку до 4 мая!
+1
04.04.202512:45
✔️ Google DeepMind разработала систему оценки рисков, связанных с использованием ИИ в кибератаках.
Методология анализирует все этапы атаки: от разведки до эксплуатации уязвимостей — и показывает, как ИИ может помочь хакерам, автоматизируя процессы взлома. В основе исследования — данные о 12 тыс. реальных случаев применения ИИ в атаках из 20 стран, из которых было выделено 7 ключевых категорий угроз.
Специалисты создали бенчмарк из 50 задач - от разработки вредоносного кода и поиска уязвимостей до выполнения взлома. Он поможет безопасникам тестировать защиту и готовиться к сценариям, где ИИ ускоряет атаки. Пока современные модели не дают злоумышленникам решающего преимущества, но с развитием риски вырастут.
Особое внимание в исследовании уделено этапам, которые часто упускают: маскировка атак и долгосрочный доступ к системам.