Мир сегодня с "Юрий Подоляка"
Мир сегодня с "Юрий Подоляка"
Труха⚡️Україна
Труха⚡️Україна
Николаевский Ванёк
Николаевский Ванёк
Мир сегодня с "Юрий Подоляка"
Мир сегодня с "Юрий Подоляка"
Труха⚡️Україна
Труха⚡️Україна
Николаевский Ванёк
Николаевский Ванёк
Искусственный интеллект. Высокие технологии avatar
Искусственный интеллект. Высокие технологии
Искусственный интеллект. Высокие технологии avatar
Искусственный интеллект. Высокие технологии
07.05.202515:09
🚀 ✔️ LTX Studio выпустила открытую видео-модель с рекордной скоростью и качеством.

LTX Studio представила новую модель для генерации видео, которая сочетает скорость, детализацию и контроль. Свыше 13 млрд. параметров и технология multiscale rendering позволяют добиться плавного движения, четкой картинки и минимума артефактов даже в динамичных сценах.

Суть multiscale rendering — анализ сцены на разных уровнях детализации, который сохраняет крупные объекты стабильными, не теряя мелких элементов. Результат: реалистичная анимация и согласованность между кадрами.

Модель работает до 30 раз быстрее аналогов при том же качестве и позволяет управлять ключевыми кадрами и камерой — можно буквально «режиссировать» каждый момент. Она доступна бесплатно на платформе LTX Studio или для локального инференса, веса опубликованы на HuggingFace.
LTX в сети Х (ex-Twitter)

▪Попробовать можно тутhttps://app.ltx.studio/ltx-video
Codehttps://github.com/Lightricks/LTX-Video
Weightshttps://huggingface.co/Lightricks/LTX-Video
06.05.202508:03
🔥 Калифорнийский стартап объявляет о прорыве в области робототехники для повседневных задач с помощью ИИ π0.5 — модели «зрение-язык-действие».

Все, что видит робот, он видит впервые.

🧪 В экспериментах Робот успешно справился с уборкой посуды, застиланием постели и мытьем пола в незнакомых домах, демонстрируя полное понимание задачи, её разбиение на шаги и адаптацию к новым условиям.

➡️ Робот воспринимает команды от абстрактных ("убери посуду") до пошаговых ("подними кружку", "поставь в раковину"), демонстрируя потенциал обобщения для сложных роботизированных навыков.

Модель анализирует семантику задачи, разбивает её на шаги и генерирует команды для моторных систем. π0.5 умеет реагировать и на голосовые команды разной детализации — от «убери посуду» до точечных указаний

✔️ Подробнее про π0.5
🧠 OpenAI: новые модели o3 и o4-mini — успехи и вызовы с галлюцинациями

16 апреля 2025 года OpenAI выпустила новый System Card, посвящённый возможностям и безопасности моделей o3 и o4-mini.

Особое внимание уделено анализу галлюцинаций — случаев, когда модели генерируют неправильную или вымышленную информацию. Для оценки использовался тест PersonQA Benchmark.

▪ 🔍 Что такое PersonQA Benchmark?

PersonQA — набор вопросов с фактами из открытых источников, проверяющий две метрики:

- Accuracy — доля правильно отвеченных вопросов (чем выше, тем лучше)
- Hallucination Rate — частота появления неточной информации (чем ниже, тем лучше)

▪ 📊 Результаты тестов

▪ o4-mini: ожидаемые компромиссы ради компактности

- Accuracy: 0.36
- Hallucination Rate: 0.48

o4-mini показала более низкую точность и более высокую склонность к галлюцинациям по сравнению с o1 и o3.
Это ожидаемо для моделей меньшего размера — у них меньше встроенных знаний о мире.

▪ o3: выше точность, но и выше риск ошибок

- Accuracy: 0.59
- Hallucination Rate: 0.33

Модель o3 превзошла o1 по количеству правильных ответов, но также чаще совершала ошибки.
Причина: o3 делает больше утверждений в ответах, что увеличивает как количество верных фактов, так и количество неточностей.

> *"Больше утверждений — больше правильных фактов и одновременно больше ошибок."*

OpenAI подчёркивает, что требуется дополнительное исследование этого явления.

▪ 🧩 Что это значит?

По словам представителя OpenAI Нико Феликса:

> *"Борьба с галлюцинациями остаётся для нас одним из важнейших направлений исследований."*

Модели o3 и o4-mini подтверждают сложную дилемму современного ИИ:
Как повысить знания и возможности без увеличения числа ошибок?

▪ 📚 Подробнее

@vistehno
08.04.202519:29
В CapCut появилась фича: оживление фото — изображения теперь шевелят губами и показывают эмоции 😱

Тест бесплатный. Работает через IP США.

#CapCut #photoanimation #AI

📌 Попробовать

@vistehno
⚡️ Я рекомендую вам не ронять ничего перед этим зарядным устройством.

@vistehno
✔️ VideoScene (CVPR'25) — это проект, представляющий собой значительное усовершенствование предыдущей разработки под названием ReconX.

Это модель диффузии видео, которая работает в один шаг и позволяет преобразовывать видео в 3D.

Основное преимущество VideoScene заключается в том, что она превосходит по скорости традиционные многоэтапные процессы, делая переход от видео к трехмерным моделям более эффективным.

▪️Paper: https://arxiv.org/abs/2504.01956
▪️Project Page: https://hanyang-21.github.io/VideoScene
▪️Code: https://github.com/hanyang-21/VideoScene

@vistehno
Киберпанк стал реальностью: в Японии вырастили мозг, управляющий роботом

Учёные создали цереброид — миниатюрный мозг, выращенный из стволовых клеток. Его подключили к специальному чипу, превратив в настоящего киборга.

Этот мозг уже учится, выполняет команды и управляет роботом — словно кадр из научной фантастики.

Он функционирует почти как настоящий, хотя пока и обладает ограниченными возможностями.
🚀 ChatGPT всё ещё лидирует в AI-гонке, но Google Gemini стремительно набирает обороты!

Недавний опрос CivicScience показал, что 40% американских потребителей в прошлом месяце использовали генеративные AI-инструменты:

🤖 ChatGPT – 46%

🌟 Google Gemini – 37%

💼 Microsoft Copilot – 25%

🔍 При этом 52% пользователей ChatGPT и 40% пользователей Gemini предпочитают работать исключительно на своей платформе – показатель высокой лояльности и доверия.

Что это значит?

ChatGPT продолжает задавать тон благодаря широкой базе фанатов и зрелой экосистеме.

Google Gemini быстро сокращает отрыв, привлекая новых пользователей свежими возможностями и интеграциями.

Конкуренция стимулирует развитие: нам стоит ждать ещё более интересных функций и улучшений!

А вы какую платформу используете чаще всего? Поделитесь в комментариях!

#AI #ChatGPT #GoogleGemini #GenerativeAI #TechTrends #Innovation
@vistehno
08.04.202507:23
🎥 Минутное видео по тексту? Новый подход к генерации от исследователей!

Генерация длинных видео — всё ещё вызов для ИИ. Self-attention не тянет по скорости, Mamba — по сложности сюжета. Но тут на сцену выходят TTT-слои (Test-Time Training) — и делают шаг вперёд.

🧠 В чём суть: — TTT-слои умеют использовать выразительные скрытые состояния, которые сами являются нейросетями.
— Их добавляют в уже обученный трансформер — и он начинает генерировать минутные видео по текстовому сценарию с плавным движением и логичной историей.
— Проверяли на мультстиле Tom & Jerry — и получили +34 Elo-балла в человеческой оценке по сравнению с Mamba 2 и другими сильными базовыми методами.

ИИ уже близок к тому, чтобы полностью воспроизводить стили старых мультфильмов или аниме. Это может кардинально изменить производство анимации — вместо создания вручную, студии смогут "дообучать" модель и просто писать сценарии.

Прикрепленное минутное видео, было создано с помощью промпта и обучено на сотнях часов Тома и Джерри.

Вот его полный промпт.

⚠️ Да, пока есть артефакты и ограничения — модель на 5B параметров и только минутные ролики. Но подход уже выглядит перспективным.

Следим за развитием.

📌Demos: http://test-time-training.github.io/video-dit/
📌Paper: http://test-time-training.github.io/video-dit/assets/ttt_cvpr_2025.pdf
📌Github: https://github.com/test-time-training/ttt-video-dit

@data_analysis_ml
06.04.202509:16
🎮 Microsoft представила нейро-версию Quake II на базе Muse и WHAMM.

Microsoft Research представила WHAMM — новую систему или технологию, предназначенную для моделирования окружающего мира в реальном времени, с особым акцентом на интерактивные среды.

Это означает, что WHAMM способна быстро создавать и постоянно обновлять цифровую 3D-модель физического пространства, учитывая изменения, которые происходят в нем, в том числе в результате взаимодействия пользователя или других динамических событий.

▪ ИИ генерирует кадры в реальном времени, анализируя действия игрока.

▪Старая WHAMM — 1 fps, новая — 10 fps при 640×360, почти играбельно.

Модель помнит последние 0,9 секунды, что добавляет случайности.

Ключевая особенность — система работает достаточно быстро, чтобы обновлять модель мира практически мгновенно по мере поступления новых данных от сенсоров (вероятно, камер, датчиков глубины и т.д.). Это критически важно для плавного взаимодействия.

🔗 Играть в ИИ-версию Quake II можно здесь.

@vistehno

#microsoft #ai #quake #muse
转发自:
Machinelearning avatar
Machinelearning
✔️ Google обновляет ряды руководителей ИИ-проектов.

Google объявила о смене руководства в подразделении потребительских приложений искусственного интеллекта: Josh Woodward сменил Sissie Hsiao на посту главы этого подразделения.

Hsiao, который возглавлял потребительские приложения ИИ, в том числе проект Gemini, покидает свой пост с сегодняшнего дня. Согласно инсайду, Sissie возьмет небольшой перерыв, после чего перейдет на новую должность в компании. Woodward, который ранее возглавлял Google Labs и контролировал запуск NotebookLM, продолжит проекты в Google Labs, одновременно взяв на себя новые обязанности. Это изменение происходит по мере того, как в гонке ИИ основное внимание уделяется не базовым моделям, а продуктам, созданным на их основе.
semafor.com

✔️ Nomic выпустила мультимодальные эмбединги для визуального поиска.

Nomic представила Nomic Embed Multimodal — набор опенсорсных эмбединг-моделей для создания векторных представлений текста, изображений, PDF и графиков. Флагманская модель ColNomic Embed Multimodal 7B показала 62.7 NDCG@5 на бенчмарке Vidore-v2, опережая предыдущие решения на 2.8 пункта.

Модели Nomic обрабатывают текст и изображения совместно, избегая сложных пайплайнов с OCR. Это особенно полезно для научных статей, технической документации или мультиязычных документов, где важен контекст.

Модели доступны в двух вариантах: ColNomic (многокомпонентные векторы) для максимальной точности и Nomic (одновекторные) для экономии ресурсов. Модели доступны на Hugging Face, а разобраться помогут гайды и ноутбуки Google Colab.
nomic.ai

✔️ Китайские ИТ-гиганты заказали чипов Nvidia на 16 млрд. долларов в первом квартале 2025 года.

ByteDance, Alibaba Group и Tencent Holdings разместили заказы на общую сумму более 16 миллиардов долларов на серверные чипы H20 AI от Nvidia в первом квартале 2025 года. Такой резкий рост спроса происходит на фоне опасений, что администрация США может наложить запрет на продажу этих чипов в Китай, ссылаясь на вопросы национальной безопасности.

H20 - самый доступный чип Nvidia для продажи в рамках действующих экспортных ограничений, которые запрещают передачу более мощных моделей китайским компаниям. Значительные заказы из Китая ставят Nvidia в сложное положение, поскольку она лавирует между возможностями для бизнеса и потенциальными геополитическими рисками.
theinformation.com

✔️ Google DeepMind опубликовали 145-страничный документ об ответственном развитии ИИ.

Google DeepMind выпустила подробный документ "Ответственный путь к AGI", в котором излагается технический план безопасного развития искусственного интеллекта общего назначения.

В документе подчеркивается важность устранения потенциальных рисков неправильного использования и несоответствия, связанных с технологией AGI. Несмотря на детальный подход, некоторые аналитики полагают, что документ может не полностью убедить скептиков в надежности и безопасности разработки AGI.
deepmind.google

✔️ Epic Games купит стартап Loci чтобы автоматизировать разметку 3D-контента.

Epic Games объявила о приобретении стартапа Loci, чья ИИ-платформа упрощает работу с 3D-ассетами. Технология автоматически генерирует теги для моделей, экономя время создателей на ручную разметку. Это особенно актуально для проектов с тысячами объектов — например, в Fortnite, где игроки добавляют элементы из популярных франшиз, провоцируя споры об авторских правах.

ИИ Loci не только ускоряет поиск и организацию контента, но и помогает выявлять нарушения интеллектуальной собственности. Loci будет интегрирован в экосистему Epic, в том числе в Unreal Editor для Fortnite и маркетплейс Fab, где продаются цифровые активы. Таким образом, разработчики получат инструменты для предотвращения юридических конфликтов и упрощения рабочих процессов.
epicgames.com

@ai_machinelearning_big_data

#news #ai #ml
06.05.202513:00
🤖 История нейросетей: от мечты до революции

Когда-то идея создать «машину, похожую на мозг», звучала как фантастика. Сегодня нейросети распознают лица, переводят тексты, управляют роботами и пишут код. Как мы дошли до этого?

1) 🧠 Все началось… с нейрона на бумаге

1943 год.
Два учёных — Уоррен МакКаллок и Уолтер Питтс — публикуют статью, где описывают математическую модель нейрона. Они показали: нейроны можно представить как простые логические элементы, способные передавать сигналы.
Это была первая попытка описать работу мозга через математику.

👉 Но… компьютеры тогда только зарождались, а про обучение моделей никто не думал.

2) 🔍 Появляется перцептрон — первая нейросеть

1958 год.
Американский психолог Фрэнк Розенблатт создаёт перцептрон — устройство, которое могло «учиться» распознавать простые образы (например, различать круг и квадрат).

📝 Перцептрон обучали на карточках с рисунками: показывали примеры, корректировали ошибки. Машина сама подбирала веса связей между нейронами, чтобы давать правильный ответ.

Это был первый шаг к обучаемым моделям, но… были ограничения.

3) 💤 Застой: «нейросети не могут»

1969 год.
Книга Марвина Мински и Сеймура Паперта «Перцептроны» разбила мечты: учёные доказали, что односвязный перцептрон не способен решать задачи, требующие нелинейных разделителей (например, XOR).

👉 Многие поверили, что нейросети — тупиковая ветвь.
Финансирование упало. Интерес угас.

4) 🚀 Второе дыхание: обратное распространение ошибки

1986 год.
Джеффри Хинтон, Дэвид Румельхарт и Рональд Уильямс открывают метод backpropagation (обратного распространения ошибки).

Теперь нейросеть могла автоматически корректировать все свои слои, а не только первый. Это позволило строить глубокие нейросети и обучать их на сложных задачах.

💥 Революция? Почти. Компьютеров всё ещё не хватало, чтобы обучать большие сети.

5) 📷 Практическое применение: сверточные сети

1990-е.
Янн Лекун создаёт LeNet — сверточную нейросеть (CNN), которая распознавала рукописные цифры на чеках. Это была первая успешная коммерческая нейросеть.

👉 LeNet работала медленно, но точнее, чем любые предыдущие методы.

6) 💥 Большой взрыв: глубокое обучение

2012 год.
На конкурсе ImageNet сеть AlexNet (созданная студентами Хинтона — Крижевским и Суцкевером**) разгромила соперников, улучшив точность классификации изображений на **10% сразу.

Почему получилось?
• Были большие данные (ImageNet — 1,2 млн изображений)
• Были мощные GPU
• Были методы dropout, ReLU и хорошее понимание backpropagation

С этого момента deep learning стал мейнстримом.
Компании вроде Google, Facebook, Microsoft начали инвестировать миллиарды.

7) 🤯 Нейросети сегодня: GPT, Stable Diffusion, AlphaFold

Сейчас нейросети умеют:

• писать тексты (GPT)
• рисовать картины (Stable Diffusion, Midjourney)
• предсказывать белковые структуры (AlphaFold)
• водить машины (Tesla Autopilot)

Размер моделей растёт: от 10 нейронов в перцептроне — до 500 миллиардов параметров в GPT-4.

8) 🏁 Что дальше?

Мы прошли путь от искусственного нейрона — до машин, которые иногда ведут себя пугающе «человечно».
И это — только начало.

Кто знает, где мы окажемся через 10 лет?

👉 А нейросети продолжают учиться.
И, возможно, скоро они напишут продолжение этой истории сами.

🎉 Если понравился рассказ — поделись с друзьями, чтобы они тоже узнали, как всё начиналось!
🔍 Хочешь отдельную статью про GPT, CNN или AlphaFold? Пиши!
🖥 Prompt Library здесь собраны лучшие промты на все случаи жизни

Всего более 500 промтов на все случаи жизни в одном месте.

Разделены на 9 категорий — бизнес, карьера (идеально для составления резюме), креатив, образование, здоровье, маркетинг, технологии, личный помощник и общее.

Сохраняем и бустим производительность тут.
ChatGPT насчитывает 600–800 млн активных пользователей в месяц, тогда как у Google Gemini — около 350 млн. Но за цифрами стоит больше, чем кажется:

Реальный охват ChatGPT может быть выше. В TED Talk Сэм Альтман невольно упомянул, что «официальные» 600 млн — это консервативная оценка.

Встроенное преимущество Gemini. Модель предустановлена на большинстве Android-устройств и по соглашению является «родным» AI-ассистентом в смартфонах Samsung. Такой «фаворитизм» даёт Google огромное преимущество в распространении.

Безусловно, прямое сравнение в таких условиях не совсем справедливо. Но главное — цифры свидетельствуют: AI-ассистенты уже прочно вошли в повседневную жизнь сотен миллионов пользователей по всему миру. Независимо от того, запускаете ли вы GPT для генерации идей или просите Gemini перевести фразу, ясно одно: искусственный интеллект стал массовым продуктом.

@vistehno
转发自:
Machinelearning avatar
Machinelearning
🔥 Microsoft запускает бесплатные курсы по ИИ для всех.

Microsoft представила масштабную образовательную инициативу — AI Skills Fest, где каждый может бесплатно освоить навыки работы с ИИ. Программа подходит как новичкам, так и опытным специалистам — от основ ML до работы с Azure и Copilot.

Обучение доступно на 40+ языках, включая русский, а материалы разбиты на модули: введение в ИИ, CV, NLP и создание приложений. Участники, прошедшие курс, получат бейдж для LinkedIn и шанс выиграть один из 50 тысяч сертификационных ваучеров. GitHub также предлагает скидку 50% на экзамен по Copilot для тех, кто завершит их модуль.

Чтобы присоединиться, достаточно зарегистрироваться на сайте Microsoft и выбрать подходящий уровень сложности. Помимо основного блока, доступны хакатоны, форумы и самообучение в удобном темпе.

🟡 microsoft.com

@ai_machinelearning_big_data

#course #ai #ml #freeeducation
🤖 Новое видео NEO от 1X: полностью автономный робот.

ИИ выполняет различные задачи, а также координирует движения всего тела.

Вместо того чтобы решать одну задачу за раз, 1X тренируется для общей автономности в различных неструктурированных домашних бытовых задачах.
转发自:
Machinelearning avatar
Machinelearning
✔️ DeepSite на базе DeepSeek-V3-0324, позволяет генерировать, код, приложения или игры прямо в браузере и хостить их.

Сгенерировал парочку простеньких HTML-игр с интерфейсом, работает годно.

😶 По сути это Сursor в браузере.

🟡Попробовать: https://huggingface.co/spaces/enzostvs/deepsite

@ai_machinelearning_big_data


#deepseek #vibecoding #app
Хотите оказаться там, где бизнес и технологии пересекаются не на слайдах, а в реальности?

Конференция Data&ML2Business — это не просто витрина фич, а внутренняя кухня внедрения реальных технологий. 28 мая в Москве или онлайн расскажем, как компании реально применяют ML, BI и аналитические платформы.

В программе:

– выступления CTO и архитекторов Яндекса
– кейсы по генеративным моделям, речевой аналитике и аналитике видео
– гибридные data-решения в фарме и индустриальных компаниях
– что происходит с ML-процессами, когда они выходят за пределы одной команды

Событие подходит тем, кто строит системные решения и работает на стыке бизнеса и технологий.

Присоединяйтесь офлайн в Москве или онлайн — будет полезно.
МТС True Tech Day: ИТ-событие, которое нельзя пропустить. Участие бесплатное

6 июня разработчики из российских бигтехов на практических примерах покажут, как ИИ перестал быть экспериментом и стал частью разработки.

В программе:
— Больше 40 докладов от известных ученых и ИТ-компаний.
— Выступления зарубежных спикеров с индексом Хирша более 50.
— Концентрация практических кейсов: как создаются большие проекты с применением AI.
— Доклады по архитектуре, бэкенд-разработке и построению ИТ-платформ.
— AI-интерактивы и технологические квесты.
— Пространство для нетворкинга,
…а еще after-party со звездным лайн-апом.

Когда: 6 июня
Где: Москва, МТС Live Холл и онлайн
Регистрация по ссылке
🔁 дублируем видосы бесплатно на любой язык — вышла новая нейронка Vozo и это просто подарок.

Это целый мультитул: перевод видео с сохранением голоса, можно сделать липсинк и субтитры. Из интересных фишек: поддерживает перевод сразу нескольких спикеров!

Внутри 39+ языков, среди которых и русский — делает как перевод с великого и могучего, так и на него. После регистрации отсыпают 30 кредитов, это где-то 3 минуты дублированного видео, что очень много.

Попробовать — здесь.
😖 Новость дня: учёные из стартапа Colossal воскресили лютоволков из «Игры престолов», живших 12'000 лет назад.

Они собрали ДНК из зуба (13 000 лет) и черепа (72 000 лет), отредактировали 14 генов серого волка и имплантировали эмбрионы суррогатным матерям. Через 65 дней родились три щенка — Ромул, Рем и Дейенерис, которые на 25% крупнее обычных волчат.

В планах Colossal также воскрешение мамонтов, додо, саблезубых тигров и гигантских ленивцев.

#science #cloning #клонирование
🖥 ​OpenAI меняют планы выпуска моделей: o3 и o4-mini выйдут раньше GPT-5​

Компания планирует выпустить o3 и o4-mini в ближайшие недели, а релиз GPT-5 ожидается через несколько месяцев. ​

По словам Альтмана, это решение обусловлено несколькими факторами:​

- Дополнительное время позволит значительно повысить качество и возможности модели GPT-5. ​

- Компания столкнулась с трудностями при попытке плавно интегрировать различные компоненты, что потребовало пересмотра первоначальных планов. ​

OpenAI пытаются подготовить достаточные мощности для поддержки предполагаемого беспрецедентного спроса на новые модели.

@vistehno
转发自:
Machinelearning avatar
Machinelearning
✔️ Ant Group использует китайские чипы для снижения стоимости обучения моделей на 20%

Ant Group успешно использовала хардверные решения от Alibaba и Huawei для обучения своих моделей, что позволило сократить затраты примерно на 20%. Результаты тестов показали, что китайские чипы сопоставимы по производительности с Nvidia H800. Хотя Ant Group пока полностью не отказывается от Nvidia для разработки ИИ, ее последние разработки в основном полагаются на альтернативные решения - AMD и чипы китайского производства.

Это свидетельствует о том, что китайские компании ускоряют локализацию технологий искусственного интеллекта, чтобы сократить затраты и уменьшить зависимость от американских чипов.
bloomberg.com

✔️ В Италии запущена первая в мире газета, созданная ChatGPT.

Итальянская газета Il Foglio начала месячный эксперимент, опубликовав первый в мире газетный выпуск, сгенерированный искусственным интеллектом. Цель эксперимента - изучить влияние ИИ на журналистику, используя ChatGPT для создания контента.

Редактор газеты Клаудио Сераса заявил, что ИИ использовался на всех этапах создания - от написания текстов и заголовков до цитат и резюме, при этом журналисты редакции участвуют в создании промптов для ИИ и проверке сгенерированных текстов.
asianfin.com

✔️ ARC Prize запускает бенчмарк ARC-AGI-2 с призовым фондом в 1 миллион долларов.

Команда ARC Prize запустила 2 этап бенчмарка ARC-AGI-2 для оценки «гибкости мышления» ИИ через задачи, которые человек решает за секунды, а алгоритмы — с трудом. Как и в прошлой версии, система проверяет способность к обобщению знаний, но теперь барьер выше: на нем базовые LLM набирают 0%, а продвинутые — меньше 4%. Призовой фонд бенчмарка -1 млн. долларов, главный приз получит разработка, которая сможет превысить 85% выполнения бенчмарка.

Решение задач ARC-AGI-2 требует интуиции и адаптивности — того, что в людях заложено природой. «Это не тест на эрудицию, а проверка умения мыслить вне данных», — поясняют разработчики.
arcprize.org

✔️ Поисковая система Atlantic позволит проверить, использовалась ли ваша работа для обучения моделей.

Компания The Atlantic разработала поисковый инструмент, позволяющий пользователям проверить, не фигурирует ли их работа в LibGen - архиве книг, научных работ и статей, который, как сообщается, использовался для обучения популярных языковых моделей.

Согласно судебным документам, набор данных LibGen использовался для обучения моделей Llama. OpenAI уже публично сообщила, что контент LibGen не включен в текущие версии ChatGPT или в API OpenAI. Другие компании, занимающиеся разработкой ИИ, пока не комментировали, использование LibGen в своем обучении.
theatlantic.com

✔️ OceanDS: 1,8 млрд. данных об океане стали основой первой океанографической LLM.

Китайская модель OceanDS, созданная для морских исследований, опирается на уникальную базу из 1,8 млрд токенов данных. В неё вошли оцифрованные научные работы, книги и отчёты — всё, что касается океана.

По тестам OceanDS обходит топовые LLM в точности ответов на профильные запросы — разрыв достигает 25%. Это первый в мире ИИ, заточенный под океанографию. Уже сейчас его тестируют в управлении природными ресурсами Китая, а в будущем — внедрят в другие отрасли.
news.cgtn.com

@ai_machinelearning_big_data

#AI #ML #Research #NLP
显示 1 - 24 49
登录以解锁更多功能。