
Україна Online: Новини | Політика

Телеграмна служба новин - Україна

Резидент

Мир сегодня с "Юрий Подоляка"

Труха⚡️Україна

Николаевский Ванёк

Лачен пише

Реальний Київ | Украина

Реальна Війна

Україна Online: Новини | Політика

Телеграмна служба новин - Україна

Резидент

Мир сегодня с "Юрий Подоляка"

Труха⚡️Україна

Николаевский Ванёк

Лачен пише

Реальний Київ | Украина

Реальна Війна

Україна Online: Новини | Політика

Телеграмна служба новин - Україна

Резидент

Искусственный интеллект. Высокие технологии
Наука, технологии, изобретения и урбанистика — прямо сейчас говорим о том, что уже скоро повлияет на каждого.
админ - @haarrp
@itchannels_telegram -🔥best channels
РКН: clck.ru/3FmsmC
админ - @haarrp
@itchannels_telegram -🔥best channels
РКН: clck.ru/3FmsmC
关联群组
ИИ
Искусственный интеллект
31
记录
08.02.202501:47
47.4K订阅者11.03.202523:59
200引用指数07.04.202523:59
5.4K每帖平均覆盖率07.04.202509:38
5.4K广告帖子的平均覆盖率28.02.202518:57
5.86%ER07.04.202516:41
11.39%ERR

07.04.202519:40
😖 Новость дня: учёные из стартапа Colossal воскресили лютоволков из «Игры престолов», живших 12'000 лет назад.
Они собрали ДНК из зуба (13 000 лет) и черепа (72 000 лет), отредактировали 14 генов серого волка и имплантировали эмбрионы суррогатным матерям. Через 65 дней родились три щенка — Ромул, Рем и Дейенерис, которые на 25% крупнее обычных волчат.
В планах Colossal также воскрешение мамонтов, додо, саблезубых тигров и гигантских ленивцев.
#science #cloning #клонирование
Они собрали ДНК из зуба (13 000 лет) и черепа (72 000 лет), отредактировали 14 генов серого волка и имплантировали эмбрионы суррогатным матерям. Через 65 дней родились три щенка — Ромул, Рем и Дейенерис, которые на 25% крупнее обычных волчат.
В планах Colossal также воскрешение мамонтов, додо, саблезубых тигров и гигантских ленивцев.
#science #cloning #клонирование
转发自:
Machinelearning



08.04.202506:17
🔥 Microsoft запускает бесплатные курсы по ИИ для всех.
Microsoft представила масштабную образовательную инициативу — AI Skills Fest, где каждый может бесплатно освоить навыки работы с ИИ. Программа подходит как новичкам, так и опытным специалистам — от основ ML до работы с Azure и Copilot.
Обучение доступно на 40+ языках, включая русский, а материалы разбиты на модули: введение в ИИ, CV, NLP и создание приложений. Участники, прошедшие курс, получат бейдж для LinkedIn и шанс выиграть один из 50 тысяч сертификационных ваучеров. GitHub также предлагает скидку 50% на экзамен по Copilot для тех, кто завершит их модуль.
Чтобы присоединиться, достаточно зарегистрироваться на сайте Microsoft и выбрать подходящий уровень сложности. Помимо основного блока, доступны хакатоны, форумы и самообучение в удобном темпе.
🟡 microsoft.com
@ai_machinelearning_big_data
#course #ai #ml #freeeducation
Microsoft представила масштабную образовательную инициативу — AI Skills Fest, где каждый может бесплатно освоить навыки работы с ИИ. Программа подходит как новичкам, так и опытным специалистам — от основ ML до работы с Azure и Copilot.
Обучение доступно на 40+ языках, включая русский, а материалы разбиты на модули: введение в ИИ, CV, NLP и создание приложений. Участники, прошедшие курс, получат бейдж для LinkedIn и шанс выиграть один из 50 тысяч сертификационных ваучеров. GitHub также предлагает скидку 50% на экзамен по Copilot для тех, кто завершит их модуль.
Чтобы присоединиться, достаточно зарегистрироваться на сайте Microsoft и выбрать подходящий уровень сложности. Помимо основного блока, доступны хакатоны, форумы и самообучение в удобном темпе.
🟡 microsoft.com
@ai_machinelearning_big_data
#course #ai #ml #freeeducation
转发自:
Machinelearning



28.03.202519:10
✔️ DeepSite на базе DeepSeek-V3-0324, позволяет генерировать, код, приложения или игры прямо в браузере и хостить их.
Сгенерировал парочку простеньких HTML-игр с интерфейсом, работает годно.
😶 По сути это Сursor в браузере.
🟡Попробовать: https://huggingface.co/spaces/enzostvs/deepsite
@ai_machinelearning_big_data
#deepseek #vibecoding #app
Сгенерировал парочку простеньких HTML-игр с интерфейсом, работает годно.
😶 По сути это Сursor в браузере.
🟡Попробовать: https://huggingface.co/spaces/enzostvs/deepsite
@ai_machinelearning_big_data
#deepseek #vibecoding #app
08.04.202519:29
В CapCut появилась фича: оживление фото — изображения теперь шевелят губами и показывают эмоции 😱
Тест бесплатный. Работает через IP США.
#CapCut #photoanimation #AI
📌 Попробовать
@vistehno
Тест бесплатный. Работает через IP США.
#CapCut #photoanimation #AI
📌 Попробовать
@vistehno


07.04.202511:10
⚡️ Я рекомендую вам не ронять ничего перед этим зарядным устройством.
@vistehno
@vistehno


05.04.202510:23
🤖 Новое видео NEO от 1X: полностью автономный робот.
ИИ выполняет различные задачи, а также координирует движения всего тела.
Вместо того чтобы решать одну задачу за раз, 1X тренируется для общей автономности в различных неструктурированных домашних бытовых задачах.
ИИ выполняет различные задачи, а также координирует движения всего тела.
Вместо того чтобы решать одну задачу за раз, 1X тренируется для общей автономности в различных неструктурированных домашних бытовых задачах.
转发自:
Machinelearning

22.03.202512:04
📌Ученые обнаружили сходство между мозгом человека и нейросетями в принципах обработки языка.
Совместное исследование Google Research, Принстонского университета, NYU и Еврейского университета в Иерусалиме нашло параллели в обработке естественного языка человеческим мозгом и большими языковыми моделями.
Используя внутричерепные электроды, ученые зафиксировали нейронную активность во время спонтанных диалогов и сравнили ее с внутренними представлениями модели Whisper, разработанной для преобразования речи в текст. Оказалось, что речевые эмбеддинги Whisper коррелируют с активностью в слуховых зонах мозга, а языковые — с областями, ответственными за семантику.
Эксперименты подтвердили догадки: при восприятии речи сначала активируется верхняя височная извилина (STG), обрабатывающая акустические сигналы, а через несколько сотен миллисекунд включается зона Брока (IFG), связанная с декодированием смысла. При воспроизведении речи последовательность обратная: IFG активируется за 500 мс до артикуляции, затем моторная кора планирует движение, а после произнесения слова STG «проверяет» результат. Эти паттерны совпали с динамикой эмбедингов Whisper, хотя модель не обучалась на нейробиологических данных.
Другое интересное совпадение - мозг и LLM используют предсказание следующего слова как ключевую стратегию. Как показали опыты, слушатель бессознательно предугадывает следующие слова, а ошибка предсказания вызывает «нейронное удивление» — механизм, аналогичный обучению с подкреплением в ML. Но архитектурные механизмы у мозга и LLM разные: трансформеры обрабатывают сотни слов параллельно, тогда как мозг анализирует информацию последовательно.
Несмотря на общую «мягкую иерархию» обработки (например, смешение семантических и акустических признаков в IFG и STG), биологические структуры мозга принципиально отличаются от нейронных сетей.
Исследователи подчеркивают: языковые модели (типа ChatGPT) не понимают, как люди общаются в реальной жизни (например, не чувствуют эмоций или культурных особенностей), и не учатся так, как это делает мозг человека с детства. Однако их эмбединги оказались очень полезными для изучения того, как мозг обрабатывает речь.
Ученые надеются, что эти открытия помогут создать нейросети, которые смогут обучаться как люди — медленно, шаг за шагом. А пока Whisper, неожиданно стал «зеркалом» принципов нашего мышления. Кто знает, может, через пару лет ИИ начнёт шутить с нами за чашкой кофе — как друг или коллега по работе.
🟡Статья
🟡Исследование
@ai_machinelearning_big_data
#AI #ML #Research #NLP
Совместное исследование Google Research, Принстонского университета, NYU и Еврейского университета в Иерусалиме нашло параллели в обработке естественного языка человеческим мозгом и большими языковыми моделями.
Используя внутричерепные электроды, ученые зафиксировали нейронную активность во время спонтанных диалогов и сравнили ее с внутренними представлениями модели Whisper, разработанной для преобразования речи в текст. Оказалось, что речевые эмбеддинги Whisper коррелируют с активностью в слуховых зонах мозга, а языковые — с областями, ответственными за семантику.
Эксперименты подтвердили догадки: при восприятии речи сначала активируется верхняя височная извилина (STG), обрабатывающая акустические сигналы, а через несколько сотен миллисекунд включается зона Брока (IFG), связанная с декодированием смысла. При воспроизведении речи последовательность обратная: IFG активируется за 500 мс до артикуляции, затем моторная кора планирует движение, а после произнесения слова STG «проверяет» результат. Эти паттерны совпали с динамикой эмбедингов Whisper, хотя модель не обучалась на нейробиологических данных.
Другое интересное совпадение - мозг и LLM используют предсказание следующего слова как ключевую стратегию. Как показали опыты, слушатель бессознательно предугадывает следующие слова, а ошибка предсказания вызывает «нейронное удивление» — механизм, аналогичный обучению с подкреплением в ML. Но архитектурные механизмы у мозга и LLM разные: трансформеры обрабатывают сотни слов параллельно, тогда как мозг анализирует информацию последовательно.
Несмотря на общую «мягкую иерархию» обработки (например, смешение семантических и акустических признаков в IFG и STG), биологические структуры мозга принципиально отличаются от нейронных сетей.
Исследователи подчеркивают: языковые модели (типа ChatGPT) не понимают, как люди общаются в реальной жизни (например, не чувствуют эмоций или культурных особенностей), и не учатся так, как это делает мозг человека с детства. Однако их эмбединги оказались очень полезными для изучения того, как мозг обрабатывает речь.
Ученые надеются, что эти открытия помогут создать нейросети, которые смогут обучаться как люди — медленно, шаг за шагом. А пока Whisper, неожиданно стал «зеркалом» принципов нашего мышления. Кто знает, может, через пару лет ИИ начнёт шутить с нами за чашкой кофе — как друг или коллега по работе.
🟡Статья
🟡Исследование
@ai_machinelearning_big_data
#AI #ML #Research #NLP
06.04.202509:16
🎮 Microsoft представила нейро-версию Quake II на базе Muse и WHAMM.
Microsoft Research представила WHAMM — новую систему или технологию, предназначенную для моделирования окружающего мира в реальном времени, с особым акцентом на интерактивные среды.
Это означает, что WHAMM способна быстро создавать и постоянно обновлять цифровую 3D-модель физического пространства, учитывая изменения, которые происходят в нем, в том числе в результате взаимодействия пользователя или других динамических событий.
▪ ИИ генерирует кадры в реальном времени, анализируя действия игрока.
▪Старая WHAMM — 1 fps, новая — 10 fps при 640×360, почти играбельно.
Модель помнит последние 0,9 секунды, что добавляет случайности.
Ключевая особенность — система работает достаточно быстро, чтобы обновлять модель мира практически мгновенно по мере поступления новых данных от сенсоров (вероятно, камер, датчиков глубины и т.д.). Это критически важно для плавного взаимодействия.
🔗 Играть в ИИ-версию Quake II можно здесь.
@vistehno
#microsoft #ai #quake #muse
Microsoft Research представила WHAMM — новую систему или технологию, предназначенную для моделирования окружающего мира в реальном времени, с особым акцентом на интерактивные среды.
Это означает, что WHAMM способна быстро создавать и постоянно обновлять цифровую 3D-модель физического пространства, учитывая изменения, которые происходят в нем, в том числе в результате взаимодействия пользователя или других динамических событий.
▪ ИИ генерирует кадры в реальном времени, анализируя действия игрока.
▪Старая WHAMM — 1 fps, новая — 10 fps при 640×360, почти играбельно.
Модель помнит последние 0,9 секунды, что добавляет случайности.
Ключевая особенность — система работает достаточно быстро, чтобы обновлять модель мира практически мгновенно по мере поступления новых данных от сенсоров (вероятно, камер, датчиков глубины и т.д.). Это критически важно для плавного взаимодействия.
🔗 Играть в ИИ-версию Quake II можно здесь.
@vistehno
#microsoft #ai #quake #muse
媒体内容
23.03.202514:05
🌟 Интересная визуализация для быстрого запоминания азбуки Морзе!
@vistehno
@vistehno
08.04.202507:23
🎥 Минутное видео по тексту? Новый подход к генерации от исследователей!
Генерация длинных видео — всё ещё вызов для ИИ. Self-attention не тянет по скорости, Mamba — по сложности сюжета. Но тут на сцену выходят TTT-слои (Test-Time Training) — и делают шаг вперёд.
🧠 В чём суть: — TTT-слои умеют использовать выразительные скрытые состояния, которые сами являются нейросетями.
— Их добавляют в уже обученный трансформер — и он начинает генерировать минутные видео по текстовому сценарию с плавным движением и логичной историей.
— Проверяли на мультстиле Tom & Jerry — и получили +34 Elo-балла в человеческой оценке по сравнению с Mamba 2 и другими сильными базовыми методами.
ИИ уже близок к тому, чтобы полностью воспроизводить стили старых мультфильмов или аниме. Это может кардинально изменить производство анимации — вместо создания вручную, студии смогут "дообучать" модель и просто писать сценарии.
Прикрепленное минутное видео, было создано с помощью промпта и обучено на сотнях часов Тома и Джерри.
Вот его полный промпт.
⚠️ Да, пока есть артефакты и ограничения — модель на 5B параметров и только минутные ролики. Но подход уже выглядит перспективным.
Следим за развитием.
📌Demos: http://test-time-training.github.io/video-dit/
📌Paper: http://test-time-training.github.io/video-dit/assets/ttt_cvpr_2025.pdf
📌Github: https://github.com/test-time-training/ttt-video-dit
@data_analysis_ml
Генерация длинных видео — всё ещё вызов для ИИ. Self-attention не тянет по скорости, Mamba — по сложности сюжета. Но тут на сцену выходят TTT-слои (Test-Time Training) — и делают шаг вперёд.
🧠 В чём суть: — TTT-слои умеют использовать выразительные скрытые состояния, которые сами являются нейросетями.
— Их добавляют в уже обученный трансформер — и он начинает генерировать минутные видео по текстовому сценарию с плавным движением и логичной историей.
— Проверяли на мультстиле Tom & Jerry — и получили +34 Elo-балла в человеческой оценке по сравнению с Mamba 2 и другими сильными базовыми методами.
ИИ уже близок к тому, чтобы полностью воспроизводить стили старых мультфильмов или аниме. Это может кардинально изменить производство анимации — вместо создания вручную, студии смогут "дообучать" модель и просто писать сценарии.
Прикрепленное минутное видео, было создано с помощью промпта и обучено на сотнях часов Тома и Джерри.
Вот его полный промпт.
⚠️ Да, пока есть артефакты и ограничения — модель на 5B параметров и только минутные ролики. Но подход уже выглядит перспективным.
Следим за развитием.
📌Demos: http://test-time-training.github.io/video-dit/
📌Paper: http://test-time-training.github.io/video-dit/assets/ttt_cvpr_2025.pdf
📌Github: https://github.com/test-time-training/ttt-video-dit
@data_analysis_ml


25.03.202508:07
«Ошибка на миллиард» в ИИ
«Ошибка на миллиард долларов» — это популяризованное ученым Чарльзом Э. Хоаром название для null pointer exception. В большинстве классических языков программирования переменная, якобы содержащая объект какого-то класса, на самом деле может ничего не содержать.
В мире генеративных нейросетей «ошибкой на миллиард» можно назвать галлюцинации LLM. «Творческая натура» больших языковых моделей играет со строгими задачами злую шутку: в любой непонятной ситуации модель принимается фантазировать на основе претрейна.
Старший инженер по разработке ПО искусственного интеллекта в YADRO описал метод, который использовал, чтобы значительно снизить галлюцинации в выдаче модели.
Читать статью →
«Ошибка на миллиард долларов» — это популяризованное ученым Чарльзом Э. Хоаром название для null pointer exception. В большинстве классических языков программирования переменная, якобы содержащая объект какого-то класса, на самом деле может ничего не содержать.
В мире генеративных нейросетей «ошибкой на миллиард» можно назвать галлюцинации LLM. «Творческая натура» больших языковых моделей играет со строгими задачами злую шутку: в любой непонятной ситуации модель принимается фантазировать на основе претрейна.
Старший инженер по разработке ПО искусственного интеллекта в YADRO описал метод, который использовал, чтобы значительно снизить галлюцинации в выдаче модели.
Читать статью →
转发自:
Machinelearning



03.04.202506:48
✔️ Google обновляет ряды руководителей ИИ-проектов.
Google объявила о смене руководства в подразделении потребительских приложений искусственного интеллекта: Josh Woodward сменил Sissie Hsiao на посту главы этого подразделения.
Hsiao, который возглавлял потребительские приложения ИИ, в том числе проект Gemini, покидает свой пост с сегодняшнего дня. Согласно инсайду, Sissie возьмет небольшой перерыв, после чего перейдет на новую должность в компании. Woodward, который ранее возглавлял Google Labs и контролировал запуск NotebookLM, продолжит проекты в Google Labs, одновременно взяв на себя новые обязанности. Это изменение происходит по мере того, как в гонке ИИ основное внимание уделяется не базовым моделям, а продуктам, созданным на их основе.
semafor.com
✔️ Nomic выпустила мультимодальные эмбединги для визуального поиска.
Nomic представила Nomic Embed Multimodal — набор опенсорсных эмбединг-моделей для создания векторных представлений текста, изображений, PDF и графиков. Флагманская модель ColNomic Embed Multimodal 7B показала 62.7 NDCG@5 на бенчмарке Vidore-v2, опережая предыдущие решения на 2.8 пункта.
Модели Nomic обрабатывают текст и изображения совместно, избегая сложных пайплайнов с OCR. Это особенно полезно для научных статей, технической документации или мультиязычных документов, где важен контекст.
Модели доступны в двух вариантах: ColNomic (многокомпонентные векторы) для максимальной точности и Nomic (одновекторные) для экономии ресурсов. Модели доступны на Hugging Face, а разобраться помогут гайды и ноутбуки Google Colab.
nomic.ai
✔️ Китайские ИТ-гиганты заказали чипов Nvidia на 16 млрд. долларов в первом квартале 2025 года.
ByteDance, Alibaba Group и Tencent Holdings разместили заказы на общую сумму более 16 миллиардов долларов на серверные чипы H20 AI от Nvidia в первом квартале 2025 года. Такой резкий рост спроса происходит на фоне опасений, что администрация США может наложить запрет на продажу этих чипов в Китай, ссылаясь на вопросы национальной безопасности.
H20 - самый доступный чип Nvidia для продажи в рамках действующих экспортных ограничений, которые запрещают передачу более мощных моделей китайским компаниям. Значительные заказы из Китая ставят Nvidia в сложное положение, поскольку она лавирует между возможностями для бизнеса и потенциальными геополитическими рисками.
theinformation.com
✔️ Google DeepMind опубликовали 145-страничный документ об ответственном развитии ИИ.
Google DeepMind выпустила подробный документ "Ответственный путь к AGI", в котором излагается технический план безопасного развития искусственного интеллекта общего назначения.
В документе подчеркивается важность устранения потенциальных рисков неправильного использования и несоответствия, связанных с технологией AGI. Несмотря на детальный подход, некоторые аналитики полагают, что документ может не полностью убедить скептиков в надежности и безопасности разработки AGI.
deepmind.google
✔️ Epic Games купит стартап Loci чтобы автоматизировать разметку 3D-контента.
Epic Games объявила о приобретении стартапа Loci, чья ИИ-платформа упрощает работу с 3D-ассетами. Технология автоматически генерирует теги для моделей, экономя время создателей на ручную разметку. Это особенно актуально для проектов с тысячами объектов — например, в Fortnite, где игроки добавляют элементы из популярных франшиз, провоцируя споры об авторских правах.
ИИ Loci не только ускоряет поиск и организацию контента, но и помогает выявлять нарушения интеллектуальной собственности. Loci будет интегрирован в экосистему Epic, в том числе в Unreal Editor для Fortnite и маркетплейс Fab, где продаются цифровые активы. Таким образом, разработчики получат инструменты для предотвращения юридических конфликтов и упрощения рабочих процессов.
epicgames.com
@ai_machinelearning_big_data
#news #ai #ml
Google объявила о смене руководства в подразделении потребительских приложений искусственного интеллекта: Josh Woodward сменил Sissie Hsiao на посту главы этого подразделения.
Hsiao, который возглавлял потребительские приложения ИИ, в том числе проект Gemini, покидает свой пост с сегодняшнего дня. Согласно инсайду, Sissie возьмет небольшой перерыв, после чего перейдет на новую должность в компании. Woodward, который ранее возглавлял Google Labs и контролировал запуск NotebookLM, продолжит проекты в Google Labs, одновременно взяв на себя новые обязанности. Это изменение происходит по мере того, как в гонке ИИ основное внимание уделяется не базовым моделям, а продуктам, созданным на их основе.
semafor.com
✔️ Nomic выпустила мультимодальные эмбединги для визуального поиска.
Nomic представила Nomic Embed Multimodal — набор опенсорсных эмбединг-моделей для создания векторных представлений текста, изображений, PDF и графиков. Флагманская модель ColNomic Embed Multimodal 7B показала 62.7 NDCG@5 на бенчмарке Vidore-v2, опережая предыдущие решения на 2.8 пункта.
Модели Nomic обрабатывают текст и изображения совместно, избегая сложных пайплайнов с OCR. Это особенно полезно для научных статей, технической документации или мультиязычных документов, где важен контекст.
Модели доступны в двух вариантах: ColNomic (многокомпонентные векторы) для максимальной точности и Nomic (одновекторные) для экономии ресурсов. Модели доступны на Hugging Face, а разобраться помогут гайды и ноутбуки Google Colab.
nomic.ai
✔️ Китайские ИТ-гиганты заказали чипов Nvidia на 16 млрд. долларов в первом квартале 2025 года.
ByteDance, Alibaba Group и Tencent Holdings разместили заказы на общую сумму более 16 миллиардов долларов на серверные чипы H20 AI от Nvidia в первом квартале 2025 года. Такой резкий рост спроса происходит на фоне опасений, что администрация США может наложить запрет на продажу этих чипов в Китай, ссылаясь на вопросы национальной безопасности.
H20 - самый доступный чип Nvidia для продажи в рамках действующих экспортных ограничений, которые запрещают передачу более мощных моделей китайским компаниям. Значительные заказы из Китая ставят Nvidia в сложное положение, поскольку она лавирует между возможностями для бизнеса и потенциальными геополитическими рисками.
theinformation.com
✔️ Google DeepMind опубликовали 145-страничный документ об ответственном развитии ИИ.
Google DeepMind выпустила подробный документ "Ответственный путь к AGI", в котором излагается технический план безопасного развития искусственного интеллекта общего назначения.
В документе подчеркивается важность устранения потенциальных рисков неправильного использования и несоответствия, связанных с технологией AGI. Несмотря на детальный подход, некоторые аналитики полагают, что документ может не полностью убедить скептиков в надежности и безопасности разработки AGI.
deepmind.google
✔️ Epic Games купит стартап Loci чтобы автоматизировать разметку 3D-контента.
Epic Games объявила о приобретении стартапа Loci, чья ИИ-платформа упрощает работу с 3D-ассетами. Технология автоматически генерирует теги для моделей, экономя время создателей на ручную разметку. Это особенно актуально для проектов с тысячами объектов — например, в Fortnite, где игроки добавляют элементы из популярных франшиз, провоцируя споры об авторских правах.
ИИ Loci не только ускоряет поиск и организацию контента, но и помогает выявлять нарушения интеллектуальной собственности. Loci будет интегрирован в экосистему Epic, в том числе в Unreal Editor для Fortnite и маркетплейс Fab, где продаются цифровые активы. Таким образом, разработчики получат инструменты для предотвращения юридических конфликтов и упрощения рабочих процессов.
epicgames.com
@ai_machinelearning_big_data
#news #ai #ml


24.03.202510:00
🧠 Neuralink с открытым исходным кодом с использованием активности мозга обезьяны для управления роботизированными руками 🙉
Проект Jenkins исследует интерфейсы мозг-компьютер путем декодирования нейронной активности в движения роботов и генерации синтетических мозговых данных.
Используя нейронные записи мозговой активности обезьяны по имени Дженкинс, исследователи разработали модели для преобразования мозговых сигналов в движения роботизированной руки.
В проекте используются роботизированные руки и интерактивная веб-консоль для генерации данных о работе мозга в режиме реального времени с помощью джойстика.
Исследование открывает путь к созданию адаптивных интерфейсов «мозг-компьютер» за счет гибкого моделирования активности мозга.
▪ Github
@vistehno
Проект Jenkins исследует интерфейсы мозг-компьютер путем декодирования нейронной активности в движения роботов и генерации синтетических мозговых данных.
Используя нейронные записи мозговой активности обезьяны по имени Дженкинс, исследователи разработали модели для преобразования мозговых сигналов в движения роботизированной руки.
В проекте используются роботизированные руки и интерактивная веб-консоль для генерации данных о работе мозга в режиме реального времени с помощью джойстика.
Исследование открывает путь к созданию адаптивных интерфейсов «мозг-компьютер» за счет гибкого моделирования активности мозга.
▪ Github
@vistehno
22.03.202516:02
🌅 HunyuanVideo-I2V
HunyuanVideo-I2V – это модель с открытым исходным кодом, предназначенная для создания видео на основе изображений, разработанная с активным участием сообщества.
В репозитории доступны реализации на PyTorch, предобученные веса и код для инференса. Для стабильной работы модели требуется NVIDIA GPU с поддержкой CUDA и не менее 80 ГБ видеопамяти. Кроме того, модель оснащена широким спектром настроек, позволяющих повысить качество генерируемого видео.
📌 Github
@vistehno
HunyuanVideo-I2V – это модель с открытым исходным кодом, предназначенная для создания видео на основе изображений, разработанная с активным участием сообщества.
В репозитории доступны реализации на PyTorch, предобученные веса и код для инференса. Для стабильной работы модели требуется NVIDIA GPU с поддержкой CUDA и не менее 80 ГБ видеопамяти. Кроме того, модель оснащена широким спектром настроек, позволяющих повысить качество генерируемого видео.
📌 Github
@vistehno


04.04.202515:42
🖥 OpenAI меняют планы выпуска моделей: o3 и o4-mini выйдут раньше GPT-5
Компания планирует выпустить o3 и o4-mini в ближайшие недели, а релиз GPT-5 ожидается через несколько месяцев.
По словам Альтмана, это решение обусловлено несколькими факторами:
- Дополнительное время позволит значительно повысить качество и возможности модели GPT-5.
- Компания столкнулась с трудностями при попытке плавно интегрировать различные компоненты, что потребовало пересмотра первоначальных планов.
OpenAI пытаются подготовить достаточные мощности для поддержки предполагаемого беспрецедентного спроса на новые модели.
@vistehno
Компания планирует выпустить o3 и o4-mini в ближайшие недели, а релиз GPT-5 ожидается через несколько месяцев.
По словам Альтмана, это решение обусловлено несколькими факторами:
- Дополнительное время позволит значительно повысить качество и возможности модели GPT-5.
- Компания столкнулась с трудностями при попытке плавно интегрировать различные компоненты, что потребовало пересмотра первоначальных планов.
OpenAI пытаются подготовить достаточные мощности для поддержки предполагаемого беспрецедентного спроса на новые модели.
@vistehno
登录以解锁更多功能。