转发自:
Machinelearning

23.04.202517:33
🪰 Виртуальная дрозофила: зачем DeepMind «оживили» плодовую мушку — и что это даёт науке
Кратко: исследователи создали самую точную на сегодня цифровую модель
Она умеет ходить, летать и ориентироваться в пространстве. Её «тело» рассчитано в физическом движке MuJoCo, а «мозг» — нейросеть, обученная на реальных видеозаписях поведения мух.
🌟 Как это сделали:
1) Физика тела
Исследователи запрограммировали 52 степени свободы суставов, добавили моделирование аэродинамики крыльев и «клейких» лапок-актуаторов, имитирующих силу сцепления с поверхностью.
Источник: Nature
2) Нейроконтроль
Нейросеть обучалась на сотнях видеозаписей реальных траекторий и затем управляла виртуальной мухой в MuJoCo, выбирая, как двигать крыльями и лапками в каждый момент.
3) Зрение
Виртуальные фасеточные глаза передают изображение контроллеру: модель может следовать по заданной траектории и корректировать курс по ходу движения.
4) Открытый код
Весь проект опубликован на GitHub (flybody) под лицензией Apache-2.0 — можно запускать симулятор, писать собственных агентов и экспериментировать с поведением мухи.
✔️Зачем это нужно
▪️ Нейронаука без электродов.
Модель — это «песочница», в которой можно виртуально перерезать нервы, добавлять шум, менять форму крыла и мгновенно видеть, как это влияет на поведение. Такие эксперименты на живых организмах часто невозможны.
▪️ Тест-полигон для ИИ и робототехники.
Готовая референс-модель движений и сенсорики, вдохновлённая природой — идеальна для обучения автономных систем.
▪️ От мушки к зебре — и дальше.
Методика уже применяется к виртуальным грызунам, а следующим объектом станет зебра-данио (у неё 70 % белков кодируются теми же генами, что у человека). Это даёт уникальную возможность изучить, как мозг приспосабливается к различной морфологии тела — не выходя из симулятора.
Источник: Janelia Research Campus
🔥 Что это даёт
▪️ Исследователи получают бесплатный инструмент для быстрой проверки гипотез о связке «нейроны → движение».
▪️ Робототехники — возможность адаптировать природные механизмы управления и баланса.
▪️ Для нас— ещё один пример того, как ИИ позволяет разбирать живые системы на компоненты, не причиняя вреда природе.
✔️ Посмотреть код, скомпилировать модель и погонять виртуальную мушку можно уже сейчас:
🔜 GitHub
🔜 Статья в Nature
@ai_machinelearning_big_data
#DeepMind #nature #science
Кратко: исследователи создали самую точную на сегодня цифровую модель
Drosophila melanogaster.
Она умеет ходить, летать и ориентироваться в пространстве. Её «тело» рассчитано в физическом движке MuJoCo, а «мозг» — нейросеть, обученная на реальных видеозаписях поведения мух.
🌟 Как это сделали:
1) Физика тела
Исследователи запрограммировали 52 степени свободы суставов, добавили моделирование аэродинамики крыльев и «клейких» лапок-актуаторов, имитирующих силу сцепления с поверхностью.
Источник: Nature
2) Нейроконтроль
Нейросеть обучалась на сотнях видеозаписей реальных траекторий и затем управляла виртуальной мухой в MuJoCo, выбирая, как двигать крыльями и лапками в каждый момент.
3) Зрение
Виртуальные фасеточные глаза передают изображение контроллеру: модель может следовать по заданной траектории и корректировать курс по ходу движения.
4) Открытый код
Весь проект опубликован на GitHub (flybody) под лицензией Apache-2.0 — можно запускать симулятор, писать собственных агентов и экспериментировать с поведением мухи.
✔️Зачем это нужно
▪️ Нейронаука без электродов.
Модель — это «песочница», в которой можно виртуально перерезать нервы, добавлять шум, менять форму крыла и мгновенно видеть, как это влияет на поведение. Такие эксперименты на живых организмах часто невозможны.
▪️ Тест-полигон для ИИ и робототехники.
Готовая референс-модель движений и сенсорики, вдохновлённая природой — идеальна для обучения автономных систем.
▪️ От мушки к зебре — и дальше.
Методика уже применяется к виртуальным грызунам, а следующим объектом станет зебра-данио (у неё 70 % белков кодируются теми же генами, что у человека). Это даёт уникальную возможность изучить, как мозг приспосабливается к различной морфологии тела — не выходя из симулятора.
Источник: Janelia Research Campus
🔥 Что это даёт
▪️ Исследователи получают бесплатный инструмент для быстрой проверки гипотез о связке «нейроны → движение».
▪️ Робототехники — возможность адаптировать природные механизмы управления и баланса.
▪️ Для нас— ещё один пример того, как ИИ позволяет разбирать живые системы на компоненты, не причиняя вреда природе.
✔️ Посмотреть код, скомпилировать модель и погонять виртуальную мушку можно уже сейчас:
🔜 GitHub
🔜 Статья в Nature
@ai_machinelearning_big_data
#DeepMind #nature #science


22.04.202521:50
Модель, которая вроде как умеет в эмоциональную окраску голоса из контекста самого текста.
Ну или как минимум оно сможет озвучить типичный диалог из Rick & Morty
https://github.com/nari-labs/dia
@tosheti
Ну или как минимум оно сможет озвучить типичный диалог из Rick & Morty
https://github.com/nari-labs/dia
@tosheti
21.04.202521:01
Heroes of Myas and Maslo: Pelmenental
16.04.202512:26
16.04.202507:30
Я тут подумал как минимизировать забывание, нежелательный дрифт и галлюцинации при файнтюне модели на новом срезе данных.
Эмпирически подбираем пороговое значение Х к окну контекста N для того чтобы при файнтюне посчитать перплексию на последних N токенах во время тренировки, и если она ниже порогового Х то делаем клип лосса в ноль. То есть учим только сильно «удивительное». Наверное, хорошо работает для новых фактов типа «Нынешним президентом … является …».
Нужно будет калибровать на train. Хорошо бы строить гистограмму per-token perplexity на train датасете и брать, например, 75-й перцентиль. Еще наверное лучше считать среднюю perplexity по примеру или по фрагменту, иначе можно случайно клипать из-за артефактов в токенизации (например, редкие символы или опечатки). Не будет работать на обучении стилистике, конечно же.
Можно еще попробовать довериться фатуму, и сделать обучаемые веса для порогового значения перплексии на токене (и его относительной позиции тоже, если памяти лопай попой).
Эмпирически подбираем пороговое значение Х к окну контекста N для того чтобы при файнтюне посчитать перплексию на последних N токенах во время тренировки, и если она ниже порогового Х то делаем клип лосса в ноль. То есть учим только сильно «удивительное». Наверное, хорошо работает для новых фактов типа «Нынешним президентом … является …».
Нужно будет калибровать на train. Хорошо бы строить гистограмму per-token perplexity на train датасете и брать, например, 75-й перцентиль. Еще наверное лучше считать среднюю perplexity по примеру или по фрагменту, иначе можно случайно клипать из-за артефактов в токенизации (например, редкие символы или опечатки). Не будет работать на обучении стилистике, конечно же.
Можно еще попробовать довериться фатуму, и сделать обучаемые веса для порогового значения перплексии на токене (и его относительной позиции тоже, если памяти лопай попой).
14.04.202519:43
https://www.youtube.com/shorts/Rvmvt7gscIM
тот самый друг, которому объясняешь про нейросети
тот самый друг, которому объясняешь про нейросети
23.04.202517:28
转发自:
Denis Sexy IT 🤖



22.04.202519:31
Поспали? Читаем про ту батарейку, что заряжали пока спали – ее как раз возможно нашли ученые:
Это не какой‑то скрытый аккумулятор, а обычная миелиновая оболочка, то есть «изоляция» вокруг нервных волокон (как в проводах). Учёные заметили, что внутри этой оболочки есть белки‑губки, способные «впитывать» крошечные частицы‑протоны. Пока мы спим, дыхательная цепочка тихо гонит протоны к этим белкам, что-то вроде насоса который качает воду в высокий водяной бак на крыше. Получается, что миелин за ночь «напитывается» положительным зарядом
Когда мы просыпаемся, протоны начинают стекать обратно через миниатюрные «турбины» – молекулы АТФ‑синтазы (белковый «моторчик» встроенный в клетки). Турбина крутится, и из её работы получается АТФ – универсальная энергетическая монета для клеток. По специальным каналам эта свежая «мелочь» сразу поступает в аксон (проводник нервных сигналов), чтобы тот мог быстро передавать сигналы. Если такой поток блокируется, например особым жирным веществом олеамидом, каналы закрываются, и мозг как бы сам принудительно уходит в режим экономии, то есть в сон.
Учёные прикинули, сколько зарядов миелин успевает набрать за ночь: цифра почти совпала с тем, сколько он в принципе способен удержать. Это объясняет, почему человеку обычно нужно около восьми часов сна – столько времени уходит на полную «подзарядку» изоляции. Интересно, что животные с меньшим объёмом белого вещества (грубо говоря, с тоньшей «изоляцией») спят дольше: их батарейка меньше, и чтобы наполнить её до краёв, требуется больше времени – в посте как раз картинка этой связи, красным подчеркнул то сколько в % спит животное из 24 часов
Если не давать себе спать, запас быстро опустошается, белки теряют заряд, слои миелина начинают сближаться, и оболочка утоньшается – именно такую картину врачи видят на МРТ у людей после бессонных ночей
Получается, что сон нужен мозгу не только «переварить» впечатления дня, но и буквально зарядить свою внутреннюю энерго-станцию, чтобы наутро нервные волокна вновь могли молниеносно передавать мысли, чувства и команды телу
Тут на сложном, научном языке
Это не какой‑то скрытый аккумулятор, а обычная миелиновая оболочка, то есть «изоляция» вокруг нервных волокон (как в проводах). Учёные заметили, что внутри этой оболочки есть белки‑губки, способные «впитывать» крошечные частицы‑протоны. Пока мы спим, дыхательная цепочка тихо гонит протоны к этим белкам, что-то вроде насоса который качает воду в высокий водяной бак на крыше. Получается, что миелин за ночь «напитывается» положительным зарядом
Когда мы просыпаемся, протоны начинают стекать обратно через миниатюрные «турбины» – молекулы АТФ‑синтазы (белковый «моторчик» встроенный в клетки). Турбина крутится, и из её работы получается АТФ – универсальная энергетическая монета для клеток. По специальным каналам эта свежая «мелочь» сразу поступает в аксон (проводник нервных сигналов), чтобы тот мог быстро передавать сигналы. Если такой поток блокируется, например особым жирным веществом олеамидом, каналы закрываются, и мозг как бы сам принудительно уходит в режим экономии, то есть в сон.
Учёные прикинули, сколько зарядов миелин успевает набрать за ночь: цифра почти совпала с тем, сколько он в принципе способен удержать. Это объясняет, почему человеку обычно нужно около восьми часов сна – столько времени уходит на полную «подзарядку» изоляции. Интересно, что животные с меньшим объёмом белого вещества (грубо говоря, с тоньшей «изоляцией») спят дольше: их батарейка меньше, и чтобы наполнить её до краёв, требуется больше времени – в посте как раз картинка этой связи, красным подчеркнул то сколько в % спит животное из 24 часов
Если не давать себе спать, запас быстро опустошается, белки теряют заряд, слои миелина начинают сближаться, и оболочка утоньшается – именно такую картину врачи видят на МРТ у людей после бессонных ночей
Получается, что сон нужен мозгу не только «переварить» впечатления дня, но и буквально зарядить свою внутреннюю энерго-станцию, чтобы наутро нервные волокна вновь могли молниеносно передавать мысли, чувства и команды телу
Тут на сложном, научном языке
20.04.202521:44
я в сегодня лет узнал что в питухоне можно
for ... :
else:
где блок else срабатывает только если for не был прерван с помощью break, относящегося к самому циклу
for ... :
else:
где блок else срабатывает только если for не был прерван с помощью break, относящегося к самому циклу
16.04.202511:53
Награда нашла своих героев! 🎉
Юра Куратов и Айдар Булатов были сегодня награждены премией "научный прорыв года в ИИ" на конференции DataFusion. Распирает гордость за ребят!
C ребятами знакомы давно. Совместно делали различные эксперименты. Знаю не понаслышке, как много усилий ребята направляли на свои исследования. Ребята авторы многих работ, которые уже привычно цитирует google и другие (Recurrent Memory Transformer, Scaling Transformer to 1M tokens and beyond with RMT, BABILong и много других) Ребят вы крутые! Поздравляем! Ждем новых топовых работ!
Юра Куратов и Айдар Булатов были сегодня награждены премией "научный прорыв года в ИИ" на конференции DataFusion. Распирает гордость за ребят!
C ребятами знакомы давно. Совместно делали различные эксперименты. Знаю не понаслышке, как много усилий ребята направляли на свои исследования. Ребята авторы многих работ, которые уже привычно цитирует google и другие (Recurrent Memory Transformer, Scaling Transformer to 1M tokens and beyond with RMT, BABILong и много других) Ребят вы крутые! Поздравляем! Ждем новых топовых работ!
转发自:
Pavel Zloi

15.04.202519:34
Fish Speech API
Представляю вашему вниманию кастомный OpenAI-подобный API-сервер для генерации голоса, основанный на fish-speech-1.5 от FishAudio.
Поддерживает как обычный text-to-speech (TTS), так и подмену голоса через референс-аудио.
Работает через REST, всё максимально похоже на формат OpenAI
✅ Что умеет:
- Генерация речи на базе модели
- Стилизация речи под голос из аудио
- Кастомные параметры:
- Работает в докере или вручную через Python 3.12
🛠 Быстрый старт:
Пример запроса:
🎧 Хотите "подменить" голос? Просто добавьте
🔗 Исходники тут: https://github.com/EvilFreelancer/docker-fish-speech-server
Если у вас возникнут вопросы или потребуется помощь, вы можете задать свой вопрос в чате канала Pavel Zloi.
Представляю вашему вниманию кастомный OpenAI-подобный API-сервер для генерации голоса, основанный на fish-speech-1.5 от FishAudio.
Поддерживает как обычный text-to-speech (TTS), так и подмену голоса через референс-аудио.
Работает через REST, всё максимально похоже на формат OpenAI
/v1/audio/speech
, так что можно просто подменить endpoint и не менять клиент.✅ Что умеет:
- Генерация речи на базе модели
fish-speech-1.5
- Стилизация речи под голос из аудио
- Кастомные параметры:
top_p
, temperature
, max_new_tokens
и др.- Работает в докере или вручную через Python 3.12
Работает только на Nvidia.
🛠 Быстрый старт:
git clone https://github.com/EvilFreelancer/docker-fish-speech-server
Пример запроса:
curl http://localhost:8000/audio/speech \
🎧 Хотите "подменить" голос? Просто добавьте
reference_audio
.🔗 Исходники тут: https://github.com/EvilFreelancer/docker-fish-speech-server
Если у вас возникнут вопросы или потребуется помощь, вы можете задать свой вопрос в чате канала Pavel Zloi.
14.04.202517:22
Анонсы OpenAi в последнее время похожи на рекламу фанты с новым вкусом или очередного средней руки авто
23.04.202515:10
Pen & Paper
Exercises in Machine Learning
Michael U. Gutmann
Только вы, ручка, бумага и ваша хрупкая самооценка.
@toshoseti
Exercises in Machine Learning
Michael U. Gutmann
Только вы, ручка, бумага и ваша хрупкая самооценка.
@toshoseti


22.04.202509:01
转发自:
Dealer.AI



20.04.202520:34
Дядя помнит, когда приму курил его дед. А теперь "раскуривать" новый распределённый аналог llama.cpp нам.
So, prima.cpp is a distributed implementation of llama.cpp that lets you run 70B-level LLMs on your everyday devices—💻 laptops, 🖥️ desktops, 📱 phones, and tablets.(с)
В пачке Примы:
- Heterogeneous, low-resource, cross-platform clusters (e.g., home devices connected by Wi-Fi);
- Quantization (Q4K and IQ1);
- Mixed CPU/GPU computing
Disk offloading;
- Piped-ring parallelism with prefetching;
- Automatic workload distribution.
Подробнее тут: https://huggingface.co/papers/2504.08791
So, prima.cpp is a distributed implementation of llama.cpp that lets you run 70B-level LLMs on your everyday devices—💻 laptops, 🖥️ desktops, 📱 phones, and tablets.(с)
В пачке Примы:
- Heterogeneous, low-resource, cross-platform clusters (e.g., home devices connected by Wi-Fi);
- Quantization (Q4K and IQ1);
- Mixed CPU/GPU computing
Disk offloading;
- Piped-ring parallelism with prefetching;
- Automatic workload distribution.
Подробнее тут: https://huggingface.co/papers/2504.08791
16.04.202511:53
Гратз! Спасибо ребятам за возможность некогда с ними поресерчить!
15.04.202512:38
Просто шикарнейший туториал, на тему разобраться по-быстрому с деплоем, если до этого только рядом ходил.
Без воды, все четко, поделу, на изолированном примере, hands on.
Не все аспекты, конечно, охватываются, но дает отличный бейзлайн от которого можно плясать в детали.
Крайне рекомендую.
https://www.youtube.com/watch?v=2yoRWrc0MA0
@toshoseti
Без воды, все четко, поделу, на изолированном примере, hands on.
Не все аспекты, конечно, охватываются, но дает отличный бейзлайн от которого можно плясать в детали.
Крайне рекомендую.
https://www.youtube.com/watch?v=2yoRWrc0MA0
@toshoseti
转发自:
Machinelearning

14.04.202514:54
🐬 DolphinGemma — это проект Google, направленный на расшифровку коммуникации дельфинов на архитектуре Gemma (кто бы мог подумать), оптимизированной под open-source задачи.
Разработанный в сотрудничестве с учёными из Georgia Tech и исследовательской группой Wild Dolphin Project (WDP), этот проект использует возможности больших языковых моделей для анализа и генерации звуков, характерных для , характерных для дельфинов
🔍 Исследование коммуникации дельфинов
С 1985 года WDP ведёт долгосрочные наблюдения за популяцией атлантических пятнистых дельфинов (Stenella frontalis) на Багамах. Их подход "В их мире, на их условиях" позволяет собирать уникальные данные: подводные видео и аудиозаписи, связанные с конкретными особями, их жизненным циклом и поведением. Это включает в себя:
- "Подписи-свистки", используемые для идентификации и связи между матерями и детёнышами.
- Импульсные звуки во время конфликтов.
- Щелчки, сопровождающие ухаживание или охоту.
🌟 Модель DolphinGemma
DolphinGemma — это аудио-модель с ~400 миллионами параметров, способная обрабатывать и генерировать последовательности звуков дельфинов.
Она использует токенизатор SoundStream для эффективного представления аудиосигналов и может работать непосредственно на смартфонах Pixel, используемых исследователями в полевых условиях.
Модель обучена на данных WDP и способна предсказывать последовательности звуков, аналогично тому, как языковые модели предсказывают слова в предложении.
🌊 Основная цель DolphinGemma — выявить структуру и возможное значение звуков дельфинов, что может приблизить нас к межвидовой коммуникации.
Этот проект объединяет передовые модели Гугла и многолетние биологические исследования, открывая новые горизонты в понимании морских млекопитающих.
Теперь осталось только научить дельфинов понимать лицензионное соглашение на использование моделей! 🐬📜🤖
🔜 Подробнее о проекте можно узнать в официальном блоге Google: DolphinGemma: How Google AI is helping decode dolphin communication.
@ai_machinelearning_big_data
#Gemma #google #ml #science
Разработанный в сотрудничестве с учёными из Georgia Tech и исследовательской группой Wild Dolphin Project (WDP), этот проект использует возможности больших языковых моделей для анализа и генерации звуков, характерных для , характерных для дельфинов
🔍 Исследование коммуникации дельфинов
С 1985 года WDP ведёт долгосрочные наблюдения за популяцией атлантических пятнистых дельфинов (Stenella frontalis) на Багамах. Их подход "В их мире, на их условиях" позволяет собирать уникальные данные: подводные видео и аудиозаписи, связанные с конкретными особями, их жизненным циклом и поведением. Это включает в себя:
- "Подписи-свистки", используемые для идентификации и связи между матерями и детёнышами.
- Импульсные звуки во время конфликтов.
- Щелчки, сопровождающие ухаживание или охоту.
🌟 Модель DolphinGemma
DolphinGemma — это аудио-модель с ~400 миллионами параметров, способная обрабатывать и генерировать последовательности звуков дельфинов.
Она использует токенизатор SoundStream для эффективного представления аудиосигналов и может работать непосредственно на смартфонах Pixel, используемых исследователями в полевых условиях.
Модель обучена на данных WDP и способна предсказывать последовательности звуков, аналогично тому, как языковые модели предсказывают слова в предложении.
🌊 Основная цель DolphinGemma — выявить структуру и возможное значение звуков дельфинов, что может приблизить нас к межвидовой коммуникации.
Этот проект объединяет передовые модели Гугла и многолетние биологические исследования, открывая новые горизонты в понимании морских млекопитающих.
Теперь осталось только научить дельфинов понимать лицензионное соглашение на использование моделей! 🐬📜🤖
🔜 Подробнее о проекте можно узнать в официальном блоге Google: DolphinGemma: How Google AI is helping decode dolphin communication.
@ai_machinelearning_big_data
#Gemma #google #ml #science


23.04.202511:46


21.04.202521:01
16.04.202512:26
И к другим новостям: (Rick'n'Morty, anyone?)
16.04.202509:26
https://github.com/tadata-org/fastapi_mcp
по-быстрому добавляем MCP к FastAPI.
@toshoseti
по-быстрому добавляем MCP к FastAPI.
@toshoseti
15.04.202508:45
IoT & Robotics которые мы заслужили.
14.04.202513:36
@toshoseti
显示 1 - 24 共 80
登录以解锁更多功能。