Мир сегодня с "Юрий Подоляка"
Мир сегодня с "Юрий Подоляка"
Труха⚡️Україна
Труха⚡️Україна
Николаевский Ванёк
Николаевский Ванёк
Мир сегодня с "Юрий Подоляка"
Мир сегодня с "Юрий Подоляка"
Труха⚡️Україна
Труха⚡️Україна
Николаевский Ванёк
Николаевский Ванёк
То шо нейросети avatar

То шо нейросети

На пальцах, местами с матом, местами с претензией на юмор, но познавательно.
TGlist 评分
0
0
类型公开
验证
未验证
可信度
不可靠
位置
语言其他
频道创建日期Лют 09, 2025
添加到 TGlist 的日期
Серп 20, 2024
关联群组

"То шо нейросети" 群组最新帖子

Модель, которая вроде как умеет в эмоциональную окраску голоса из контекста самого текста.
Ну или как минимум оно сможет озвучить типичный диалог из Rick & Morty

https://github.com/nari-labs/dia

@tosheti
Поспали? Читаем про ту батарейку, что заряжали пока спали – ее как раз возможно нашли ученые:

Это не какой‑то скрытый аккумулятор, а обычная миелиновая оболочка, то есть «изоляция» вокруг нервных волокон (как в проводах). Учёные заметили, что внутри этой оболочки есть белки‑губки, способные «впитывать» крошечные частицы‑протоны. Пока мы спим, дыхательная цепочка тихо гонит протоны к этим белкам, что-то вроде насоса который качает воду в высокий водяной бак на крыше. Получается, что миелин за ночь «напитывается» положительным зарядом

Когда мы просыпаемся, протоны начинают стекать обратно через миниатюрные «турбины» – молекулы АТФ‑синтазы (белковый «моторчик» встроенный в клетки). Турбина крутится, и из её работы получается АТФ – универсальная энергетическая монета для клеток. По специальным каналам эта свежая «мелочь» сразу поступает в аксон (проводник нервных сигналов), чтобы тот мог быстро передавать сигналы. Если такой поток блокируется, например особым жирным веществом олеамидом, каналы закрываются, и мозг как бы сам принудительно уходит в режим экономии, то есть в сон.

Учёные прикинули, сколько зарядов миелин успевает набрать за ночь: цифра почти совпала с тем, сколько он в принципе способен удержать. Это объясняет, почему человеку обычно нужно около восьми часов сна – столько времени уходит на полную «подзарядку» изоляции. Интересно, что животные с меньшим объёмом белого вещества (грубо говоря, с тоньшей «изоляцией») спят дольше: их батарейка меньше, и чтобы наполнить её до краёв, требуется больше времени – в посте как раз картинка этой связи, красным подчеркнул то сколько в % спит животное из 24 часов

Если не давать себе спать, запас быстро опустошается, белки теряют заряд, слои миелина начинают сближаться, и оболочка утоньшается – именно такую картину врачи видят на МРТ у людей после бессонных ночей

Получается, что сон нужен мозгу не только «переварить» впечатления дня, но и буквально зарядить свою внутреннюю энерго-станцию, чтобы наутро нервные волокна вновь могли молниеносно передавать мысли, чувства и команды телу

Тут на сложном, научном языке
Heroes of Myas and Maslo: Pelmenental
я в сегодня лет узнал что в питухоне можно
for ... :
else:

где блок else срабатывает только если for не был прерван с помощью break, относящегося к самому циклу
转发自:
Dealer.AI avatar
Dealer.AI
Дядя помнит, когда приму курил его дед. А теперь "раскуривать" новый распределённый аналог llama.cpp нам.

So, prima.cpp is a distributed implementation of llama.cpp that lets you run 70B-level LLMs on your everyday devices—💻 laptops, 🖥️ desktops, 📱 phones, and tablets.(с)

В пачке Примы:
- Heterogeneous, low-resource, cross-platform clusters (e.g., home devices connected by Wi-Fi);
- Quantization (Q4K and IQ1);
- Mixed CPU/GPU computing
Disk offloading;
- Piped-ring parallelism with prefetching;
- Automatic workload distribution.

Подробнее тут: https://huggingface.co/papers/2504.08791
И к другим новостям: (Rick'n'Morty, anyone?)
Награда нашла своих героев! 🎉

Юра Куратов и Айдар Булатов были сегодня награждены премией "научный прорыв года в ИИ" на конференции DataFusion. Распирает гордость за ребят!
C ребятами знакомы давно. Совместно делали различные эксперименты. Знаю не понаслышке, как много усилий ребята направляли на свои исследования. Ребята авторы многих работ, которые уже привычно цитирует google и другие (Recurrent Memory Transformer, Scaling Transformer to 1M tokens and beyond with RMT, BABILong и много других) Ребят вы крутые! Поздравляем! Ждем новых топовых работ!
Гратз! Спасибо ребятам за возможность некогда с ними поресерчить!
https://github.com/tadata-org/fastapi_mcp

по-быстрому добавляем MCP к FastAPI.

@toshoseti
Я тут подумал как минимизировать забывание, нежелательный дрифт и галлюцинации при файнтюне модели на новом срезе данных.
Эмпирически подбираем пороговое значение Х к окну контекста N для того чтобы при файнтюне посчитать перплексию на последних N токенах во время тренировки, и если она ниже порогового Х то делаем клип лосса в ноль. То есть учим только сильно «удивительное». Наверное, хорошо работает для новых фактов типа «Нынешним президентом … является …».

Нужно будет калибровать на train. Хорошо бы строить гистограмму per-token perplexity на train датасете и брать, например, 75-й перцентиль. Еще наверное лучше считать среднюю perplexity по примеру или по фрагменту, иначе можно случайно клипать из-за артефактов в токенизации (например, редкие символы или опечатки). Не будет работать на обучении стилистике, конечно же.
Можно еще попробовать довериться фатуму, и сделать обучаемые веса для порогового значения перплексии на токене (и его относительной позиции тоже, если памяти лопай попой).
转发自:
Pavel Zloi avatar
Pavel Zloi
Fish Speech API

Представляю вашему вниманию кастомный OpenAI-подобный API-сервер для генерации голоса, основанный на fish-speech-1.5 от FishAudio.

Поддерживает как обычный text-to-speech (TTS), так и подмену голоса через референс-аудио.
Работает через REST, всё максимально похоже на формат OpenAI /v1/audio/speech, так что можно просто подменить endpoint и не менять клиент.

✅ Что умеет:
- Генерация речи на базе модели fish-speech-1.5
- Стилизация речи под голос из аудио
- Кастомные параметры: top_p, temperature, max_new_tokens и др.
- Работает в докере или вручную через Python 3.12
Работает только на Nvidia.


🛠 Быстрый старт:
git clone https://github.com/EvilFreelancer/docker-fish-speech-server


Пример запроса:
curl http://localhost:8000/audio/speech \


🎧 Хотите "подменить" голос? Просто добавьте reference_audio.

🔗 Исходники тут: https://github.com/EvilFreelancer/docker-fish-speech-server

Если у вас возникнут вопросы или потребуется помощь, вы можете задать свой вопрос в чате канала Pavel Zloi.
Просто шикарнейший туториал, на тему разобраться по-быстрому с деплоем, если до этого только рядом ходил.
Без воды, все четко, поделу, на изолированном примере, hands on.
Не все аспекты, конечно, охватываются, но дает отличный бейзлайн от которого можно плясать в детали.

Крайне рекомендую.

https://www.youtube.com/watch?v=2yoRWrc0MA0

@toshoseti

记录

21.04.202523:59
936订阅者
09.04.202511:03
50引用指数
22.04.202520:38
255每帖平均覆盖率
15.04.202513:22
242广告帖子的平均覆盖率
08.03.202500:26
14.77%ER
21.03.202523:59
26.45%ERR

То шо нейросети 热门帖子

15.04.202512:38
Просто шикарнейший туториал, на тему разобраться по-быстрому с деплоем, если до этого только рядом ходил.
Без воды, все четко, поделу, на изолированном примере, hands on.
Не все аспекты, конечно, охватываются, но дает отличный бейзлайн от которого можно плясать в детали.

Крайне рекомендую.

https://www.youtube.com/watch?v=2yoRWrc0MA0

@toshoseti
转发自:
Data Secrets avatar
Data Secrets
02.04.202518:11
Как LLM выучивают факты: новое исследование от Google DeepMind

LLM обучают на огромных наборах данных и их задача проста – предсказывать следующий токен. Но при этом получается так, что в итоге они каким-то образом извлекают и структурируют фактическую информацию. Так как именно происходит этот процесс "сжатия" датасетов в знания?

В DeepMind написали об этом целую работу. Они взяли для обучения 6 выдуманных биографий и трекали, в какой момент моделька перейдет от простого правдоподобного повторения к приобретению фактических знаний.

Оказалось, что такое выучивание происходит циклично, в три вполне конкретных этапа:

➖ Сначала модель довольно быстро изучает общие закономерности данных, запоминает, какие даты, слова, названия и имена встречаются чаще. Но при этом она ещё не формирует связь между, например, человеком и его датой рождения, а просто тыкает "наугад" исходя из статистики текстов.

➖ Потом, внезапно, наступает долгий этап плато. Производительность стабилизируется, то есть кажется, что модель все еще не видит связей. Но на самом деле в этом время атеншн аллоцируется, и формируются особые схемы внимания (attention circuits), с помощью которых LMка выделяет ключевые элементы текста и начинает ассоциировать их между собой. Кстати, на этом же этапе начинают возникать галлюцинации.

➖ Ну и, наконец, фаза приобретения знаний. Тут происходит так называемый грокинг. Лосс очень быстро падает, и модель уже не опирается только на общую статистику, а способна воспроизводить точные факты.

И, кстати, это интересно не просто теоретически. Отсюда можно сделать массу практических выводов: например, теперь понятно, с чем связано катастрофическое забывание при интеграции новой даты.

arxiv.org/pdf/2503.21676
Поспали? Читаем про ту батарейку, что заряжали пока спали – ее как раз возможно нашли ученые:

Это не какой‑то скрытый аккумулятор, а обычная миелиновая оболочка, то есть «изоляция» вокруг нервных волокон (как в проводах). Учёные заметили, что внутри этой оболочки есть белки‑губки, способные «впитывать» крошечные частицы‑протоны. Пока мы спим, дыхательная цепочка тихо гонит протоны к этим белкам, что-то вроде насоса который качает воду в высокий водяной бак на крыше. Получается, что миелин за ночь «напитывается» положительным зарядом

Когда мы просыпаемся, протоны начинают стекать обратно через миниатюрные «турбины» – молекулы АТФ‑синтазы (белковый «моторчик» встроенный в клетки). Турбина крутится, и из её работы получается АТФ – универсальная энергетическая монета для клеток. По специальным каналам эта свежая «мелочь» сразу поступает в аксон (проводник нервных сигналов), чтобы тот мог быстро передавать сигналы. Если такой поток блокируется, например особым жирным веществом олеамидом, каналы закрываются, и мозг как бы сам принудительно уходит в режим экономии, то есть в сон.

Учёные прикинули, сколько зарядов миелин успевает набрать за ночь: цифра почти совпала с тем, сколько он в принципе способен удержать. Это объясняет, почему человеку обычно нужно около восьми часов сна – столько времени уходит на полную «подзарядку» изоляции. Интересно, что животные с меньшим объёмом белого вещества (грубо говоря, с тоньшей «изоляцией») спят дольше: их батарейка меньше, и чтобы наполнить её до краёв, требуется больше времени – в посте как раз картинка этой связи, красным подчеркнул то сколько в % спит животное из 24 часов

Если не давать себе спать, запас быстро опустошается, белки теряют заряд, слои миелина начинают сближаться, и оболочка утоньшается – именно такую картину врачи видят на МРТ у людей после бессонных ночей

Получается, что сон нужен мозгу не только «переварить» впечатления дня, но и буквально зарядить свою внутреннюю энерго-станцию, чтобы наутро нервные волокна вновь могли молниеносно передавать мысли, чувства и команды телу

Тут на сложном, научном языке
转发自:
Data Secrets avatar
Data Secrets
🍯 Там AlphaXiv выпустили своего бесплатного агента Deep Research

Про проект AlphaXiv мы уже не раз рассказывали. Это arXiv на ИИ-стероидах. То есть хранилище открытых статей, но не простое. Там уже есть:

–> бесплатный встроенный ассистент для разбора статей, имеющий доступ к любым другим исследованиям
–> агент для анализа и работы с кодовой базой статьи
–> генератор конспектов

И вот сегодня завезли еще и Deep Research. Работает быстро: буквально за минуту вы получаете комплексный литературный обзор на любую научную тему.

Агент посоветует, что почитать, выделит тренды и емко расскажет о каждом ресурсе. Затем диалог можно продолжить: бот уточнит все нужные детали и ответит на любые вопросы.

Работает бесплатно, нужно только войти в аккаунт: www.alphaxiv.org/assistant
Модель, которая вроде как умеет в эмоциональную окраску голоса из контекста самого текста.
Ну или как минимум оно сможет озвучить типичный диалог из Rick & Morty

https://github.com/nari-labs/dia

@tosheti
转发自:
Pavel Zloi avatar
Pavel Zloi
15.04.202519:34
Fish Speech API

Представляю вашему вниманию кастомный OpenAI-подобный API-сервер для генерации голоса, основанный на fish-speech-1.5 от FishAudio.

Поддерживает как обычный text-to-speech (TTS), так и подмену голоса через референс-аудио.
Работает через REST, всё максимально похоже на формат OpenAI /v1/audio/speech, так что можно просто подменить endpoint и не менять клиент.

✅ Что умеет:
- Генерация речи на базе модели fish-speech-1.5
- Стилизация речи под голос из аудио
- Кастомные параметры: top_p, temperature, max_new_tokens и др.
- Работает в докере или вручную через Python 3.12
Работает только на Nvidia.


🛠 Быстрый старт:
git clone https://github.com/EvilFreelancer/docker-fish-speech-server


Пример запроса:
curl http://localhost:8000/audio/speech \


🎧 Хотите "подменить" голос? Просто добавьте reference_audio.

🔗 Исходники тут: https://github.com/EvilFreelancer/docker-fish-speech-server

Если у вас возникнут вопросы или потребуется помощь, вы можете задать свой вопрос в чате канала Pavel Zloi.
转发自:
КПД avatar
КПД
07.04.202520:52
Презентация с моей сегодняшней лекции про методы сжатия БЯМ на курсе Школы Анализа Данных Яндекса "Эффективные Модели".

В ней даю краткий обзор по существующим подходам, актуальным работам в области и некоторые общие рекомендации.
转发自:
Machinelearning avatar
Machinelearning
14.04.202513:25
🤖 Fourier Intelligence выпустила Fourier N1 — первого полностью open-source гуманоидного робота!

Fourier N1 — это компактный робот ростом 1.3 м и весом 38 кг, способный развивать скорость до 3.5 м/с.

За плечами более 1000 часов полевых испытаний.

🌟 Всё открыто: → список комплектующих (BOM)
→ CAD-чертежи и 3D-модели
→ спецификации приводов
→ управляющий код — на GitHub

⚙️ В основе робота — фирменные приводы FSA 2.0, обеспечивающие высокую устойчивость и манёвренность даже на пересечённой местности.

🔜 Github
🔜Документация (включайте автоперевод)

#ai #robots #opensource
转发自:
Data Secrets avatar
Data Secrets
CEO Perplexity объявил, что моделью теперь можно пользоваться в Telegram через официального бота @askplexbot

Это бесплатно. Также бота можно добавить в любые чаты, тегать и спрашивать о чем угодно (как Grok в X).

В наш чат канала мы модельку уже добавили, так что можете играться
ComfyUI copilot

🔷 Interactive Q&A: Ask about models, nodes, and parameters with ease
🔷 Smart Node Search: Find the right nodes using natural language
🔷 Node Explorer: View explanations, usage tips, and best practices
🔷 Workflow Builder: Get AI-powered recommendations for building workflows faster
🔷 Model Finder: Quickly locate base models and LoRAs by prompt

Coming Soon:
🔷 Auto Parameter Tuning: ML-powered optimization for better results
🔷 Error Fix Assistant: Instant error detection with suggested solutions

https://github.com/AIDC-AI/ComfyUI-Copilot

@toshoseti
@toshoseti
转发自:
Dealer.AI avatar
Dealer.AI
Дядя помнит, когда приму курил его дед. А теперь "раскуривать" новый распределённый аналог llama.cpp нам.

So, prima.cpp is a distributed implementation of llama.cpp that lets you run 70B-level LLMs on your everyday devices—💻 laptops, 🖥️ desktops, 📱 phones, and tablets.(с)

В пачке Примы:
- Heterogeneous, low-resource, cross-platform clusters (e.g., home devices connected by Wi-Fi);
- Quantization (Q4K and IQ1);
- Mixed CPU/GPU computing
Disk offloading;
- Piped-ring parallelism with prefetching;
- Automatic workload distribution.

Подробнее тут: https://huggingface.co/papers/2504.08791
CSM (Conversational Speech Model) is a speech generation model from Sesame that generates RVQ audio codes from text and audio inputs. The model architecture employs a Llama backbone and a smaller audio decoder that produces Mimi audio codes.

GitHub: https://huggingface.co/sesame/csm-1b
Blog: https://www.sesame.com/research/crossing_the_uncanny_valley_of_voice
Demo: https://www.sesame.com/voicedemo

@toshoseti
登录以解锁更多功能。