Мир сегодня с "Юрий Подоляка"
Мир сегодня с "Юрий Подоляка"
Труха⚡️Україна
Труха⚡️Україна
Николаевский Ванёк
Николаевский Ванёк
Мир сегодня с "Юрий Подоляка"
Мир сегодня с "Юрий Подоляка"
Труха⚡️Україна
Труха⚡️Україна
Николаевский Ванёк
Николаевский Ванёк
То шо нейросети avatar

То шо нейросети

На пальцах, местами с матом, местами с претензией на юмор, но познавательно.
TGlist рейтингі
0
0
ТүріҚоғамдық
Растау
Расталмаған
Сенімділік
Сенімсіз
Орналасқан жері
ТілБасқа
Канал құрылған күніFeb 09, 2025
TGlist-ке қосылған күні
Aug 20, 2024
Қосылған топ

"То шо нейросети" тобындағы соңғы жазбалар

я в сегодня лет узнал что в питухоне можно
for ... :
else:

где блок else срабатывает только если for не был прерван с помощью break, относящегося к самому циклу
Қайта жіберілді:
Dealer.AI avatar
Dealer.AI
Дядя помнит, когда приму курил его дед. А теперь "раскуривать" новый распределённый аналог llama.cpp нам.

So, prima.cpp is a distributed implementation of llama.cpp that lets you run 70B-level LLMs on your everyday devices—💻 laptops, 🖥️ desktops, 📱 phones, and tablets.(с)

В пачке Примы:
- Heterogeneous, low-resource, cross-platform clusters (e.g., home devices connected by Wi-Fi);
- Quantization (Q4K and IQ1);
- Mixed CPU/GPU computing
Disk offloading;
- Piped-ring parallelism with prefetching;
- Automatic workload distribution.

Подробнее тут: https://huggingface.co/papers/2504.08791
И к другим новостям: (Rick'n'Morty, anyone?)
Награда нашла своих героев! 🎉

Юра Куратов и Айдар Булатов были сегодня награждены премией "научный прорыв года в ИИ" на конференции DataFusion. Распирает гордость за ребят!
C ребятами знакомы давно. Совместно делали различные эксперименты. Знаю не понаслышке, как много усилий ребята направляли на свои исследования. Ребята авторы многих работ, которые уже привычно цитирует google и другие (Recurrent Memory Transformer, Scaling Transformer to 1M tokens and beyond with RMT, BABILong и много других) Ребят вы крутые! Поздравляем! Ждем новых топовых работ!
Гратз! Спасибо ребятам за возможность некогда с ними поресерчить!
https://github.com/tadata-org/fastapi_mcp

по-быстрому добавляем MCP к FastAPI.

@toshoseti
Я тут подумал как минимизировать забывание, нежелательный дрифт и галлюцинации при файнтюне модели на новом срезе данных.
Эмпирически подбираем пороговое значение Х к окну контекста N для того чтобы при файнтюне посчитать перплексию на последних N токенах во время тренировки, и если она ниже порогового Х то делаем клип лосса в ноль. То есть учим только сильно «удивительное». Наверное, хорошо работает для новых фактов типа «Нынешним президентом … является …».

Нужно будет калибровать на train. Хорошо бы строить гистограмму per-token perplexity на train датасете и брать, например, 75-й перцентиль. Еще наверное лучше считать среднюю perplexity по примеру или по фрагменту, иначе можно случайно клипать из-за артефактов в токенизации (например, редкие символы или опечатки). Не будет работать на обучении стилистике, конечно же.
Можно еще попробовать довериться фатуму, и сделать обучаемые веса для порогового значения перплексии на токене (и его относительной позиции тоже, если памяти лопай попой).
Қайта жіберілді:
Pavel Zloi avatar
Pavel Zloi
Fish Speech API

Представляю вашему вниманию кастомный OpenAI-подобный API-сервер для генерации голоса, основанный на fish-speech-1.5 от FishAudio.

Поддерживает как обычный text-to-speech (TTS), так и подмену голоса через референс-аудио.
Работает через REST, всё максимально похоже на формат OpenAI /v1/audio/speech, так что можно просто подменить endpoint и не менять клиент.

✅ Что умеет:
- Генерация речи на базе модели fish-speech-1.5
- Стилизация речи под голос из аудио
- Кастомные параметры: top_p, temperature, max_new_tokens и др.
- Работает в докере или вручную через Python 3.12
Работает только на Nvidia.


🛠 Быстрый старт:
git clone https://github.com/EvilFreelancer/docker-fish-speech-server


Пример запроса:
curl http://localhost:8000/audio/speech \


🎧 Хотите "подменить" голос? Просто добавьте reference_audio.

🔗 Исходники тут: https://github.com/EvilFreelancer/docker-fish-speech-server

Если у вас возникнут вопросы или потребуется помощь, вы можете задать свой вопрос в чате канала Pavel Zloi.
Просто шикарнейший туториал, на тему разобраться по-быстрому с деплоем, если до этого только рядом ходил.
Без воды, все четко, поделу, на изолированном примере, hands on.
Не все аспекты, конечно, охватываются, но дает отличный бейзлайн от которого можно плясать в детали.

Крайне рекомендую.

https://www.youtube.com/watch?v=2yoRWrc0MA0

@toshoseti
IoT & Robotics которые мы заслужили.
https://www.youtube.com/shorts/Rvmvt7gscIM

тот самый друг, которому объясняешь про нейросети
Анонсы OpenAi в последнее время похожи на рекламу фанты с новым вкусом или очередного средней руки авто
Қайта жіберілді:
Machinelearning avatar
Machinelearning
🐬 DolphinGemma — это проект Google, направленный на расшифровку коммуникации дельфинов на архитектуре Gemma (кто бы мог подумать), оптимизированной под open-source задачи.

Разработанный в сотрудничестве с учёными из Georgia Tech и исследовательской группой Wild Dolphin Project (WDP), этот проект использует возможности больших языковых моделей для анализа и генерации звуков, характерных для , характерных для дельфинов

🔍 Исследование коммуникации дельфинов

С 1985 года WDP ведёт долгосрочные наблюдения за популяцией атлантических пятнистых дельфинов (Stenella frontalis) на Багамах. Их подход "В их мире, на их условиях" позволяет собирать уникальные данные: подводные видео и аудиозаписи, связанные с конкретными особями, их жизненным циклом и поведением. Это включает в себя:​

- "Подписи-свистки", используемые для идентификации и связи между матерями и детёнышами.​

- Импульсные звуки во время конфликтов.​

- Щелчки, сопровождающие ухаживание или охоту.​

🌟 Модель DolphinGemma
DolphinGemma — это аудио-модель с ~400 миллионами параметров, способная обрабатывать и генерировать последовательности звуков дельфинов.

Она использует токенизатор SoundStream для эффективного представления аудиосигналов и может работать непосредственно на смартфонах Pixel, используемых исследователями в полевых условиях.

Модель обучена на данных WDP и способна предсказывать последовательности звуков, аналогично тому, как языковые модели предсказывают слова в предложении.​

🌊 Основная цель DolphinGemma — выявить структуру и возможное значение звуков дельфинов, что может приблизить нас к межвидовой коммуникации.

Этот проект объединяет передовые модели Гугла и многолетние биологические исследования, открывая новые горизонты в понимании морских млекопитающих.​

Теперь осталось только научить дельфинов понимать лицензионное соглашение на использование моделей! 🐬📜🤖

🔜 Подробнее о проекте можно узнать в официальном блоге Google: DolphinGemma: How Google AI is helping decode dolphin communication.

@ai_machinelearning_big_data

#Gemma #google #ml #science
@toshoseti

Рекордтар

15.04.202523:59
935Жазылушылар
09.04.202511:03
50Дәйексөз индексі
21.03.202504:04
2411 жазбаның қамтуы
15.04.202513:22
242Жарнамалық жазбаның қамтуы
08.03.202500:26
14.77%ER
21.03.202523:59
26.45%ERR
Жазылушылар
Цитата индексі
1 хабарламаның қаралымы
Жарнамалық хабарлама қаралымы
ER
ERR
OCT '24JAN '25APR '25

То шо нейросети танымал жазбалары

15.04.202512:38
Просто шикарнейший туториал, на тему разобраться по-быстрому с деплоем, если до этого только рядом ходил.
Без воды, все четко, поделу, на изолированном примере, hands on.
Не все аспекты, конечно, охватываются, но дает отличный бейзлайн от которого можно плясать в детали.

Крайне рекомендую.

https://www.youtube.com/watch?v=2yoRWrc0MA0

@toshoseti
Қайта жіберілді:
Data Secrets avatar
Data Secrets
02.04.202518:11
Как LLM выучивают факты: новое исследование от Google DeepMind

LLM обучают на огромных наборах данных и их задача проста – предсказывать следующий токен. Но при этом получается так, что в итоге они каким-то образом извлекают и структурируют фактическую информацию. Так как именно происходит этот процесс "сжатия" датасетов в знания?

В DeepMind написали об этом целую работу. Они взяли для обучения 6 выдуманных биографий и трекали, в какой момент моделька перейдет от простого правдоподобного повторения к приобретению фактических знаний.

Оказалось, что такое выучивание происходит циклично, в три вполне конкретных этапа:

➖ Сначала модель довольно быстро изучает общие закономерности данных, запоминает, какие даты, слова, названия и имена встречаются чаще. Но при этом она ещё не формирует связь между, например, человеком и его датой рождения, а просто тыкает "наугад" исходя из статистики текстов.

➖ Потом, внезапно, наступает долгий этап плато. Производительность стабилизируется, то есть кажется, что модель все еще не видит связей. Но на самом деле в этом время атеншн аллоцируется, и формируются особые схемы внимания (attention circuits), с помощью которых LMка выделяет ключевые элементы текста и начинает ассоциировать их между собой. Кстати, на этом же этапе начинают возникать галлюцинации.

➖ Ну и, наконец, фаза приобретения знаний. Тут происходит так называемый грокинг. Лосс очень быстро падает, и модель уже не опирается только на общую статистику, а способна воспроизводить точные факты.

И, кстати, это интересно не просто теоретически. Отсюда можно сделать массу практических выводов: например, теперь понятно, с чем связано катастрофическое забывание при интеграции новой даты.

arxiv.org/pdf/2503.21676
Қайта жіберілді:
ML-легушька avatar
ML-легушька
Қайта жіберілді:
Data Secrets avatar
Data Secrets
🍯 Там AlphaXiv выпустили своего бесплатного агента Deep Research

Про проект AlphaXiv мы уже не раз рассказывали. Это arXiv на ИИ-стероидах. То есть хранилище открытых статей, но не простое. Там уже есть:

–> бесплатный встроенный ассистент для разбора статей, имеющий доступ к любым другим исследованиям
–> агент для анализа и работы с кодовой базой статьи
–> генератор конспектов

И вот сегодня завезли еще и Deep Research. Работает быстро: буквально за минуту вы получаете комплексный литературный обзор на любую научную тему.

Агент посоветует, что почитать, выделит тренды и емко расскажет о каждом ресурсе. Затем диалог можно продолжить: бот уточнит все нужные детали и ответит на любые вопросы.

Работает бесплатно, нужно только войти в аккаунт: www.alphaxiv.org/assistant
Қайта жіберілді:
Dealer.AI avatar
Dealer.AI
Дядя помнит, когда приму курил его дед. А теперь "раскуривать" новый распределённый аналог llama.cpp нам.

So, prima.cpp is a distributed implementation of llama.cpp that lets you run 70B-level LLMs on your everyday devices—💻 laptops, 🖥️ desktops, 📱 phones, and tablets.(с)

В пачке Примы:
- Heterogeneous, low-resource, cross-platform clusters (e.g., home devices connected by Wi-Fi);
- Quantization (Q4K and IQ1);
- Mixed CPU/GPU computing
Disk offloading;
- Piped-ring parallelism with prefetching;
- Automatic workload distribution.

Подробнее тут: https://huggingface.co/papers/2504.08791
Қайта жіберілді:
Pavel Zloi avatar
Pavel Zloi
15.04.202519:34
Fish Speech API

Представляю вашему вниманию кастомный OpenAI-подобный API-сервер для генерации голоса, основанный на fish-speech-1.5 от FishAudio.

Поддерживает как обычный text-to-speech (TTS), так и подмену голоса через референс-аудио.
Работает через REST, всё максимально похоже на формат OpenAI /v1/audio/speech, так что можно просто подменить endpoint и не менять клиент.

✅ Что умеет:
- Генерация речи на базе модели fish-speech-1.5
- Стилизация речи под голос из аудио
- Кастомные параметры: top_p, temperature, max_new_tokens и др.
- Работает в докере или вручную через Python 3.12
Работает только на Nvidia.


🛠 Быстрый старт:
git clone https://github.com/EvilFreelancer/docker-fish-speech-server


Пример запроса:
curl http://localhost:8000/audio/speech \


🎧 Хотите "подменить" голос? Просто добавьте reference_audio.

🔗 Исходники тут: https://github.com/EvilFreelancer/docker-fish-speech-server

Если у вас возникнут вопросы или потребуется помощь, вы можете задать свой вопрос в чате канала Pavel Zloi.
Қайта жіберілді:
КПД avatar
КПД
07.04.202520:52
Презентация с моей сегодняшней лекции про методы сжатия БЯМ на курсе Школы Анализа Данных Яндекса "Эффективные Модели".

В ней даю краткий обзор по существующим подходам, актуальным работам в области и некоторые общие рекомендации.
Қайта жіберілді:
Machinelearning avatar
Machinelearning
14.04.202513:25
🤖 Fourier Intelligence выпустила Fourier N1 — первого полностью open-source гуманоидного робота!

Fourier N1 — это компактный робот ростом 1.3 м и весом 38 кг, способный развивать скорость до 3.5 м/с.

За плечами более 1000 часов полевых испытаний.

🌟 Всё открыто: → список комплектующих (BOM)
→ CAD-чертежи и 3D-модели
→ спецификации приводов
→ управляющий код — на GitHub

⚙️ В основе робота — фирменные приводы FSA 2.0, обеспечивающие высокую устойчивость и манёвренность даже на пересечённой местности.

🔜 Github
🔜Документация (включайте автоперевод)

#ai #robots #opensource
Қайта жіберілді:
Data Secrets avatar
Data Secrets
CEO Perplexity объявил, что моделью теперь можно пользоваться в Telegram через официального бота @askplexbot

Это бесплатно. Также бота можно добавить в любые чаты, тегать и спрашивать о чем угодно (как Grok в X).

В наш чат канала мы модельку уже добавили, так что можете играться
ComfyUI copilot

🔷 Interactive Q&A: Ask about models, nodes, and parameters with ease
🔷 Smart Node Search: Find the right nodes using natural language
🔷 Node Explorer: View explanations, usage tips, and best practices
🔷 Workflow Builder: Get AI-powered recommendations for building workflows faster
🔷 Model Finder: Quickly locate base models and LoRAs by prompt

Coming Soon:
🔷 Auto Parameter Tuning: ML-powered optimization for better results
🔷 Error Fix Assistant: Instant error detection with suggested solutions

https://github.com/AIDC-AI/ComfyUI-Copilot

@toshoseti
@toshoseti
20.04.202521:44
я в сегодня лет узнал что в питухоне можно
for ... :
else:

где блок else срабатывает только если for не был прерван с помощью break, относящегося к самому циклу
CSM (Conversational Speech Model) is a speech generation model from Sesame that generates RVQ audio codes from text and audio inputs. The model architecture employs a Llama backbone and a smaller audio decoder that produces Mimi audio codes.

GitHub: https://huggingface.co/sesame/csm-1b
Blog: https://www.sesame.com/research/crossing_the_uncanny_valley_of_voice
Demo: https://www.sesame.com/voicedemo

@toshoseti
26.03.202515:58
https://github.com/LaurieWired/GhidraMCP/

Model Context Protocol server for allowing LLMs to autonomously reverse engineer applications. It exposes numerous tools from core Ghidra functionality to MCP clients.

@toshoseti
Қайта жіберілді:
Pavel Zloi avatar
Pavel Zloi
13.04.202513:10
Мой публичный API-сервера для распознавания речи

Рад представить мой первый публичный OpenAI-совместимый API-сервер, доступный по адресу: https://api.rpa.icu

В настоящее время сервер предоставляет функциональность автоматического распознавания речи (ASR), используя модель Whisper Large V3 Turbo, запущенную через docker-whisper-server и квантованную до q4_0.

Система распределяет нагрузку по трём видеокартам: двух Intel Arc A770 и одной NVIDIA RTX 3050, обеспечивая высокую производительность и точность распознавания.

🔧 Как использовать API

Вы можете бесплатно использовать данный API с любым клиентом OpenAI, например, через Python-библиотеку openai.

Для работы с сервером необходимо указать адрес сервера и токен:
OPENAI_BASE_URL=https://api.rpa.icu


📄 Пример запроса с использованием `curl`

curl https://api.rpa.icu/audio/transcriptions \


Замените your_audio_file.mp3 на путь к вашему аудиофайлу, а в параметр language можно указать язык аудио (например, ru для русского, en для английского и т.д.), не ничего не указать, то язык будет определён автоматически.

🐍 Пример использования на Python

Пример скрипта на Python для взаимодействия с API доступен по ссылке: openai-client.py. Скрипт позволяет передавать аудиофайл, указывать формат ответа (text, json, srt, verbose_json), модель и язык.

Если у вас возникнут вопросы или потребуется помощь, вы можете задать свой вопрос в чате канала Pavel Zloi.
Көбірек мүмкіндіктерді ашу үшін кіріңіз.