
Україна Online: Новини | Політика

Телеграмна служба новин - Україна

Резидент

Мир сегодня с "Юрий Подоляка"

Труха⚡️Україна

Николаевский Ванёк

Лачен пише

Реальний Київ | Украина

Реальна Війна

Україна Online: Новини | Політика

Телеграмна служба новин - Україна

Резидент

Мир сегодня с "Юрий Подоляка"

Труха⚡️Україна

Николаевский Ванёк

Лачен пише

Реальний Київ | Украина

Реальна Війна

Україна Online: Новини | Політика

Телеграмна служба новин - Україна

Резидент

То шо нейросети
На пальцах, местами с матом, местами с претензией на юмор, но познавательно.
TGlist рейтинг
0
0
ТипАчык
Текшерүү
ТекшерилбегенИшенимдүүлүк
ИшенимсизОрду
ТилиБашка
Канал түзүлгөн датаЛют 09, 2025
TGlistке кошулган дата
Серп 20, 2024Тиркелген топ
ТШ
То шо нейросети Chat
7
15.04.202512:38
Просто шикарнейший туториал, на тему разобраться по-быстрому с деплоем, если до этого только рядом ходил.
Без воды, все четко, поделу, на изолированном примере, hands on.
Не все аспекты, конечно, охватываются, но дает отличный бейзлайн от которого можно плясать в детали.
Крайне рекомендую.
https://www.youtube.com/watch?v=2yoRWrc0MA0
@toshoseti
Без воды, все четко, поделу, на изолированном примере, hands on.
Не все аспекты, конечно, охватываются, но дает отличный бейзлайн от которого можно плясать в детали.
Крайне рекомендую.
https://www.youtube.com/watch?v=2yoRWrc0MA0
@toshoseti
Кайра бөлүшүлгөн:
Data Secrets

02.04.202518:11
Как LLM выучивают факты: новое исследование от Google DeepMind
LLM обучают на огромных наборах данных и их задача проста – предсказывать следующий токен. Но при этом получается так, что в итоге они каким-то образом извлекают и структурируют фактическую информацию. Так как именно происходит этот процесс "сжатия" датасетов в знания?
В DeepMind написали об этом целую работу. Они взяли для обучения 6 выдуманных биографий и трекали, в какой момент моделька перейдет от простого правдоподобного повторения к приобретению фактических знаний.
Оказалось, что такое выучивание происходит циклично, в три вполне конкретных этапа:
➖ Сначала модель довольно быстро изучает общие закономерности данных, запоминает, какие даты, слова, названия и имена встречаются чаще. Но при этом она ещё не формирует связь между, например, человеком и его датой рождения, а просто тыкает "наугад" исходя из статистики текстов.
➖ Потом, внезапно, наступает долгий этап плато. Производительность стабилизируется, то есть кажется, что модель все еще не видит связей. Но на самом деле в этом время атеншн аллоцируется, и формируются особые схемы внимания (attention circuits), с помощью которых LMка выделяет ключевые элементы текста и начинает ассоциировать их между собой. Кстати, на этом же этапе начинают возникать галлюцинации.
➖ Ну и, наконец, фаза приобретения знаний. Тут происходит так называемый грокинг. Лосс очень быстро падает, и модель уже не опирается только на общую статистику, а способна воспроизводить точные факты.
И, кстати, это интересно не просто теоретически. Отсюда можно сделать массу практических выводов: например, теперь понятно, с чем связано катастрофическое забывание при интеграции новой даты.
arxiv.org/pdf/2503.21676
LLM обучают на огромных наборах данных и их задача проста – предсказывать следующий токен. Но при этом получается так, что в итоге они каким-то образом извлекают и структурируют фактическую информацию. Так как именно происходит этот процесс "сжатия" датасетов в знания?
В DeepMind написали об этом целую работу. Они взяли для обучения 6 выдуманных биографий и трекали, в какой момент моделька перейдет от простого правдоподобного повторения к приобретению фактических знаний.
Оказалось, что такое выучивание происходит циклично, в три вполне конкретных этапа:
➖ Сначала модель довольно быстро изучает общие закономерности данных, запоминает, какие даты, слова, названия и имена встречаются чаще. Но при этом она ещё не формирует связь между, например, человеком и его датой рождения, а просто тыкает "наугад" исходя из статистики текстов.
➖ Потом, внезапно, наступает долгий этап плато. Производительность стабилизируется, то есть кажется, что модель все еще не видит связей. Но на самом деле в этом время атеншн аллоцируется, и формируются особые схемы внимания (attention circuits), с помощью которых LMка выделяет ключевые элементы текста и начинает ассоциировать их между собой. Кстати, на этом же этапе начинают возникать галлюцинации.
➖ Ну и, наконец, фаза приобретения знаний. Тут происходит так называемый грокинг. Лосс очень быстро падает, и модель уже не опирается только на общую статистику, а способна воспроизводить точные факты.
И, кстати, это интересно не просто теоретически. Отсюда можно сделать массу практических выводов: например, теперь понятно, с чем связано катастрофическое забывание при интеграции новой даты.
arxiv.org/pdf/2503.21676
Кайра бөлүшүлгөн:
Data Secrets



09.04.202511:52
🍯 Там AlphaXiv выпустили своего бесплатного агента Deep Research
Про проект AlphaXiv мы уже не раз рассказывали. Это arXiv на ИИ-стероидах. То есть хранилище открытых статей, но не простое. Там уже есть:
–> бесплатный встроенный ассистент для разбора статей, имеющий доступ к любым другим исследованиям
–> агент для анализа и работы с кодовой базой статьи
–> генератор конспектов
И вот сегодня завезли еще и Deep Research. Работает быстро: буквально за минуту вы получаете комплексный литературный обзор на любую научную тему.
Агент посоветует, что почитать, выделит тренды и емко расскажет о каждом ресурсе. Затем диалог можно продолжить: бот уточнит все нужные детали и ответит на любые вопросы.
Работает бесплатно, нужно только войти в аккаунт: www.alphaxiv.org/assistant
Про проект AlphaXiv мы уже не раз рассказывали. Это arXiv на ИИ-стероидах. То есть хранилище открытых статей, но не простое. Там уже есть:
–> бесплатный встроенный ассистент для разбора статей, имеющий доступ к любым другим исследованиям
–> агент для анализа и работы с кодовой базой статьи
–> генератор конспектов
И вот сегодня завезли еще и Deep Research. Работает быстро: буквально за минуту вы получаете комплексный литературный обзор на любую научную тему.
Агент посоветует, что почитать, выделит тренды и емко расскажет о каждом ресурсе. Затем диалог можно продолжить: бот уточнит все нужные детали и ответит на любые вопросы.
Работает бесплатно, нужно только войти в аккаунт: www.alphaxiv.org/assistant
Кайра бөлүшүлгөн:
Dealer.AI



20.04.202520:34
Дядя помнит, когда приму курил его дед. А теперь "раскуривать" новый распределённый аналог llama.cpp нам.
So, prima.cpp is a distributed implementation of llama.cpp that lets you run 70B-level LLMs on your everyday devices—💻 laptops, 🖥️ desktops, 📱 phones, and tablets.(с)
В пачке Примы:
- Heterogeneous, low-resource, cross-platform clusters (e.g., home devices connected by Wi-Fi);
- Quantization (Q4K and IQ1);
- Mixed CPU/GPU computing
Disk offloading;
- Piped-ring parallelism with prefetching;
- Automatic workload distribution.
Подробнее тут: https://huggingface.co/papers/2504.08791
So, prima.cpp is a distributed implementation of llama.cpp that lets you run 70B-level LLMs on your everyday devices—💻 laptops, 🖥️ desktops, 📱 phones, and tablets.(с)
В пачке Примы:
- Heterogeneous, low-resource, cross-platform clusters (e.g., home devices connected by Wi-Fi);
- Quantization (Q4K and IQ1);
- Mixed CPU/GPU computing
Disk offloading;
- Piped-ring parallelism with prefetching;
- Automatic workload distribution.
Подробнее тут: https://huggingface.co/papers/2504.08791
Кайра бөлүшүлгөн:
Pavel Zloi

15.04.202519:34
Fish Speech API
Представляю вашему вниманию кастомный OpenAI-подобный API-сервер для генерации голоса, основанный на fish-speech-1.5 от FishAudio.
Поддерживает как обычный text-to-speech (TTS), так и подмену голоса через референс-аудио.
Работает через REST, всё максимально похоже на формат OpenAI
✅ Что умеет:
- Генерация речи на базе модели
- Стилизация речи под голос из аудио
- Кастомные параметры:
- Работает в докере или вручную через Python 3.12
🛠 Быстрый старт:
Пример запроса:
🎧 Хотите "подменить" голос? Просто добавьте
🔗 Исходники тут: https://github.com/EvilFreelancer/docker-fish-speech-server
Если у вас возникнут вопросы или потребуется помощь, вы можете задать свой вопрос в чате канала Pavel Zloi.
Представляю вашему вниманию кастомный OpenAI-подобный API-сервер для генерации голоса, основанный на fish-speech-1.5 от FishAudio.
Поддерживает как обычный text-to-speech (TTS), так и подмену голоса через референс-аудио.
Работает через REST, всё максимально похоже на формат OpenAI
/v1/audio/speech
, так что можно просто подменить endpoint и не менять клиент.✅ Что умеет:
- Генерация речи на базе модели
fish-speech-1.5
- Стилизация речи под голос из аудио
- Кастомные параметры:
top_p
, temperature
, max_new_tokens
и др.- Работает в докере или вручную через Python 3.12
Работает только на Nvidia.
🛠 Быстрый старт:
git clone https://github.com/EvilFreelancer/docker-fish-speech-server
Пример запроса:
curl http://localhost:8000/audio/speech \
🎧 Хотите "подменить" голос? Просто добавьте
reference_audio
.🔗 Исходники тут: https://github.com/EvilFreelancer/docker-fish-speech-server
Если у вас возникнут вопросы или потребуется помощь, вы можете задать свой вопрос в чате канала Pavel Zloi.
Кайра бөлүшүлгөн:
КПД

07.04.202520:52
Презентация с моей сегодняшней лекции про методы сжатия БЯМ на курсе Школы Анализа Данных Яндекса "Эффективные Модели".
В ней даю краткий обзор по существующим подходам, актуальным работам в области и некоторые общие рекомендации.
В ней даю краткий обзор по существующим подходам, актуальным работам в области и некоторые общие рекомендации.
Кайра бөлүшүлгөн:
Machinelearning

14.04.202513:25
🤖 Fourier Intelligence выпустила Fourier N1 — первого полностью open-source гуманоидного робота!
Fourier N1 — это компактный робот ростом 1.3 м и весом 38 кг, способный развивать скорость до 3.5 м/с.
За плечами более 1000 часов полевых испытаний.
🌟 Всё открыто: → список комплектующих (BOM)
→ CAD-чертежи и 3D-модели
→ спецификации приводов
→ управляющий код — на GitHub
⚙️ В основе робота — фирменные приводы FSA 2.0, обеспечивающие высокую устойчивость и манёвренность даже на пересечённой местности.
🔜 Github
🔜Документация (включайте автоперевод)
#ai #robots #opensource
Fourier N1 — это компактный робот ростом 1.3 м и весом 38 кг, способный развивать скорость до 3.5 м/с.
За плечами более 1000 часов полевых испытаний.
🌟 Всё открыто: → список комплектующих (BOM)
→ CAD-чертежи и 3D-модели
→ спецификации приводов
→ управляющий код — на GitHub
⚙️ В основе робота — фирменные приводы FSA 2.0, обеспечивающие высокую устойчивость и манёвренность даже на пересечённой местности.
🔜 Github
🔜Документация (включайте автоперевод)
#ai #robots #opensource
Кайра бөлүшүлгөн:
Data Secrets



11.04.202515:35
CEO Perplexity объявил, что моделью теперь можно пользоваться в Telegram через официального бота @askplexbot
Это бесплатно. Также бота можно добавить в любые чаты, тегать и спрашивать о чем угодно (как Grok в X).
В наш чат канала мы модельку уже добавили, так что можете играться
Это бесплатно. Также бота можно добавить в любые чаты, тегать и спрашивать о чем угодно (как Grok в X).
В наш чат канала мы модельку уже добавили, так что можете играться
Медиа контентке кире албай жатабыз
02.04.202508:50
ComfyUI copilot
🔷 Interactive Q&A: Ask about models, nodes, and parameters with ease
🔷 Smart Node Search: Find the right nodes using natural language
🔷 Node Explorer: View explanations, usage tips, and best practices
🔷 Workflow Builder: Get AI-powered recommendations for building workflows faster
🔷 Model Finder: Quickly locate base models and LoRAs by prompt
Coming Soon:
🔷 Auto Parameter Tuning: ML-powered optimization for better results
🔷 Error Fix Assistant: Instant error detection with suggested solutions
https://github.com/AIDC-AI/ComfyUI-Copilot
@toshoseti
🔷 Interactive Q&A: Ask about models, nodes, and parameters with ease
🔷 Smart Node Search: Find the right nodes using natural language
🔷 Node Explorer: View explanations, usage tips, and best practices
🔷 Workflow Builder: Get AI-powered recommendations for building workflows faster
🔷 Model Finder: Quickly locate base models and LoRAs by prompt
Coming Soon:
🔷 Auto Parameter Tuning: ML-powered optimization for better results
🔷 Error Fix Assistant: Instant error detection with suggested solutions
https://github.com/AIDC-AI/ComfyUI-Copilot
@toshoseti
14.04.202513:36
@toshoseti
20.04.202521:44
я в сегодня лет узнал что в питухоне можно
for ... :
else:
где блок else срабатывает только если for не был прерван с помощью break, относящегося к самому циклу
for ... :
else:
где блок else срабатывает только если for не был прерван с помощью break, относящегося к самому циклу


07.04.202511:47
CSM (Conversational Speech Model) is a speech generation model from Sesame that generates RVQ audio codes from text and audio inputs. The model architecture employs a Llama backbone and a smaller audio decoder that produces Mimi audio codes.
GitHub: https://huggingface.co/sesame/csm-1b
Blog: https://www.sesame.com/research/crossing_the_uncanny_valley_of_voice
Demo: https://www.sesame.com/voicedemo
@toshoseti
GitHub: https://huggingface.co/sesame/csm-1b
Blog: https://www.sesame.com/research/crossing_the_uncanny_valley_of_voice
Demo: https://www.sesame.com/voicedemo
@toshoseti
26.03.202515:58
https://github.com/LaurieWired/GhidraMCP/
Model Context Protocol server for allowing LLMs to autonomously reverse engineer applications. It exposes numerous tools from core Ghidra functionality to MCP clients.
@toshoseti
Model Context Protocol server for allowing LLMs to autonomously reverse engineer applications. It exposes numerous tools from core Ghidra functionality to MCP clients.
@toshoseti
Кайра бөлүшүлгөн:
Pavel Zloi

13.04.202513:10
Мой публичный API-сервера для распознавания речи
Рад представить мой первый публичный OpenAI-совместимый API-сервер, доступный по адресу: https://api.rpa.icu
В настоящее время сервер предоставляет функциональность автоматического распознавания речи (ASR), используя модель Whisper Large V3 Turbo, запущенную через docker-whisper-server и квантованную до
Система распределяет нагрузку по трём видеокартам: двух Intel Arc A770 и одной NVIDIA RTX 3050, обеспечивая высокую производительность и точность распознавания.
🔧 Как использовать API
Вы можете бесплатно использовать данный API с любым клиентом OpenAI, например, через Python-библиотеку openai.
Для работы с сервером необходимо указать адрес сервера и токен:
📄 Пример запроса с использованием `curl`
Замените
🐍 Пример использования на Python
Пример скрипта на Python для взаимодействия с API доступен по ссылке: openai-client.py. Скрипт позволяет передавать аудиофайл, указывать формат ответа (text, json, srt, verbose_json), модель и язык.
Если у вас возникнут вопросы или потребуется помощь, вы можете задать свой вопрос в чате канала Pavel Zloi.
Рад представить мой первый публичный OpenAI-совместимый API-сервер, доступный по адресу: https://api.rpa.icu
В настоящее время сервер предоставляет функциональность автоматического распознавания речи (ASR), используя модель Whisper Large V3 Turbo, запущенную через docker-whisper-server и квантованную до
q4_0
. Система распределяет нагрузку по трём видеокартам: двух Intel Arc A770 и одной NVIDIA RTX 3050, обеспечивая высокую производительность и точность распознавания.
🔧 Как использовать API
Вы можете бесплатно использовать данный API с любым клиентом OpenAI, например, через Python-библиотеку openai.
Для работы с сервером необходимо указать адрес сервера и токен:
OPENAI_BASE_URL=https://api.rpa.icu
📄 Пример запроса с использованием `curl`
curl https://api.rpa.icu/audio/transcriptions \
Замените
your_audio_file.mp3
на путь к вашему аудиофайлу, а в параметр language
можно указать язык аудио (например, ru для русского, en для английского и т.д.), не ничего не указать, то язык будет определён автоматически.🐍 Пример использования на Python
Пример скрипта на Python для взаимодействия с API доступен по ссылке: openai-client.py. Скрипт позволяет передавать аудиофайл, указывать формат ответа (text, json, srt, verbose_json), модель и язык.
Если у вас возникнут вопросы или потребуется помощь, вы можете задать свой вопрос в чате канала Pavel Zloi.
Көбүрөөк функцияларды ачуу үчүн кириңиз.