
Derp Learning
Используем ИИ строго не по назначению.
Заметки про ИИ, IT, компьютерные игры, и всякие инженерные интересности.
Заметки про ИИ, IT, компьютерные игры, и всякие инженерные интересности.
TGlist rating
0
0
TypePublic
Verification
Not verifiedTrust
Not trustedLocationРосія
LanguageOther
Channel creation dateAug 18, 2020
Added to TGlist
Oct 18, 2024Linked chat
Latest posts in group "Derp Learning"


08.05.202510:45
Reposted from:
Борис опять

07.05.202520:32
AI Safety стартап WhiteCircle.ai, НАШИ ребята, выкатили бенчмарк для guard-моделей CircleGuardBench и показали две собственные guard модели которые обходят ShieldGemma, PromptGuard и OpenAI moderation.
Guard модели работают модераторами для LLM: ловят джейлбрейки, атаки и нарушения правил. Раньше их тестировали либо на токсичных промптах (HarmfulQA, HarmBench), либо на джейлбрейках (AART), либо на тайминге. Каждый из этих подходов измерял какой-то аспект guard модели, но не её практическую полезность.
В новом бенчмарке авторы составили таксономию вредных запросов и смотрят: что модели блокируют, что пропускают и насколько быстро обрабатывают запросы. Интересно, что метрика комбинированная, а не просто accuracy, как обычно делается. В реальном проде false positive могут убить UX, а false negative компанию. Accuracy или даже какой-нибудь f1-score сами по себе не оценивают практическую полезность модели для работы в проде. Они показывают только качество в идеальных условиях неограниченного времени.
В CircleGuardBench авторы ввели комбинированный скор, который взвешивает несколько метрик и добавляет штрафы за время ответа и наличие ошибок.
Они так же написали прикольный пост на HF: рассказывают не только про цифры, но и про то, как дизайнили и собирали бенчмарк. Мастрид про безопаспость LLM.
Ждём теперь бенчмарк для атакующих моделей, которые взламывают guard-модели, которые защищают базовые модели.
- Блог на huggingface
- Тред в X
- Лидерборд
- Код на github (нормальный код!!!)
Guard модели работают модераторами для LLM: ловят джейлбрейки, атаки и нарушения правил. Раньше их тестировали либо на токсичных промптах (HarmfulQA, HarmBench), либо на джейлбрейках (AART), либо на тайминге. Каждый из этих подходов измерял какой-то аспект guard модели, но не её практическую полезность.
В новом бенчмарке авторы составили таксономию вредных запросов и смотрят: что модели блокируют, что пропускают и насколько быстро обрабатывают запросы. Интересно, что метрика комбинированная, а не просто accuracy, как обычно делается. В реальном проде false positive могут убить UX, а false negative компанию. Accuracy или даже какой-нибудь f1-score сами по себе не оценивают практическую полезность модели для работы в проде. Они показывают только качество в идеальных условиях неограниченного времени.
В CircleGuardBench авторы ввели комбинированный скор, который взвешивает несколько метрик и добавляет штрафы за время ответа и наличие ошибок.
Они так же написали прикольный пост на HF: рассказывают не только про цифры, но и про то, как дизайнили и собирали бенчмарк. Мастрид про безопаспость LLM.
Ждём теперь бенчмарк для атакующих моделей, которые взламывают guard-модели, которые защищают базовые модели.
- Блог на huggingface
- Тред в X
- Лидерборд
- Код на github (нормальный код!!!)
04.05.202511:44
mAGI unachieved successfully


Reposted from:
CGIT_Vines

03.05.202506:49
Мало что было известно об авторе видео, пока кто-то не запостил линк на его гит.
После этого всем стало в целом без разницы кто это.
Git
@CGIT_Vines
После этого всем стало в целом без разницы кто это.
Git
@CGIT_Vines
Reposted from:
Нейросети и Блендер

02.05.202517:00
MAGO теперь в Closed Beta!💖
Подать заявку можно вот тут: LINK
📕 Что мне как творческому аниматору нравится:
— Side By Side(SBS) mode. Когда ты можешь сравнивать сразу несколько генерации и понимать как настройки меняют генерацию. То есть в данном случае сервис позволяет узнать как работают разные настройки и экспериментировать с ними.
— Folders, когда проекты можно упаковывать в папки и разделять по интересам, работам. (Наверное уже заметили как это удобно в ChatGPT)
— Controlnets. Это достаточно приятно упаковано и я рад, что доступ к этим настройкам оставили в том виде, как привыкли их видеть ComfyUI пользователи, а не в виде Midjourney параметров.
— И ещё много чего в процессе.
Я не так много публикую работ из MAGO. Но мне приятнее и приятнее с каждым днем генерировать именно там.
Когда будет открыт доступ для всех, я напишу!
Подать заявку можно вот тут: LINK
📕 Что мне как творческому аниматору нравится:
— Side By Side(SBS) mode. Когда ты можешь сравнивать сразу несколько генерации и понимать как настройки меняют генерацию. То есть в данном случае сервис позволяет узнать как работают разные настройки и экспериментировать с ними.
— Folders, когда проекты можно упаковывать в папки и разделять по интересам, работам. (Наверное уже заметили как это удобно в ChatGPT)
— Controlnets. Это достаточно приятно упаковано и я рад, что доступ к этим настройкам оставили в том виде, как привыкли их видеть ComfyUI пользователи, а не в виде Midjourney параметров.
— И ещё много чего в процессе.
Я не так много публикую работ из MAGO. Но мне приятнее и приятнее с каждым днем генерировать именно там.
Когда будет открыт доступ для всех, я напишу!
Reposted from:
Метаверсище и ИИще

30.04.202507:14
NotebookLM от Гугла теперь поддерживает 50+ языков, включая русский.
Загружаете PDF- и аудиофайлы, указываете ссылки на сайты, видео YouTube, документы и презентации Google. NotebookLM будет обобщать всю информацию и проводить интересные связи между темами с помощью мультимодальной ИИ-модели Gemini 2.0.
Пора заводить подкаст, вестимо.
https://notebooklm.google/
@cgevent
Загружаете PDF- и аудиофайлы, указываете ссылки на сайты, видео YouTube, документы и презентации Google. NotebookLM будет обобщать всю информацию и проводить интересные связи между темами с помощью мультимодальной ИИ-модели Gemini 2.0.
Пора заводить подкаст, вестимо.
https://notebooklm.google/
@cgevent
Reposted from:
Малоизвестное интересное

28.04.202510:41
ИИ читает спикера за секунды, угадывая успех выступления по первым фразам.
Модели GPT и Gemini оценивают научный доклад уже после 15–60 слов — и попадают в точку.
До сих пор сверхвозможности больших языковых моделей мы видели в «текстовом океане» — когда нужно осмыслить миллиарды слов. Новая работа Michigan State University показала, что те же модели не менее точны в микромире: по первым двум-трем предложениям (≈ 1-5 % текста, меньше полуминуты речи) они с корреляцией 0,7 предсказывают, как доклад оценят живые эксперты.
Иными словами, ИИ выхватывает те самые сигналы, по которым мы подсознательно решаем: «слушать дальше или переключиться». Это приближает к эмпирической проверке популярного «7-second rule» Роджера Айлза (авторы уточняют: точное число секунд условно) - популярный постулат о публичных выступлениях, ораторском мастерстве и деловом общении:
Эти семь секунд включают момент выхода на сцену, первые слова, мимику, контакт глаз, позу и темп голоса - т.е. касаются в основном невербальной коммуникации. Авторы новой работы перенесли этот подход на вербальную коммуникацию, опираясь прежде всего на классическую «тонко-ломтевую» (thin-slice) линию исследований, начатую в 1990-е Натали Амбади и Робертом Розенталем (их эксперименты показали, что по 30-секундным беззвучным отрывкам можно с высокой точностью предсказывать оценки преподавателей студентами).
С тех пор на основе “тонких срезов” вырос целый корпус работ. Например:
• «speed-dating»: по нескольким секундам общения оценивали перспективу отношений
• микроданные невербального поведения на собеседованиях
• сигналы эмоций через невербальные каналы
• восприятие харизмы только по голосу (и шире - по акустике речи)
• мгновенные решения о доверии и компетентности по выражению лица
• как впечатления о спикере влияют на восприятие самого контента
Всё это - фундамент доказательства, что крошечные отрывки поведения и речи несут достаточную информацию о навыках, эмоциях и чертах личности.
Но лишь революция ChatGPT позволила применить подобный подход в языково-текстовом микромире (где нет ни голоса, ни внешности, а есть только стенограмма).
Как это делали:
• 128 докладов,
• 2 модели GPT-4o-mini и Gemini 1.5
• срезы размером 1-75 % текста стенограмм
• оценки моделей сравнивали с 60 экспертами - людьми
Что из этого следует для нас?
1) Золотое правило «зацепи аудиторию в первую минуту» получило эмпирическое подтверждение: если первые фразы скучны, дальше уже поздно спасать ситуацию.
2) LLM открывают дорогу к молниеносной, практически бесплатной обратной связи для преподавателей, политиков, учёных и всех, кому важно говорить убедительно. Соединяя идеи «тонких срезов» и возможности ИИ, мы получаем масштабируемый, надёжный и валидный инструмент, который поможет прокачивать публичные выступления и доводить их восприятие аудиторией до максимума (в пределах харизмы спикера).
3) А уж какая лафа ожидается в деловом общении с использованием презентаций и иных публичных выступлений (для клиентов, партнеров, инвесторов …)!
Вангую: очень скоро к LLM-анализу «тонких срезов» стенограмм добавится анализ тонких срезов аудио и видео выступлений (т.е. мультимедийный синтез всех каналов вербальной и невербальной коммуникации).
И тогда ИИ станет незаменимым инструментом для политтехнологов, спичрайтеров и имиджмейкеров.
А уж из совсем крышесносных перспектив - преодоление несжимаемости эволюционного опыта Homo sapiens.
#ВовлечениеАудитории #ИнтеллектуальнаяПродуктивность #LLMvsHomo
Модели GPT и Gemini оценивают научный доклад уже после 15–60 слов — и попадают в точку.
До сих пор сверхвозможности больших языковых моделей мы видели в «текстовом океане» — когда нужно осмыслить миллиарды слов. Новая работа Michigan State University показала, что те же модели не менее точны в микромире: по первым двум-трем предложениям (≈ 1-5 % текста, меньше полуминуты речи) они с корреляцией 0,7 предсказывают, как доклад оценят живые эксперты.
Иными словами, ИИ выхватывает те самые сигналы, по которым мы подсознательно решаем: «слушать дальше или переключиться». Это приближает к эмпирической проверке популярного «7-second rule» Роджера Айлза (авторы уточняют: точное число секунд условно) - популярный постулат о публичных выступлениях, ораторском мастерстве и деловом общении:
«Слушатели (или собеседники) составляют первичное и часто стойкое мнение о спикере за первые семь секунд после его появления».
Эти семь секунд включают момент выхода на сцену, первые слова, мимику, контакт глаз, позу и темп голоса - т.е. касаются в основном невербальной коммуникации. Авторы новой работы перенесли этот подход на вербальную коммуникацию, опираясь прежде всего на классическую «тонко-ломтевую» (thin-slice) линию исследований, начатую в 1990-е Натали Амбади и Робертом Розенталем (их эксперименты показали, что по 30-секундным беззвучным отрывкам можно с высокой точностью предсказывать оценки преподавателей студентами).
С тех пор на основе “тонких срезов” вырос целый корпус работ. Например:
• «speed-dating»: по нескольким секундам общения оценивали перспективу отношений
• микроданные невербального поведения на собеседованиях
• сигналы эмоций через невербальные каналы
• восприятие харизмы только по голосу (и шире - по акустике речи)
• мгновенные решения о доверии и компетентности по выражению лица
• как впечатления о спикере влияют на восприятие самого контента
Всё это - фундамент доказательства, что крошечные отрывки поведения и речи несут достаточную информацию о навыках, эмоциях и чертах личности.
Но лишь революция ChatGPT позволила применить подобный подход в языково-текстовом микромире (где нет ни голоса, ни внешности, а есть только стенограмма).
Как это делали:
• 128 докладов,
• 2 модели GPT-4o-mini и Gemini 1.5
• срезы размером 1-75 % текста стенограмм
• оценки моделей сравнивали с 60 экспертами - людьми
Что из этого следует для нас?
1) Золотое правило «зацепи аудиторию в первую минуту» получило эмпирическое подтверждение: если первые фразы скучны, дальше уже поздно спасать ситуацию.
2) LLM открывают дорогу к молниеносной, практически бесплатной обратной связи для преподавателей, политиков, учёных и всех, кому важно говорить убедительно. Соединяя идеи «тонких срезов» и возможности ИИ, мы получаем масштабируемый, надёжный и валидный инструмент, который поможет прокачивать публичные выступления и доводить их восприятие аудиторией до максимума (в пределах харизмы спикера).
3) А уж какая лафа ожидается в деловом общении с использованием презентаций и иных публичных выступлений (для клиентов, партнеров, инвесторов …)!
Вангую: очень скоро к LLM-анализу «тонких срезов» стенограмм добавится анализ тонких срезов аудио и видео выступлений (т.е. мультимедийный синтез всех каналов вербальной и невербальной коммуникации).
И тогда ИИ станет незаменимым инструментом для политтехнологов, спичрайтеров и имиджмейкеров.
А уж из совсем крышесносных перспектив - преодоление несжимаемости эволюционного опыта Homo sapiens.
#ВовлечениеАудитории #ИнтеллектуальнаяПродуктивность #LLMvsHomo


Reposted from:
Нейросети и Блендер

27.04.202507:41
Быстрые 3D композиции локально для ComfyUI
Это просто находка для тех, кто работает с ComfyUI и хочет быстро создавать 3D-композиции. A3D позволяет легко:
— Задавать позы простым болванками.
— Выбирать идеальные ракурсы камеры и строить сцены.
— Импортировать любые 3D-модели — от Mixamo до результатов Hunyuan3D 2.5.
— А самое крутое — вы можете моментально отправить цветное изображение или карту глубины из A3D в ComfyUI и использовать их в своих любимых workflow! ✨
🔗 Оценить разработку n0neye можно по ссылке: LINK — причем это опенсоурс
Как пишет сам автор, A3D задуман как быстрый и легкий способ создавать сцены без погружения в сложные 3D-редакторы. Некоторые фишки вроде 3D-генерации пока зависят от Fal.ai, но n0neye планирует добавить локальные альтернативы в будущем.
Мне нравится,что проект опенсоурсный и автор ищет сейчас умельцев для продолжения интеграции A3D в ComfyUI и планирует прикрепить к нему локальную генерацию через Hunyuan3D.
Мне понравилась идея, так как иногда Blender слишком сложный для новичков, а этот проект выглядит простым в использовании.
📕 Минусы:
— Пока только для Windows пользователей
GITHUB—AUTHOR
Это просто находка для тех, кто работает с ComfyUI и хочет быстро создавать 3D-композиции. A3D позволяет легко:
— Задавать позы простым болванками.
— Выбирать идеальные ракурсы камеры и строить сцены.
— Импортировать любые 3D-модели — от Mixamo до результатов Hunyuan3D 2.5.
— А самое крутое — вы можете моментально отправить цветное изображение или карту глубины из A3D в ComfyUI и использовать их в своих любимых workflow! ✨
🔗 Оценить разработку n0neye можно по ссылке: LINK — причем это опенсоурс
Как пишет сам автор, A3D задуман как быстрый и легкий способ создавать сцены без погружения в сложные 3D-редакторы. Некоторые фишки вроде 3D-генерации пока зависят от Fal.ai, но n0neye планирует добавить локальные альтернативы в будущем.
Мне нравится,что проект опенсоурсный и автор ищет сейчас умельцев для продолжения интеграции A3D в ComfyUI и планирует прикрепить к нему локальную генерацию через Hunyuan3D.
Мне понравилась идея, так как иногда Blender слишком сложный для новичков, а этот проект выглядит простым в использовании.
📕 Минусы:
— Пока только для Windows пользователей
GITHUB—AUTHOR


23.04.202521:04
Когда пришла пора билдить навайбкоженное


23.04.202506:58
Наконец-то появился повод собрать so-100. Это вам не футболки складывать!
X
@derplearning
X
@derplearning


22.04.202508:25
You cannot spell sudoku without sudo
Records
03.05.202522:59
12.7KSubscribers29.10.202423:59
100Citation index15.03.202502:32
41.9KAverage views per post26.01.202523:27
23.8KAverage views per ad post17.03.202517:16
13.04%ER14.03.202510:21
334.70%ERRGrowth
Subscribers
Citation index
Avg views per post
Avg views per ad post
ER
ERR
Log in to unlock more functionality.