Труха⚡️Україна
Труха⚡️Україна
Николаевский Ванёк
Николаевский Ванёк
Реальна Війна | Україна | Новини
Реальна Війна | Україна | Новини
Труха⚡️Україна
Труха⚡️Україна
Николаевский Ванёк
Николаевский Ванёк
Реальна Війна | Україна | Новини
Реальна Війна | Україна | Новини
Deep learning channel avatar

Deep learning channel

این کانال در کنار گروه و سایت پرسش و پاسخ برای انسجام بخشی به مطالب ایجاد شده است.
http://www.deeplearning.ir
https://www.aparat.com/irandeeplearning
TGlist 评分
0
0
类型公开
验证
未验证
可信度
不可靠
位置
语言其他
频道创建日期Jan 05, 2017
添加到 TGlist 的日期
Apr 03, 2025
关联群组

记录

10.04.202523:59
4.7K订阅者
05.01.202523:59
0引用指数
15.05.202512:49
329每帖平均覆盖率
31.05.202523:59
329广告帖子的平均覆盖率
15.05.202512:49
15.81%ER
09.05.202512:49
7.09%ERR
订阅者
引用指数
每篇帖子的浏览量
每个广告帖子的浏览量
ER
ERR
FEB '25MAR '25APR '25MAY '25

Deep learning channel 热门帖子

15.05.202508:13
آموزش معماری DeepSeek از صفر تا صد، مجموعه‌ای شامل ۲۰ ویدئوی آموزشی

این مجموعه شامل ۲۰ جلسه آموزشی هست که مفاهیمی مثل Multi-Head Latent Attention و Mixture of Experts رو با جزئیات کامل بررسی می‌کنه.

1️⃣ DeepSeek Series Introduction
https://youtu.be/QWNxQIq0hMo

2️⃣ DeepSeek Basics
https://youtu.be/WjhDDeZ7DvM

3️⃣ Journey of a Token into the LLM Architecture
https://youtu.be/rkEYwH4UGa4

4️⃣ Attention Mechanism Explained in 1 Hour
https://youtu.be/K45ze9Yd5UE

5️⃣ Self Attention Mechanism - Handwritten from Scratch
https://youtu.be/s8mskq-nzec

6️⃣ Causal Attention Explained: Don't Peek into the Future
https://youtu.be/c6Kkj6iLeBg

7️⃣ Multi-Head Attention Visually Explained
https://youtu.be/qbN4ulK-bZA

8️⃣ Multi-Head Attention Handwritten from Scratch
https://youtu.be/rvsEW-EsD-Y

9️⃣ Key Value Cache from Scratch
https://youtu.be/IDwTiS4_bKo

🔟 Multi-Query Attention Explained
https://youtu.be/Z6B51Odtn-Y

1️⃣1️⃣ Understand Grouped Query Attention (GQA)
https://youtu.be/kx3rETIxo4Q

1️⃣2️⃣ Multi-Head Latent Attention From Scratch
https://youtu.be/NlDQUj1olXM

1️⃣3️⃣ Multi-Head Latent Attention Coded from Scratch in Python
https://youtu.be/mIaWmJVrMpc

1️⃣4️⃣ Integer and Binary Positional Encodings
https://youtu.be/rP0CoTxe5gU

1️⃣5️⃣ All About Sinusoidal Positional Encodings
https://youtu.be/bQCQ7VO-TWU

1️⃣6️⃣ Rotary Positional Encodings
https://youtu.be/a17DlNxkv2k

1️⃣7️⃣ How DeepSeek Implemented Latent Attention | MLA + RoPE
https://youtu.be/m1x8vA_Tscc

1️⃣8️⃣ Mixture of Experts (MoE) Introduction
https://youtu.be/v7U21meXd6Y

1️⃣9️⃣ Mixture of Experts Hands-on Demonstration
https://youtu.be/yw6fpYPJ7PI

2️⃣0️⃣ Mixture of Experts Balancing Techniques
https://youtu.be/nRadcspta_8
登录以解锁更多功能。