24.04.202519:19
دو پژوهشگر برجستهی هوش مصنوعی، ایدهی «یادگیری تجربی» رو بهعنوان فاز بعدی توسعهی هوش مصنوعی مطرح کردن. نظریهی اونا توی مقالهای به نام «عصر تجربه» اومده که بخشی از کتاب در دست انتشار «طراحی یک هوش» از انتشارات MIT محسوب میشه.
«دیوید سیلور» و «ریچارد اس. ساتن» توی این مقاله، از نسل جدیدی از ایجنتهای هوش مصنوعی حرف زدن که بهگفتهی خودشون میتونن مسیر رسیدن به «هوش فرابشری» رو هموار کنن. اونا نوشتن: «تو حوزههایی مثل ریاضی، برنامهنویسی و علوم، دانشی که از دادههای انسانی استخراج شده، داره به سقف خودش نزدیک میشه».
بهعلاوه، بهگفتهی این دو پژوهشگر، هوش مصنوعی مولد فعلاً توانایی اختراع چیزهای مفید یا کشف بینشهای جدیدی که خارج از مرزهای درک فعلی انسان باشه رو نداره.
اما این دو نفر کیان؟
«دیوید سیلور»، دانشمند علوم کامپیوتر، یکی از توسعهدهندههای اصلی AlphaGo ـه؛ برنامهای که در سال ۲۰۱۶ تونست قهرمان جهانی بازی Go، یعنی «لی سِدول» رو شکست بده.
«ریچارد اس. ساتن» هم از چهرههای تأثیرگذار توی حوزهی یادگیری تقویتیه و الگوریتمهای پایهای زیادی برای این حوزه توسعه داده. اون توی یه مقاله در سال ۲۰۱۹ پیشنهاد کرده بود که دانشمندان کامپیوتر باید از «فرا-روشها» استفاده کنن؛ یعنی تکنیکهایی که به سیستم اجازه میدن از دنیای پیچیده و نامنظم بیرونی یاد بگیره، نه فقط از دادههای ساختاریافته.
سیلور و ساتن یه چارچوب جدید برای تقسیمبندی روند رشد هوش مصنوعی توی ده سال اخیر معرفی کردن:
۱. دورهی شبیهسازی (Simulation Era) که با AlphaGo و تکنیکهای یادگیری ماشین همراه بود.
۲. دورهی دادههای انسانی (Human Data Era) که با ظهور GPT-3 شروع شد.
۳. دورهی تجربه (Experience Era) که از سال ۲۰۲۴ با معرفی AlphaProof، محصول دیپمایند بر پایهی یادگیری تقویتی، آغاز شده.
اونا اشاره کردن که AlphaProof تونسته توی المپیاد جهانی ریاضی مدال بگیره؛ اونم با یه الگوریتم تقویتی که از طریق تعامل مداوم با سیستم اثبات ریاضی یاد گرفته. بهجای اینکه بهش مستقیماً ریاضی یاد بدن، بهش انگیزهی رسیدن به پاداشهایی رو دادن که از حل مسائل ریاضی به دست میاومده.
بهنظر نویسندهها، یادگیری هوش مصنوعی میتونه از خود دنیا هم تغذیه بشه؛ چه از طریق مدلسازی شبیهسازیشده از جهان و چه از طریق دادههایی مثل سود مالی، نتایج آزمون یا مصرف انرژی.
اونا نوشتن: «این دادهها باید بهنحوی تولید بشن که با قویتر شدن ایجنت، خودشون هم بهتر بشن؛ چون اگه دادهها از یه روش ایستا تولید بشن، خیلی زود ایجنت اون روش رو پشت سر میذاره».
ایجنتهای هوش مصنوعی در عصر تجربه، ویژگیهای متفاوتی با مدلهای فعلی دارن:
۱- میتونن برای مدت طولانی روی هدفهای جاهطلبانه کار کنن.
۲- هم از محیط اطرافشون و هم از ورودیهای انسانی تغذیه میشن.
۳- انگیزهشون بر اساس تجربهی خودشونه، نه قضاوت انسانی.
۴- توانایی برنامهریزی و استدلال در مورد چیزهایی رو دارن که مستقل از انسان هستن.
هدف این ایجنتها فقط پاسخ دادن به سوالهای کاربران نیست؛ بلکه قراره هدفهایی طولانیمدت رو دنبال کنن. برخلاف مدلهای فعلی که فقط میتونن ترجیحات کاربر رو به خاطر بسپارن یا به سوالهای قبلی توی یه گفتوگو ارجاع بدن.
البته این دو پژوهشگر نسبت به خطرها هم هشدار دادن: از جمله جایگزینی شغلی، کاهش کنترل انسانی روی تصمیمهای عاملها و سخت شدن تفسیر عملکرد اونها.
نسخه کامل این مقاله رو میتونید از اینجا مشاهده و بررسی کنید.
@aipulse24
«دیوید سیلور» و «ریچارد اس. ساتن» توی این مقاله، از نسل جدیدی از ایجنتهای هوش مصنوعی حرف زدن که بهگفتهی خودشون میتونن مسیر رسیدن به «هوش فرابشری» رو هموار کنن. اونا نوشتن: «تو حوزههایی مثل ریاضی، برنامهنویسی و علوم، دانشی که از دادههای انسانی استخراج شده، داره به سقف خودش نزدیک میشه».
بهعلاوه، بهگفتهی این دو پژوهشگر، هوش مصنوعی مولد فعلاً توانایی اختراع چیزهای مفید یا کشف بینشهای جدیدی که خارج از مرزهای درک فعلی انسان باشه رو نداره.
اما این دو نفر کیان؟
«دیوید سیلور»، دانشمند علوم کامپیوتر، یکی از توسعهدهندههای اصلی AlphaGo ـه؛ برنامهای که در سال ۲۰۱۶ تونست قهرمان جهانی بازی Go، یعنی «لی سِدول» رو شکست بده.
«ریچارد اس. ساتن» هم از چهرههای تأثیرگذار توی حوزهی یادگیری تقویتیه و الگوریتمهای پایهای زیادی برای این حوزه توسعه داده. اون توی یه مقاله در سال ۲۰۱۹ پیشنهاد کرده بود که دانشمندان کامپیوتر باید از «فرا-روشها» استفاده کنن؛ یعنی تکنیکهایی که به سیستم اجازه میدن از دنیای پیچیده و نامنظم بیرونی یاد بگیره، نه فقط از دادههای ساختاریافته.
سیلور و ساتن یه چارچوب جدید برای تقسیمبندی روند رشد هوش مصنوعی توی ده سال اخیر معرفی کردن:
۱. دورهی شبیهسازی (Simulation Era) که با AlphaGo و تکنیکهای یادگیری ماشین همراه بود.
۲. دورهی دادههای انسانی (Human Data Era) که با ظهور GPT-3 شروع شد.
۳. دورهی تجربه (Experience Era) که از سال ۲۰۲۴ با معرفی AlphaProof، محصول دیپمایند بر پایهی یادگیری تقویتی، آغاز شده.
اونا اشاره کردن که AlphaProof تونسته توی المپیاد جهانی ریاضی مدال بگیره؛ اونم با یه الگوریتم تقویتی که از طریق تعامل مداوم با سیستم اثبات ریاضی یاد گرفته. بهجای اینکه بهش مستقیماً ریاضی یاد بدن، بهش انگیزهی رسیدن به پاداشهایی رو دادن که از حل مسائل ریاضی به دست میاومده.
بهنظر نویسندهها، یادگیری هوش مصنوعی میتونه از خود دنیا هم تغذیه بشه؛ چه از طریق مدلسازی شبیهسازیشده از جهان و چه از طریق دادههایی مثل سود مالی، نتایج آزمون یا مصرف انرژی.
اونا نوشتن: «این دادهها باید بهنحوی تولید بشن که با قویتر شدن ایجنت، خودشون هم بهتر بشن؛ چون اگه دادهها از یه روش ایستا تولید بشن، خیلی زود ایجنت اون روش رو پشت سر میذاره».
ایجنتهای هوش مصنوعی در عصر تجربه، ویژگیهای متفاوتی با مدلهای فعلی دارن:
۱- میتونن برای مدت طولانی روی هدفهای جاهطلبانه کار کنن.
۲- هم از محیط اطرافشون و هم از ورودیهای انسانی تغذیه میشن.
۳- انگیزهشون بر اساس تجربهی خودشونه، نه قضاوت انسانی.
۴- توانایی برنامهریزی و استدلال در مورد چیزهایی رو دارن که مستقل از انسان هستن.
هدف این ایجنتها فقط پاسخ دادن به سوالهای کاربران نیست؛ بلکه قراره هدفهایی طولانیمدت رو دنبال کنن. برخلاف مدلهای فعلی که فقط میتونن ترجیحات کاربر رو به خاطر بسپارن یا به سوالهای قبلی توی یه گفتوگو ارجاع بدن.
البته این دو پژوهشگر نسبت به خطرها هم هشدار دادن: از جمله جایگزینی شغلی، کاهش کنترل انسانی روی تصمیمهای عاملها و سخت شدن تفسیر عملکرد اونها.
نسخه کامل این مقاله رو میتونید از اینجا مشاهده و بررسی کنید.
@aipulse24


16.04.202514:05
دِمیس حسابیس، مدیرعامل گوگل دیپمایند، بهتازگی از طرف مجلهی تایم بهعنوان یکی از ۱۰۰ فرد تأثیرگذار سال ۲۰۲۵ معرفی شده و عکسش روی جلد این شماره قرار گرفته. حسابیس که با توسعهی هوش مصنوعی آلفافولد تونسته نقش بزرگی در شتابدادن به کشفهای علمی در حوزههای زیستشناسی و پزشکی ایفا کنه، امسال موفق به دریافت نوبل شیمی هم شده.
ابزارهایی که تیم اون ساخته، الان توی آزمایشگاههای زیادی در سراسر دنیا، از جمله برای مقابله با بیماریهای ژنتیکی نادر، مقاومت آنتیبیوتیکی و حتی چالشهای اقلیمی در کشاورزی استفاده میشن. نگاه حسابیس به زیستشناسی، نگاهی بینرشتهایه که از ترکیب علوم اعصاب، شناخت و محاسبات شکل گرفته؛ و این باعث شده نهتنها سیستمهای قدرتمند بسازه، بلکه فهم عمیقتری از حیات ارائه بده.
بهگفتهی تایم، آیندهی زیستشناسی مسیری مشترک، خلاقانه و میانرشتهای داره که حسابیس با کارهاش سرعت رسیدن به اون رو بیشتر کرده.
@aipulse24
ابزارهایی که تیم اون ساخته، الان توی آزمایشگاههای زیادی در سراسر دنیا، از جمله برای مقابله با بیماریهای ژنتیکی نادر، مقاومت آنتیبیوتیکی و حتی چالشهای اقلیمی در کشاورزی استفاده میشن. نگاه حسابیس به زیستشناسی، نگاهی بینرشتهایه که از ترکیب علوم اعصاب، شناخت و محاسبات شکل گرفته؛ و این باعث شده نهتنها سیستمهای قدرتمند بسازه، بلکه فهم عمیقتری از حیات ارائه بده.
بهگفتهی تایم، آیندهی زیستشناسی مسیری مشترک، خلاقانه و میانرشتهای داره که حسابیس با کارهاش سرعت رسیدن به اون رو بیشتر کرده.
@aipulse24
14.04.202518:48
OpenAI امروز از خانوادهی جدیدی از مدلهای هوش مصنوعی به نام GPT-4.1 رونمایی کرد. این مدلها شامل GPT-4.1، GPT-4.1 mini و GPT-4.1 nano هستن که همگی بهگفتهی OpenAI توی برنامهنویسی و پیروی از دستورها عملکرد خیلی خوبی دارن. این مدلها فقط از طریق API قابل دسترس هستن و هنوز وارد نسخهی ChatGPT نشدن. یکی از ویژگیهای برجستهی GPT-4.1 داشتن کانتکست ویندوی ۱ میلیون توکنیه که تقریباً معادل ۷۵۰ هزار کلمهست؛ یعنی میتونه متونی بلندتر از رمان «جنگ و صلح» رو یکجا پردازش کنه.
عرضهی GPT-4.1 در شرایطی انجام شده که رقابت بین شرکتهای بزرگی مثل گوگل، Anthropic و DeepSeek برای ساخت مدلهای برنامهنویس قدرتمندتر بالا گرفته. گوگل مدل Gemini 2.5 Pro رو عرضه کرده که اونم کانتکست ویندوی ۱ میلیونی داره و توی بنچمارکهای برنامهنویسی رتبههای بالایی کسب کرده. مدل Claude 3.7 Sonnet از شرکت Anthropic و نسخهی جدید DeepSeek V3 هم عملکرد قابل توجهی داشتن. OpenAI هم هدف نهایی خودش رو ساختن یک «مهندس نرم افزار در قالب یک ایجنت هوش مصنوعی» اعلام کرده؛ مدلی که بتونه بهتنهایی کل فرایند توسعهی اپلیکیشن، از تست و رفع باگ تا نوشتن مستندات، رو انجام بده.
بهگفتهی OpenAI، مدل GPT-4.1 نسبت به نسخههای قبلی مثل GPT-4o و GPT-4o mini توی بنچمارکهایی مثل SWE-bench عملکرد بهتری داره و دقیقتر کدنویسی میکنه، تغییرات غیرضروری کمتری میده و بهتر به فرمتها و ترتیب پاسخ پایبنده. نسخهی nano سریعترین و ارزانترین مدل تا الان شناخته شده. قیمت استفاده از این مدلها هم بهترتیب برای هر یک میلیون توکن ورودی/خروجی: GPT-4.1، معادل ۲ و ۸ دلار؛ mini، معادل ۰.۴ و ۱.۶ دلار؛ و nano، معادل ۰.۱ و ۰.۴ دلاره.
OpenAI همچنین اعلام کرده که GPT-4.1 در تست Video-MME که برای ارزیابی توانایی درک محتوای ویدیویی طراحی شده، تونسته به دقت ۷۲٪ توی بخش «ویدیوهای بلند بدون زیرنویس» برسه. با اینکه این مدل اطلاعات بهروزتری نسبت به نسخههای قبلی داره (تا ژوئن ۲۰۲۴)، اما همچنان ممکنه در انجام بعضی کارها اشتباه کنه؛ بهخصوص وقتی با ورودیهای خیلی طولانی مواجه میشه. طبق یکی از تستهای داخلی OpenAI، دقت مدل از حدود ۸۴٪ با ۸۰۰۰ توکن، به ۵۰٪ با ۱ میلیون توکن کاهش پیدا کرده. همچنین، GPT-4.1 نسبت به GPT-4o گرایش بیشتری به تفسیر تحتاللفظی داره و گاهی نیاز به دستورهای دقیقتر داره.
@aipulse24
عرضهی GPT-4.1 در شرایطی انجام شده که رقابت بین شرکتهای بزرگی مثل گوگل، Anthropic و DeepSeek برای ساخت مدلهای برنامهنویس قدرتمندتر بالا گرفته. گوگل مدل Gemini 2.5 Pro رو عرضه کرده که اونم کانتکست ویندوی ۱ میلیونی داره و توی بنچمارکهای برنامهنویسی رتبههای بالایی کسب کرده. مدل Claude 3.7 Sonnet از شرکت Anthropic و نسخهی جدید DeepSeek V3 هم عملکرد قابل توجهی داشتن. OpenAI هم هدف نهایی خودش رو ساختن یک «مهندس نرم افزار در قالب یک ایجنت هوش مصنوعی» اعلام کرده؛ مدلی که بتونه بهتنهایی کل فرایند توسعهی اپلیکیشن، از تست و رفع باگ تا نوشتن مستندات، رو انجام بده.
بهگفتهی OpenAI، مدل GPT-4.1 نسبت به نسخههای قبلی مثل GPT-4o و GPT-4o mini توی بنچمارکهایی مثل SWE-bench عملکرد بهتری داره و دقیقتر کدنویسی میکنه، تغییرات غیرضروری کمتری میده و بهتر به فرمتها و ترتیب پاسخ پایبنده. نسخهی nano سریعترین و ارزانترین مدل تا الان شناخته شده. قیمت استفاده از این مدلها هم بهترتیب برای هر یک میلیون توکن ورودی/خروجی: GPT-4.1، معادل ۲ و ۸ دلار؛ mini، معادل ۰.۴ و ۱.۶ دلار؛ و nano، معادل ۰.۱ و ۰.۴ دلاره.
OpenAI همچنین اعلام کرده که GPT-4.1 در تست Video-MME که برای ارزیابی توانایی درک محتوای ویدیویی طراحی شده، تونسته به دقت ۷۲٪ توی بخش «ویدیوهای بلند بدون زیرنویس» برسه. با اینکه این مدل اطلاعات بهروزتری نسبت به نسخههای قبلی داره (تا ژوئن ۲۰۲۴)، اما همچنان ممکنه در انجام بعضی کارها اشتباه کنه؛ بهخصوص وقتی با ورودیهای خیلی طولانی مواجه میشه. طبق یکی از تستهای داخلی OpenAI، دقت مدل از حدود ۸۴٪ با ۸۰۰۰ توکن، به ۵۰٪ با ۱ میلیون توکن کاهش پیدا کرده. همچنین، GPT-4.1 نسبت به GPT-4o گرایش بیشتری به تفسیر تحتاللفظی داره و گاهی نیاز به دستورهای دقیقتر داره.
@aipulse24


12.04.202504:26
مدل OmniHuman ریلیز شد با اسم جدید Dreamina
به صورت فری تقریبا روزی یه دونه ویدیو میده که اونم من خرج شما عزیزان کردم😂😂
هعی:)) همه اش فداکاری😭
ولی محدودیتش زیاده توی وویس اول هم کلمه احمق داشتم و هم نارنجک مجبور شدم هردو رو حذف کنم تا جنریت کنه
ولی کیفیتش خیلی خوبه
با اکانت capcut میتونین ازش استفاده کنید.
Dreamina.capcut.com
@aipulse
به صورت فری تقریبا روزی یه دونه ویدیو میده که اونم من خرج شما عزیزان کردم😂😂
هعی:)) همه اش فداکاری😭
ولی محدودیتش زیاده توی وویس اول هم کلمه احمق داشتم و هم نارنجک مجبور شدم هردو رو حذف کنم تا جنریت کنه
ولی کیفیتش خیلی خوبه
با اکانت capcut میتونین ازش استفاده کنید.
Dreamina.capcut.com
@aipulse


10.04.202513:03
شرکت xAI بالاخره API مخصوص مدل پرچمدار خودش یعنی Grok 3 رو راهاندازی کرده. این مدل شامل چند نسخه مختلفه از جمله Grok 3 Mini، Grok 3 Reasoning و نسخه Mini اون با قابلیت «استدلال». کاربران میتونن به دو نسخه اصلی یعنی Grok 3 و Grok 3 Mini از طریق API دسترسی داشته باشن، و قیمتگذاری بسته به میزان توکنهای ورودی یا خروجی محاسبه میشه.
نسخه استاندارد Grok 3 با قیمت ۳ دلار برای هر میلیون توکن ورودی و ۱۵ دلار برای هر میلیون توکن خروجی عرضه شده، در حالی که Grok 3 Mini با نرخ پایینتر ۰.۳۰ دلار برای ورودی و ۰.۵۰ دلار برای خروجی در دسترسه. نسخههای سریعتر این مدلها هم با هزینه بیشتر ارائه میشن، بهطوری که استفاده از Grok 3 در حالت پرسرعت، ۵ دلار برای ورودی و ۲۵ دلار برای خروجی هزینه داره.
@aipulse24
نسخه استاندارد Grok 3 با قیمت ۳ دلار برای هر میلیون توکن ورودی و ۱۵ دلار برای هر میلیون توکن خروجی عرضه شده، در حالی که Grok 3 Mini با نرخ پایینتر ۰.۳۰ دلار برای ورودی و ۰.۵۰ دلار برای خروجی در دسترسه. نسخههای سریعتر این مدلها هم با هزینه بیشتر ارائه میشن، بهطوری که استفاده از Grok 3 در حالت پرسرعت، ۵ دلار برای ورودی و ۲۵ دلار برای خروجی هزینه داره.
@aipulse24
10.04.202507:30
گوگل با همکاری بیش از ۵۰ شرکت فناوری، از پروتکل جدید و متنباز «Agent2Agent» یا بهاختصار A2A رونمایی کرده؛ پروتکلی که با هدف تعامل و همکاری بین ایجنتهای هوش مصنوعی طراحی شده و قراره نقطهی عطفی در مسیر ساخت اکوسیستم چندایجنتی باشه. ایجنتهای هوش مصنوعی، ابزارهایی هستن که میتونن بهطور خودکار وظایف مختلفی رو انجام بدن؛ از کمک به کارمندان پشتیبانی تا برنامهریزی زنجیره تأمین. حالا A2A این ایجنتها رو قادر میکنه تا حتی اگه از شرکتهای مختلف یا با چارچوبهای متفاوت ساخته شده باشن، بتونن با هم ارتباط برقرار کنن و همکاری کنن.
پروتکل A2A بر پایهی استانداردهای شناختهشدهای مثل HTTP و JSON-RPC توسعه داده شده و بهصورت پیشفرض از امنیت در سطح سازمانی پشتیبانی میکنه. این پروتکل همچنین از وظایف طولانیمدت، تعاملهای چندرسانهای (مثل صدا و ویدیو) و سناریوهای پیچیده پشتیبانی میکنه. ایجنتها از طریق یک «Agent Card» قابلیتهای خودشون رو معرفی میکنن تا ایجنتهای دیگه بتونن بهترین همکار ممکن رو برای انجام یک وظیفه پیدا کنن.
در یکی از نمونههای کاربردی، یک مدیر استخدام میتونه به ایجنت خودش وظیفهی پیدا کردن برنامهنویسان مناسب رو بده. این ایجنت با ایجنتهای دیگه ارتباط میگیره، اطلاعات لازم رو جمع میکنه و حتی هماهنگی برای مصاحبه و بررسی سوابق رو هم به ایجنتهای دیگه واگذار میکنه. چنین همکاریای فقط از طریق یک بستر مشترک مثل A2A ممکنه.
گوگل اعلام کرده که نسخهی نهایی و آمادهبهکار این پروتکل قراره تا پایان امسال با همکاری جامعهی متنباز و شرکای فناوری عرضه بشه.
@aipulse24
پروتکل A2A بر پایهی استانداردهای شناختهشدهای مثل HTTP و JSON-RPC توسعه داده شده و بهصورت پیشفرض از امنیت در سطح سازمانی پشتیبانی میکنه. این پروتکل همچنین از وظایف طولانیمدت، تعاملهای چندرسانهای (مثل صدا و ویدیو) و سناریوهای پیچیده پشتیبانی میکنه. ایجنتها از طریق یک «Agent Card» قابلیتهای خودشون رو معرفی میکنن تا ایجنتهای دیگه بتونن بهترین همکار ممکن رو برای انجام یک وظیفه پیدا کنن.
در یکی از نمونههای کاربردی، یک مدیر استخدام میتونه به ایجنت خودش وظیفهی پیدا کردن برنامهنویسان مناسب رو بده. این ایجنت با ایجنتهای دیگه ارتباط میگیره، اطلاعات لازم رو جمع میکنه و حتی هماهنگی برای مصاحبه و بررسی سوابق رو هم به ایجنتهای دیگه واگذار میکنه. چنین همکاریای فقط از طریق یک بستر مشترک مثل A2A ممکنه.
گوگل اعلام کرده که نسخهی نهایی و آمادهبهکار این پروتکل قراره تا پایان امسال با همکاری جامعهی متنباز و شرکای فناوری عرضه بشه.
@aipulse24
22.04.202513:54
این اقای عزیزی که در این ویدیو هست اسمش چانگین لی عه و دانشجوی دانشگاه کلمبیا امریکا بوده.
ایشون یک ابزاری میسازه که کارش تقلب توی تسک های کدنویسی مصاحبه های کاری بوده و با همین ابزار توی کاراموزی آمازون قبول میشه!
در نهایت به خاطر ساخت این ابزار، دانشگاه کلمبیا تعلیقش میکنه😭😭
خبر تعلیق شدنش توی شکبه X وایرال میشه و باعث معروف شدن محصولش میشه و الان این محصول به صورت تخمینی سالانه ۳ میلیون دلار درامد داره!
ایشون هم فرصت رو غنیمت میشمره و محصول رو گسترش میده حالا میشه توی تماس های فروش، هر مصاحبه ای و امتحانات هم ازش برای تقلب استفاده کرد.
روش کار هم یک صفحه مخفی داخل مرورگر هست که فرد مقابل قادر به دیدنش نیست.
بعد از این موفقیت ایشون تصمیم میگیره تا یک شرکت بزنه و کل این محصولات رو ببره زیر مجموعه اش به اسم Cluely که الان تونسته ۵ میلیون دلار هم برای توسعه محصولش فاندینگ بگیره!
این ویدیو هم بخشی از تبلیغاتش هست برای محصولی که دراینده قراره ارائه بده و به گفته خودش میتونید "تو همه چی تقلب کنید".
خلاصه عزیزان سینگل فعلا تا اطلاع ثانوی دیت نرید تا ببینیم چه خاکی به سرمون کنیم😭😭😭
@aipulse24
ایشون یک ابزاری میسازه که کارش تقلب توی تسک های کدنویسی مصاحبه های کاری بوده و با همین ابزار توی کاراموزی آمازون قبول میشه!
در نهایت به خاطر ساخت این ابزار، دانشگاه کلمبیا تعلیقش میکنه😭😭
خبر تعلیق شدنش توی شکبه X وایرال میشه و باعث معروف شدن محصولش میشه و الان این محصول به صورت تخمینی سالانه ۳ میلیون دلار درامد داره!
ایشون هم فرصت رو غنیمت میشمره و محصول رو گسترش میده حالا میشه توی تماس های فروش، هر مصاحبه ای و امتحانات هم ازش برای تقلب استفاده کرد.
روش کار هم یک صفحه مخفی داخل مرورگر هست که فرد مقابل قادر به دیدنش نیست.
بعد از این موفقیت ایشون تصمیم میگیره تا یک شرکت بزنه و کل این محصولات رو ببره زیر مجموعه اش به اسم Cluely که الان تونسته ۵ میلیون دلار هم برای توسعه محصولش فاندینگ بگیره!
این ویدیو هم بخشی از تبلیغاتش هست برای محصولی که دراینده قراره ارائه بده و به گفته خودش میتونید "تو همه چی تقلب کنید".
خلاصه عزیزان سینگل فعلا تا اطلاع ثانوی دیت نرید تا ببینیم چه خاکی به سرمون کنیم😭😭😭
@aipulse24


16.04.202511:47
دوستان خیاط در کوزه افتاد😃😃
دیروز Cursor دچار یک باگ شده که اجازه نمیداده یوزر ها با یک اکانت روی دستگاه های مختلف وارد اکانتشون بشن.
وقتی این باگ اتفاق افتاده افراد از chatbot پیشتیبانی سوال کردن که چرا این اتفاق افتاده. اون بزرگوار هم توهم زده و گفته این سیاست جدید شرکته😭😭
دلوپرهام شاکی شدن و یه تعداد خیلیییی زیادی اشتراک هاشون رو کنسل کردن.
بعد تازه افراد توی cursor فهمیدن چی شده:))
و عذرخواهی کردن (توی عکس اون ریپلای فاندر شرکت هست)
خلاصه وقتی human in the loop رو حذف میکنی این میشه:)))
@aipulse24
دیروز Cursor دچار یک باگ شده که اجازه نمیداده یوزر ها با یک اکانت روی دستگاه های مختلف وارد اکانتشون بشن.
وقتی این باگ اتفاق افتاده افراد از chatbot پیشتیبانی سوال کردن که چرا این اتفاق افتاده. اون بزرگوار هم توهم زده و گفته این سیاست جدید شرکته😭😭
دلوپرهام شاکی شدن و یه تعداد خیلیییی زیادی اشتراک هاشون رو کنسل کردن.
بعد تازه افراد توی cursor فهمیدن چی شده:))
و عذرخواهی کردن (توی عکس اون ریپلای فاندر شرکت هست)
خلاصه وقتی human in the loop رو حذف میکنی این میشه:)))
@aipulse24


13.04.202512:16
خانم Sarah Friar مدیر ارشد مالی شرکت اوپنایآی (CFO) در مصاحبه اخیرش گفته OpenAI داره روی یک مهندس نرمافزار در قالب یک ایجنت هوش مصنوعی کار میکنه که برخلاف ابزارهای کنونی که صرفا سرعت توسعه نرم افزار رو افزایش میدن، این ایجنت میتونه علاوه بر ساخت اپلیکیشن، Pull Request هارو هندل کنه، پیرامون برنامه توسعه داده شده پرسش و پاسخ داشته باشه، باگ هارو فیکس کنه و حتی برای برنامه داکیومنت بنویسه.
@aipulse24
@aipulse24


11.04.202520:28
یه اپدیت از این بزرگوار بدیم
دارن رو توانایی های مشت زنیشون کار میکنن😭😭
@aipulse24
دارن رو توانایی های مشت زنیشون کار میکنن😭😭
@aipulse24


10.04.202509:01
و در ادامه! گوگل از نسخه پیشنمایش «Firebase Studio» رونمایی کرده؛ یک محیط توسعه ابری و هوشمند که طراحی شده تا ساخت، تست، استقرار و اجرای اپهای ساخته شده با هوش مصنوعی رو سریعتر و سادهتر کنه. این ابزار جدید در راستای هدف فایربیس برای سادهسازی توسعه فولاستک طراحی شده و بهگونهای ساخته شده که هم برای تازهکارها و هم برای توسعهدهندههای حرفهای کاربردی باشه. از پروتوتایپسازی با زبان طبیعی گرفته تا استفاده از ماشین مجازی قابل تنظیم، همه چیز توی یه پلتفرم یکپارچه جمع شده.
این ابزار که مشابه v0، bolt و cursor هست ترکیبیه از ابزارهایی مثل Project IDX، Genkit و Gemini in Firebase؛ و به توسعهدهندهها این امکان رو میده که در همون محیط، سریع نمونه اولیه بسازن، کد بزنن، پیشنمایش بگیرن، و در نهایت پروژه رو منتشر کنن. مثلاً با کمک «App Prototyping agent» میتونین با یه پرامپت ساده یا حتی یه عکس، خیلی سریع یه اپ Next.js تولید کنین.
یکی از قابلیتهای جذاب دیگه، تعامل مستقیم با Gemini داخل خود Firebase Studio هست. کاربر میتونه با نوشتن یه دستور ساده مثل «احراز هویت کاربر رو اضافه کن» یا «رنگ دکمهها رو تغییر بده»، تغییرات لازم رو توی اپش اعمال کنه، بدون اینکه خودش به کد دست بزنه. البته اگه کسی بخواد، میتونه مستقیماً وارد محیط کدنویسی بشه و مثل یه IDE کامل، از قابلیتهایی مثل تکمیل کد، دیباگ، ترمینال و... استفاده کنه.
برای تست پروژه هم نیازی به دانش فنی بالایی نیست. میتونین یه لینک عمومی یا QR code بسازین و روی هر دستگاهی پیشنمایش بگیرین. بعد از اطمینان از نتیجه، فقط کافیه روی «Publish» کلیک کنین تا پروژهتون با استفاده از Firebase App Hosting بهصورت کامل روی وب منتشر بشه.
در نهایت، Firebase Studio امکاناتی مثل همکاری همزمان روی پروژه، اشتراکگذاری محیط توسعه با لینک، دسترسی به ماشین مجازی ابری قابل تنظیم، و حتی استفاده از قالبهای آماده یا ایمپورت پروژههای قدیمی رو هم فراهم کرده.
برای شروع، فقط کافیه وارد این لینک بشین.
@aipulse24
این ابزار که مشابه v0، bolt و cursor هست ترکیبیه از ابزارهایی مثل Project IDX، Genkit و Gemini in Firebase؛ و به توسعهدهندهها این امکان رو میده که در همون محیط، سریع نمونه اولیه بسازن، کد بزنن، پیشنمایش بگیرن، و در نهایت پروژه رو منتشر کنن. مثلاً با کمک «App Prototyping agent» میتونین با یه پرامپت ساده یا حتی یه عکس، خیلی سریع یه اپ Next.js تولید کنین.
یکی از قابلیتهای جذاب دیگه، تعامل مستقیم با Gemini داخل خود Firebase Studio هست. کاربر میتونه با نوشتن یه دستور ساده مثل «احراز هویت کاربر رو اضافه کن» یا «رنگ دکمهها رو تغییر بده»، تغییرات لازم رو توی اپش اعمال کنه، بدون اینکه خودش به کد دست بزنه. البته اگه کسی بخواد، میتونه مستقیماً وارد محیط کدنویسی بشه و مثل یه IDE کامل، از قابلیتهایی مثل تکمیل کد، دیباگ، ترمینال و... استفاده کنه.
برای تست پروژه هم نیازی به دانش فنی بالایی نیست. میتونین یه لینک عمومی یا QR code بسازین و روی هر دستگاهی پیشنمایش بگیرین. بعد از اطمینان از نتیجه، فقط کافیه روی «Publish» کلیک کنین تا پروژهتون با استفاده از Firebase App Hosting بهصورت کامل روی وب منتشر بشه.
در نهایت، Firebase Studio امکاناتی مثل همکاری همزمان روی پروژه، اشتراکگذاری محیط توسعه با لینک، دسترسی به ماشین مجازی ابری قابل تنظیم، و حتی استفاده از قالبهای آماده یا ایمپورت پروژههای قدیمی رو هم فراهم کرده.
برای شروع، فقط کافیه وارد این لینک بشین.
@aipulse24
10.04.202507:04
گوگل در رویداد Next 25 از نسل هفتم شتابدهنده اختصاصی خودش با نام Ironwood رونمایی کرد؛ قویترین و مقیاسپذیرترین TPU تاریخ این شرکت که بهطور ویژه برای اجرای مدلهای Inference طراحی شده. این چیپ جدید قراره پایهگذار «عصر Inference» باشه؛ دورانی که مدلهای هوش مصنوعی نه فقط به سوالها پاسخ میدن، بلکه خودشون به تولید و تفسیر داده هم میپردازن.
Ironwood در دو پیکربندی ۲۵۶ و ۹۲۱۶ چیپ عرضه میشه و در حالت کامل، قدرت پردازشیاش به ۴۲.۵ اگزافلاپس میرسه؛ یعنی بیش از ۲۴ برابر قویتر از ابررایانه El Capitan. هر چیپ هم تا ۴۶۱۴ ترافلاپس قدرت داره و بهرهوری انرژی اون نسبت به نسل قبل (Trillium) دو برابر شده. این نسل از سیستم خنککننده مایع استفاده میکنه و به گفته گوگل، ۳۰ برابر کممصرفتر از Cloud TPU v2ـه.
از نظر فنی، Ironwood از حافظه ۱۹۲ گیگابایتی HBM (۶ برابر بیشتر از Trillium) با پهنای باند ۷.۲ ترابیت بر ثانیه بهره میبره. شبکه ارتباطی Inter-Chip Interconnect هم با پهنای باند ۱.۲ ترابیت دوطرفه، اتصال سریع بین هزاران چیپ رو ممکن کرده. ماژول SparseCore در این نسل بهبود پیدا کرده و حالا میتونه در حوزههایی مثل محاسبات مالی و علمی هم استفاده بشه.
همچنین گوگل از نرمافزار اختصاصی Pathways برای اجرای توزیعشده مدلها روی صدها هزار چیپ Ironwood استفاده کرده؛ کاری که توسعه سریعتر مدلهای بزرگ مولد مثل Gemini 2.5 و AlphaFold رو ممکن میکنه. Ironwood از اواخر امسال در اختیار توسعهدهندهها و مشتریان Google Cloud قرار میگیره.
@aipulse24
Ironwood در دو پیکربندی ۲۵۶ و ۹۲۱۶ چیپ عرضه میشه و در حالت کامل، قدرت پردازشیاش به ۴۲.۵ اگزافلاپس میرسه؛ یعنی بیش از ۲۴ برابر قویتر از ابررایانه El Capitan. هر چیپ هم تا ۴۶۱۴ ترافلاپس قدرت داره و بهرهوری انرژی اون نسبت به نسل قبل (Trillium) دو برابر شده. این نسل از سیستم خنککننده مایع استفاده میکنه و به گفته گوگل، ۳۰ برابر کممصرفتر از Cloud TPU v2ـه.
از نظر فنی، Ironwood از حافظه ۱۹۲ گیگابایتی HBM (۶ برابر بیشتر از Trillium) با پهنای باند ۷.۲ ترابیت بر ثانیه بهره میبره. شبکه ارتباطی Inter-Chip Interconnect هم با پهنای باند ۱.۲ ترابیت دوطرفه، اتصال سریع بین هزاران چیپ رو ممکن کرده. ماژول SparseCore در این نسل بهبود پیدا کرده و حالا میتونه در حوزههایی مثل محاسبات مالی و علمی هم استفاده بشه.
همچنین گوگل از نرمافزار اختصاصی Pathways برای اجرای توزیعشده مدلها روی صدها هزار چیپ Ironwood استفاده کرده؛ کاری که توسعه سریعتر مدلهای بزرگ مولد مثل Gemini 2.5 و AlphaFold رو ممکن میکنه. Ironwood از اواخر امسال در اختیار توسعهدهندهها و مشتریان Google Cloud قرار میگیره.
@aipulse24


18.04.202514:32
عزیزان هر روز داریم توی یه فیلم و سریال زندگی میکنیم
این قسمت Adams Family 😭😭
یه شرکت بریتانیایی به اسم Open Bionics، بعد از چهار سال کار، بالاخره نسخه جدیدی از دست رباتیک خودش به اسم Hero رو معرفی کرده که به گفته خودشون پیشرفتهترین دست بایونیکی دنیاست. این دست از یه سری الکترود بیسیم به اسم MyoPods استفاده میکنه که روی بازوی فرد قطع عضو قرار میگیرن و سیگنالهای عضله رو میخونن. بعد اون سیگنالها رو به حرکت انگشتای رباتیک تبدیل میکنه.
حقیقتا 💖 چه جالب 💖
همین دیگه من میرم بقیه اشو اینجا بخونم 😦
@aipulse24
این قسمت Adams Family 😭😭
یه شرکت بریتانیایی به اسم Open Bionics، بعد از چهار سال کار، بالاخره نسخه جدیدی از دست رباتیک خودش به اسم Hero رو معرفی کرده که به گفته خودشون پیشرفتهترین دست بایونیکی دنیاست. این دست از یه سری الکترود بیسیم به اسم MyoPods استفاده میکنه که روی بازوی فرد قطع عضو قرار میگیرن و سیگنالهای عضله رو میخونن. بعد اون سیگنالها رو به حرکت انگشتای رباتیک تبدیل میکنه.
حقیقتا 💖 چه جالب 💖
همین دیگه من میرم بقیه اشو اینجا بخونم 😦
@aipulse24
post.media.noAccess
15.04.202508:57
توی دنیای هوش مصنوعی، یه شاخه خیلی مهم به اسم «یادگیری تقویتی» (Reinforcement Learning یا به اختصار RL) وجود داره. توی این روش، یه مدل یاد میگیره که چطور تصمیم بگیره تا به بهترین نتیجه برسه؛ درست مثل یه بازی که بازیکن با آزمون و خطا سعی میکنه امتیاز بیشتری بگیره. مدل با گرفتن پاداش یا جریمه از محیط، کمکم یاد میگیره چه کارهایی درسته و چه کارهایی نه.
حالا «دیوید سیلور» یکی از دانشمندان Google DeepMind یه نکته هیجانانگیز رو افشا کرده: «ما یه سیستمی ساختیم که با استفاده از یادگیری تقویتی، تونست خودش الگوریتمهای یادگیری تقویتی طراحی کنه.» به گفته سیلور، این سیستم که خودش با هوش مصنوعی ساخته شده، از تمام الگوریتمهای RL که طی سالها توسط انسانها طراحی شده بودن، عملکرد بهتری داشته.
@aipulse24
حالا «دیوید سیلور» یکی از دانشمندان Google DeepMind یه نکته هیجانانگیز رو افشا کرده: «ما یه سیستمی ساختیم که با استفاده از یادگیری تقویتی، تونست خودش الگوریتمهای یادگیری تقویتی طراحی کنه.» به گفته سیلور، این سیستم که خودش با هوش مصنوعی ساخته شده، از تمام الگوریتمهای RL که طی سالها توسط انسانها طراحی شده بودن، عملکرد بهتری داشته.
@aipulse24


13.04.202501:19
اکی عزیزان فعلا تحقیقاتم تا همینجا قد داده
از اونجایی که این حوزه داره تازه شکل میگیره هنوز منابع زیادی براش نیست
که خوب خودش نشون میده زمینه ای هست که شاید بد نباشه یه نگاهی بهش داشته باشید و کلا دنبالش کنید
البته این مسیرها و اطلاعات بر این پایه هست که یک فرد برنامه نویس قصد داره وارد حوزه تخصصی AgentOps بشه پس یه سری اصول اولیه رو میدونه
چیزی که تو منابع مختلف اغلب تکرار شده
1. یادگیری مهندسی پرامپت هست نه پرامپت های معمولی بلکه چیزی که دولوپرها بهش نیاز دارن که Andrew Ng یک کورس توی همین زمینه داره
2. بعد از اون یادگرفتن فریمورک های مختلف ساخت ایجنت هست مثل LangChain
3. و بعد از اون فریم ورک هایی هست که به ایجنت ها امکان استفاده از ابزارها رو میده چیزهایی مثل MCP
4. قبل این ها هم انتظار میره نکات پایه ای تر مثل نحوه کار API ها، ساخت ایجنت های مبتنی بر RAG رو بلد باشید.
@aipluse24
از اونجایی که این حوزه داره تازه شکل میگیره هنوز منابع زیادی براش نیست
که خوب خودش نشون میده زمینه ای هست که شاید بد نباشه یه نگاهی بهش داشته باشید و کلا دنبالش کنید
البته این مسیرها و اطلاعات بر این پایه هست که یک فرد برنامه نویس قصد داره وارد حوزه تخصصی AgentOps بشه پس یه سری اصول اولیه رو میدونه
چیزی که تو منابع مختلف اغلب تکرار شده
1. یادگیری مهندسی پرامپت هست نه پرامپت های معمولی بلکه چیزی که دولوپرها بهش نیاز دارن که Andrew Ng یک کورس توی همین زمینه داره
2. بعد از اون یادگرفتن فریمورک های مختلف ساخت ایجنت هست مثل LangChain
3. و بعد از اون فریم ورک هایی هست که به ایجنت ها امکان استفاده از ابزارها رو میده چیزهایی مثل MCP
4. قبل این ها هم انتظار میره نکات پایه ای تر مثل نحوه کار API ها، ساخت ایجنت های مبتنی بر RAG رو بلد باشید.
@aipluse24


11.04.202512:43
یک مدل مرموز چند روزه به Openrouter اضافه شده با عنوان Quasar Alpha که احتمال میره برای openai باشه و درحال تست قابلیت هاش هست.
مدل context window یک میلیونی داره، ۴برابر سریع تر از sonnet 3.7 هست و قابلیت های کدینگش نزدیک به بهترین مدل هاست
علت اینکه احساس میشه برای OpenAi باشه اینه که هم استایل و هم متا دیتا مدل مشابه مدل های OpenAi هست و سم التمن هم توی جواب یک تویئت که توی عکس میینید این رو تایید کرده که مدل برای OpenAi هست.
اینم جهت سیگنچر کار: 🍽
@aipulse24
مدل context window یک میلیونی داره، ۴برابر سریع تر از sonnet 3.7 هست و قابلیت های کدینگش نزدیک به بهترین مدل هاست
علت اینکه احساس میشه برای OpenAi باشه اینه که هم استایل و هم متا دیتا مدل مشابه مدل های OpenAi هست و سم التمن هم توی جواب یک تویئت که توی عکس میینید این رو تایید کرده که مدل برای OpenAi هست.
اینم جهت سیگنچر کار: 🍽
@aipulse24


10.04.202508:31
گوگل همچنین از رابط کاربری جدید AI Studio رونمایی کرده که مورد استقبال گسترده کاربران قرار گرفته و نسبت به قبل سهولت بیشتری در استفاده رو برای کاربران فراهم میکنه.
@aipulse24
@aipulse24


09.04.202511:09
💻پست مهم 💻
پژوهش های خیلی زیادی در رابطه با تحول نیروی کار و نحوه کار شرکت ها بعد از عرضه مدل های زبانی انجام شده
خیلی از اون ها به شرایط حذف انسان ها از نیروهای شرکت های مختلف و جایگزینی اونها با هوش مصنوعی پرداختن. درمورد یکی از این پژوهش ها اینجا حرف زدیم.
🔥 حالا بیاید درمورد شغل هایی که قرار بعد از رایج تر شدن هوش مصنوعی ایجاد بشن حرف بزنیم! 🔥
یکی از اون شغل ها به گفته گوگل AgentOps هست.
ایجنت یک نرم افزار برنامه ریزی شده است که با درک شرایط و contextی که در اون قرار داره با استفاده از ابزارهایی که دراختیار داره یک سری اهداف رو به سرانجام میرسونه. مثلا؟! مثلا دستیارهای خرید، کالایی که میخواید رو بهش میدید، براتون سرچ میکنه بهترین قیمت رو پیدا میکنه و خرید رو نهایی میکنه
یک ایجنت شامل مدل زبانی، ابزارها و فرایندهایی میشه که باید برای انجام وظایفش طی کنه.
اگر با GenAi کار کرده باشید متوجه میشید که رسیدن از یه ایده به proof of concept یا طرح اولیه خیلی خیلی ساده است اما رسیدن به یه نتیجه موندگار و قابل اطمینان خیلی کار میبره!
اینجاست که ✨AgentOps✨ وارد میشه!
هدف وجودی این شغل اینه که ایجنت ها با بهروری بالایی بتونن توی سازمان مورد استفاده قرار بگیرن
توی این مدت ۲ سال ساختار MLops یا GenAiOps خیلی رواج پیدا کرد و حالا AgentOps زیر مجموعه این ساختار هست که کارش مدیریت ابزارهایی که ایجنت استفاده میکنه، مدیریت پرامپت اصلی ایجنت، هماهنگی فرایندهاش، حافظه و تقسیم بندی وظایف ایجنت هست.
به طور کلی این شغل زیر مجموعه بخش Ops هر سازمان میگیره
😀در بالای این اکوسیستم DevOps قرار داره که کارش وصل کردن تیم توسعه و تیم عملیات به همه این بخش سعی میکنه برنامه هایی که توسعه دهنده ها نوشتن بدون خطا، امن و سریع بره روی سرور ها
😀بعدش MLOps هست که همون کار DevOps رو میکنه ولی برای مدل های یادگیری ماشین، واسه همین کارش خیلی داده محوره
😀 باز زیر مجموعه اون FMOps هست که کارش توسعه مدل های زبانی کارامده که بشه واقعا توی کار ازشون استفاده کرد
😀بعدی PromptOps هست که کارش حفظ و عملیاتی کردن پرامپت هاست، کازش اینه پرامپت ایجاد کنه، اثرات پرامپت مختلف رو بررسی کنه و دایم بهینه کنه
😀 بعدی RAGops هست که کارش اینه بتونه به صورت کارامد داده های سازمانی رو بازیابی کنه و اونهارو به خوبی توی دیتابیس نگه داره و درنهایت درزمان نیاز به خوبی اونهارو به کاربر برسونه
تا اینجا این ابزارها داشتن شرایط رو فراهم میکردن تا داده ها و مدل های ما اماده باشن تا بتونن واقعا واسه ما کاری انجام بدن!
🏆 حالا اینجا AgentOps وارد میشه روی قابلیت هایی که بقیه بخش ها ساختن سوار میشه و با استفاده از ابزارها و مدل ها زبانی و داده هایی که بخش های قبلی ساختن ایجنت هایی ایجاد میکنه تا یه سری تسک رو به سر انجام برسونن!🏆
😀 تا اخر این هفته مسیر یادگیری و منابعی که برای وارد شدن به این حوزه نیاز دارید رو جمع اوری می کنم و در قالب یه پست دیگه میزنم😀
@aipulse24
پژوهش های خیلی زیادی در رابطه با تحول نیروی کار و نحوه کار شرکت ها بعد از عرضه مدل های زبانی انجام شده
خیلی از اون ها به شرایط حذف انسان ها از نیروهای شرکت های مختلف و جایگزینی اونها با هوش مصنوعی پرداختن. درمورد یکی از این پژوهش ها اینجا حرف زدیم.
🔥 حالا بیاید درمورد شغل هایی که قرار بعد از رایج تر شدن هوش مصنوعی ایجاد بشن حرف بزنیم! 🔥
یکی از اون شغل ها به گفته گوگل AgentOps هست.
ایجنت یک نرم افزار برنامه ریزی شده است که با درک شرایط و contextی که در اون قرار داره با استفاده از ابزارهایی که دراختیار داره یک سری اهداف رو به سرانجام میرسونه. مثلا؟! مثلا دستیارهای خرید، کالایی که میخواید رو بهش میدید، براتون سرچ میکنه بهترین قیمت رو پیدا میکنه و خرید رو نهایی میکنه
یک ایجنت شامل مدل زبانی، ابزارها و فرایندهایی میشه که باید برای انجام وظایفش طی کنه.
اگر با GenAi کار کرده باشید متوجه میشید که رسیدن از یه ایده به proof of concept یا طرح اولیه خیلی خیلی ساده است اما رسیدن به یه نتیجه موندگار و قابل اطمینان خیلی کار میبره!
اینجاست که ✨AgentOps✨ وارد میشه!
هدف وجودی این شغل اینه که ایجنت ها با بهروری بالایی بتونن توی سازمان مورد استفاده قرار بگیرن
توی این مدت ۲ سال ساختار MLops یا GenAiOps خیلی رواج پیدا کرد و حالا AgentOps زیر مجموعه این ساختار هست که کارش مدیریت ابزارهایی که ایجنت استفاده میکنه، مدیریت پرامپت اصلی ایجنت، هماهنگی فرایندهاش، حافظه و تقسیم بندی وظایف ایجنت هست.
به طور کلی این شغل زیر مجموعه بخش Ops هر سازمان میگیره
😀در بالای این اکوسیستم DevOps قرار داره که کارش وصل کردن تیم توسعه و تیم عملیات به همه این بخش سعی میکنه برنامه هایی که توسعه دهنده ها نوشتن بدون خطا، امن و سریع بره روی سرور ها
😀بعدش MLOps هست که همون کار DevOps رو میکنه ولی برای مدل های یادگیری ماشین، واسه همین کارش خیلی داده محوره
😀 باز زیر مجموعه اون FMOps هست که کارش توسعه مدل های زبانی کارامده که بشه واقعا توی کار ازشون استفاده کرد
😀بعدی PromptOps هست که کارش حفظ و عملیاتی کردن پرامپت هاست، کازش اینه پرامپت ایجاد کنه، اثرات پرامپت مختلف رو بررسی کنه و دایم بهینه کنه
😀 بعدی RAGops هست که کارش اینه بتونه به صورت کارامد داده های سازمانی رو بازیابی کنه و اونهارو به خوبی توی دیتابیس نگه داره و درنهایت درزمان نیاز به خوبی اونهارو به کاربر برسونه
تا اینجا این ابزارها داشتن شرایط رو فراهم میکردن تا داده ها و مدل های ما اماده باشن تا بتونن واقعا واسه ما کاری انجام بدن!
🏆 حالا اینجا AgentOps وارد میشه روی قابلیت هایی که بقیه بخش ها ساختن سوار میشه و با استفاده از ابزارها و مدل ها زبانی و داده هایی که بخش های قبلی ساختن ایجنت هایی ایجاد میکنه تا یه سری تسک رو به سر انجام برسونن!🏆
😀 تا اخر این هفته مسیر یادگیری و منابعی که برای وارد شدن به این حوزه نیاز دارید رو جمع اوری می کنم و در قالب یه پست دیگه میزنم😀
@aipulse24


17.04.202512:22
چجوری بفهمیم بهترین مدل برای استفاده ما چیه؟
۱. بنچ مارک ها. بنچ مارک کلا یعنی مقایسه عملکرد یه چیزی نسبت به یه مقیاس مشخصی
شرکت ها و موسسات خیلیی خیلی زیادی ایجاد شدن که کارشون همینه
روش های متنوع هم براش هست
یکی از معروف ترین هاش اینجا توضیح دادم
کارش اینه که دوتا مدل رو میزاره جلوی کاربر تا استفاده کنه بدون اینکه کاربر بدونه مدل ها کدومن بعد میگی بگو کدوم بهتر بودن و براساس تعداد ارایی که برای هر مدل میگیره عملکرد رو مشخص میکنه
روش دیگه یک سری تست و ازمون هست مثلا یه سری سوال برنامه نویسیه یا یه سری سوال ریاضیه یا اخیرا خود اوپن ai اومده و یک بنچ مارک درست کرده برای سطح ادراک مدل ها از مقالات علمی که راجع به مقالات ارایه شده توی ICML 2024 سوال کرده که یک کنفرانس خفن برنامه نویسی هست و سطح شون رو بررسی کرده و این یکی هم یه تست دیگه با عنوان humanity last exam هست.
هر کدوم از این بنچ مارک ها یه حوزه رو بررسی میکنن و هیچ کدوم جامع نیستن
یعنی یکی وضعیت ریاضی رو چک میکنه یکی مقالات علمی یکی کد نویسی یکی هم تولید محتوا
✅ پس روش اول بررسی این سایت بنچ مارک هاست تا به نتیجه برسی کدوم بهتره
این پست توضیح دادم که با این ابزار تو این سایته میتونی use case ات رو بگی و بهت بهترین مدل رو معرفی میکنه
البته که چون خیلی از مدل ها روی سوالات بنچ مارک ها ترین میشن گاهی این بنچ مارک ها کامل قابل اتکا نیستن
روش دوم راستش ازمون و خطاست و هیچ مدلی هیچ وقت بهترین نیست
✅ تئوری no free lunch theorem که اینجا میتونین راجع بهش بخونین میگه هیچ مدلی برای همه اشکال مسئله بهترین نیست
شما باید براساس نیازی که داری خودت سبک سنگین کنی
بهترین روش اینه یک سری پرامپت برای کاری که میخوای بکنی رو عیناااا بدی به همه مدل ها و ببینی کدوم بهتر عمل میکنن و با اون کار کنی
در نهایت هم همین برتری ممکنه باز ۳ ۴ ماه دیگه با توجه به سرعت تغییرات عوض بشه
@aipulse24
۱. بنچ مارک ها. بنچ مارک کلا یعنی مقایسه عملکرد یه چیزی نسبت به یه مقیاس مشخصی
شرکت ها و موسسات خیلیی خیلی زیادی ایجاد شدن که کارشون همینه
روش های متنوع هم براش هست
یکی از معروف ترین هاش اینجا توضیح دادم
کارش اینه که دوتا مدل رو میزاره جلوی کاربر تا استفاده کنه بدون اینکه کاربر بدونه مدل ها کدومن بعد میگی بگو کدوم بهتر بودن و براساس تعداد ارایی که برای هر مدل میگیره عملکرد رو مشخص میکنه
روش دیگه یک سری تست و ازمون هست مثلا یه سری سوال برنامه نویسیه یا یه سری سوال ریاضیه یا اخیرا خود اوپن ai اومده و یک بنچ مارک درست کرده برای سطح ادراک مدل ها از مقالات علمی که راجع به مقالات ارایه شده توی ICML 2024 سوال کرده که یک کنفرانس خفن برنامه نویسی هست و سطح شون رو بررسی کرده و این یکی هم یه تست دیگه با عنوان humanity last exam هست.
هر کدوم از این بنچ مارک ها یه حوزه رو بررسی میکنن و هیچ کدوم جامع نیستن
یعنی یکی وضعیت ریاضی رو چک میکنه یکی مقالات علمی یکی کد نویسی یکی هم تولید محتوا
✅ پس روش اول بررسی این سایت بنچ مارک هاست تا به نتیجه برسی کدوم بهتره
این پست توضیح دادم که با این ابزار تو این سایته میتونی use case ات رو بگی و بهت بهترین مدل رو معرفی میکنه
البته که چون خیلی از مدل ها روی سوالات بنچ مارک ها ترین میشن گاهی این بنچ مارک ها کامل قابل اتکا نیستن
روش دوم راستش ازمون و خطاست و هیچ مدلی هیچ وقت بهترین نیست
✅ تئوری no free lunch theorem که اینجا میتونین راجع بهش بخونین میگه هیچ مدلی برای همه اشکال مسئله بهترین نیست
شما باید براساس نیازی که داری خودت سبک سنگین کنی
بهترین روش اینه یک سری پرامپت برای کاری که میخوای بکنی رو عیناااا بدی به همه مدل ها و ببینی کدوم بهتر عمل میکنن و با اون کار کنی
در نهایت هم همین برتری ممکنه باز ۳ ۴ ماه دیگه با توجه به سرعت تغییرات عوض بشه
@aipulse24


15.04.202506:44
قابلیت ساخت ویدیو (Video Gen) با مدل Veo 2 حالا برای اکثر کاربران از طریق AI Studio در دسترس قرار گرفته.
@aipulse24
@aipulse24


10.04.202515:15
پرپلکسیتی هم از ربات رسمی تلگرام خودش رونمایی کرده. از این پس میتونید داخل تلگرام باهاش چت کنید یا حتی به گروههاتون اضافهش کنید و ازش استفاده کنید.
این ربات از طریق آیدی @askplexbot در دسترسه.
@aipulse24
این ربات از طریق آیدی @askplexbot در دسترسه.
@aipulse24


10.04.202508:04
در ادامه، این شرکت از ابزار متنباز جدیدی با نام Agent Development Kit (ADK) رونمایی کرده. ADK یه چارچوب توسعهی متنبازه که برای ساخت اپلیکیشنهای ایجنتمحور طراحی شده و به توسعهدهندهها این امکان رو میده که سیستمهای چندایجنتی رو راحتتر و با کنترل دقیقتری بسازن، تست کنن و به مرحلهی اجرا برسونن.
گوگل اعلام کرده که همین ADK در محصولات داخلی خودش مثل Agentspace و Customer Engagement Suite (CES) هم استفاده شده. حالا با متنباز کردن اون، هدفش اینه که دست توسعهدهندهها رو برای ساخت ایجنتهای هوشمند و مستقل بازتر کنه.
چارچوب ADK روی چهار اصل کلیدی بنا شده: ساخت، تعامل، ارزیابی و استقرار. از طراحی چندایجنتی و اتصال به مدلهای متنوع گرفته تا ابزارهای آماده مثل سرچ گوگل، قابلیت پخش زندهی صوت و تصویر، تجربهی توسعهی یکپارچه و حتی ارزیابی خودکار عملکرد ایجنتها — همه در این بستهی جامع در نظر گرفته شدن.
برای مثال، توسعهدهندهها میتونن با چند خط کد ساده یه ایجنت بسازن که با استفاده از سرچ گوگل به سوالها جواب بده. یا میتونن یه سیستم چندایجنتی طراحی کنن که ایجنت اصلی درخواستهای مربوط به آبوهوا رو پاسخ بده، ولی در صورت سلام یا خداحافظی، کار رو به ایجنتهای تخصصی دیگه بسپره. این ساختار سلسلهمراتبی با توصیف شفاف وظایف، به LLM کمک میکنه تا خودش تشخیص بده کدوم ایجنت باید مسئولیت پاسخ رو بر عهده بگیره.
گوگل همچنین یه سیستم ارزیابی داخلی هم توی ADK گذاشته که اجازه میده قبل از استقرار نهایی، عملکرد ایجنتها با تستهای از پیش تعیینشده سنجیده بشه. در نهایت، ADK امکان استقرار راحت توی محیطهای کانتینری و همچنین اجرای مستقیم روی موتور ایجنت Vertex AI رو فراهم میکنه که برای پروژههای مقیاسپذیر سازمانی طراحی شده.
در کنار ADK، گوگل ابزار دیگهای به نام Genkit هم داره که برای پروژههای جنرالتر GenAI استفاده میشه. ولی برای پروژههایی که نیاز به ساخت سیستمهای چندایجنتی پیچیده دارن، ADK انتخاب بهتریه چون سطح انتزاع بالاتری ارائه میده و با مدلهای متنوعتری از جمله Gemini، Anthropic، Meta، و غیره سازگاری داره.
@aipulse24
گوگل اعلام کرده که همین ADK در محصولات داخلی خودش مثل Agentspace و Customer Engagement Suite (CES) هم استفاده شده. حالا با متنباز کردن اون، هدفش اینه که دست توسعهدهندهها رو برای ساخت ایجنتهای هوشمند و مستقل بازتر کنه.
چارچوب ADK روی چهار اصل کلیدی بنا شده: ساخت، تعامل، ارزیابی و استقرار. از طراحی چندایجنتی و اتصال به مدلهای متنوع گرفته تا ابزارهای آماده مثل سرچ گوگل، قابلیت پخش زندهی صوت و تصویر، تجربهی توسعهی یکپارچه و حتی ارزیابی خودکار عملکرد ایجنتها — همه در این بستهی جامع در نظر گرفته شدن.
برای مثال، توسعهدهندهها میتونن با چند خط کد ساده یه ایجنت بسازن که با استفاده از سرچ گوگل به سوالها جواب بده. یا میتونن یه سیستم چندایجنتی طراحی کنن که ایجنت اصلی درخواستهای مربوط به آبوهوا رو پاسخ بده، ولی در صورت سلام یا خداحافظی، کار رو به ایجنتهای تخصصی دیگه بسپره. این ساختار سلسلهمراتبی با توصیف شفاف وظایف، به LLM کمک میکنه تا خودش تشخیص بده کدوم ایجنت باید مسئولیت پاسخ رو بر عهده بگیره.
گوگل همچنین یه سیستم ارزیابی داخلی هم توی ADK گذاشته که اجازه میده قبل از استقرار نهایی، عملکرد ایجنتها با تستهای از پیش تعیینشده سنجیده بشه. در نهایت، ADK امکان استقرار راحت توی محیطهای کانتینری و همچنین اجرای مستقیم روی موتور ایجنت Vertex AI رو فراهم میکنه که برای پروژههای مقیاسپذیر سازمانی طراحی شده.
در کنار ADK، گوگل ابزار دیگهای به نام Genkit هم داره که برای پروژههای جنرالتر GenAI استفاده میشه. ولی برای پروژههایی که نیاز به ساخت سیستمهای چندایجنتی پیچیده دارن، ADK انتخاب بهتریه چون سطح انتزاع بالاتری ارائه میده و با مدلهای متنوعتری از جمله Gemini، Anthropic، Meta، و غیره سازگاری داره.
@aipulse24
09.04.202503:21
داشتم توی کانال میگشتم که به این پستم رسیدم
این پیش بینی من برای جولای پارسال!
قبل از اینکه ابزارهای vibe coding رایج بشن
قبل از اینکه سم التمن سال ۲۰۲۵ رو سال agent ها معرفی کنه
https://blog.samaltman.com/reflections
قبل از اینکه IBM، Techtarget ، مدیر عامل انویدیا و ۶۰۰ نفر دیگه توی ژانویه ۲۰۲۵ اعلام کنن
این پیش بینی رو کردم
(پستم شبیه این تریدر دوزاری ها شد ولی انصافا عجب پیش بینی کردم:))) )
آیا ایمان نمی آورید؟😭
حالا توی پست بعدی راجع به مشاغل آینده بعد هوش مصنوعی میگم
این پیش بینی من برای جولای پارسال!
قبل از اینکه ابزارهای vibe coding رایج بشن
قبل از اینکه سم التمن سال ۲۰۲۵ رو سال agent ها معرفی کنه
https://blog.samaltman.com/reflections
قبل از اینکه IBM، Techtarget ، مدیر عامل انویدیا و ۶۰۰ نفر دیگه توی ژانویه ۲۰۲۵ اعلام کنن
این پیش بینی رو کردم
(پستم شبیه این تریدر دوزاری ها شد ولی انصافا عجب پیش بینی کردم:))) )
آیا ایمان نمی آورید؟😭
حالا توی پست بعدی راجع به مشاغل آینده بعد هوش مصنوعی میگم
Показано 1 - 24 из 66
Войдите, чтобы разблокировать больше функциональности.