
AI Product | Igor Akimov
TGlist рейтингі
0
0
ТүріҚоғамдық
Растау
РасталмағанСенімділік
СенімсізОрналасқан жеріРосія
ТілБасқа
Канал құрылған күніСіч 19, 2023
TGlist-ке қосылған күні
Трав 23, 2024Қосылған топ
"AI Product | Igor Akimov" тобындағы соңғы жазбалар
23.04.202515:34
Интересное от Байрама Аннакова (создателя App in the Air, а теперь - AI-сервисов для отдела продаж) - что нового произошло в GenAI-мире с начала года:
За 18 месяцев «стоимость интеллекта» упала в 280 раз — продукты можно продавать «в минус», зная, что через квартал себестоимость снова просядет.
Модели дешевеют и умнеют:
- GPT-4.1-mini и Groq + Mixtral дают топ-качество по цене < 2 $/M токенов.
- Claude 3.7 объединил «быстрое» и «глубокое» мышление в одной сети.
- GPT-o3 научился сам выбирать инструменты (поиск, Python) прямо в reasoning.
«Чувства, мысли, действия»:
- Распознавание речи и картинок уже выше human-level, а цена всё ниже.
- Генерация: GPT-4o генерация лидирует по изображениям, Sora/Kling/Veo2 быстро подтягивают видео.
- Роботы учатся по тем же LLM-методам — Figure 01 и Tesla Bot уже на улице.
- 2025 объявлен «годом AI-агентов»: компании буду платить тысячи $/мес. за микросейлз- или митинг-ботов
- Google и OpenAI выкатили собственные Agent SDK — готовят почву для «магазинов агентов» и жёсткого vendor lock-in.
Что дальше. Две школы мысли:
1. «AI 2027» — автоматический AI-research ускорит прогресс до уровня опасности, возможна национализация компаний разработчиков AI.
2. «AI как электричество» — полное внедрение в бизнес займёт 30–40 лет.
Что ждать в ближайшие 3–6 месяцев: код-агенты в IDE, real-time дубляж голосом студийного качества и первый публичный Agent Store.
TL;DR: интеллект дешевеет, возможности растут, следующий виток — это массовое появление узкоспециализированных агентов и борьба за их экосистемы.
https://youtu.be/R5TYcdPrEnU.
Презентация в аттаче.
За 18 месяцев «стоимость интеллекта» упала в 280 раз — продукты можно продавать «в минус», зная, что через квартал себестоимость снова просядет.
Модели дешевеют и умнеют:
- GPT-4.1-mini и Groq + Mixtral дают топ-качество по цене < 2 $/M токенов.
- Claude 3.7 объединил «быстрое» и «глубокое» мышление в одной сети.
- GPT-o3 научился сам выбирать инструменты (поиск, Python) прямо в reasoning.
«Чувства, мысли, действия»:
- Распознавание речи и картинок уже выше human-level, а цена всё ниже.
- Генерация: GPT-4o генерация лидирует по изображениям, Sora/Kling/Veo2 быстро подтягивают видео.
- Роботы учатся по тем же LLM-методам — Figure 01 и Tesla Bot уже на улице.
- 2025 объявлен «годом AI-агентов»: компании буду платить тысячи $/мес. за микросейлз- или митинг-ботов
- Google и OpenAI выкатили собственные Agent SDK — готовят почву для «магазинов агентов» и жёсткого vendor lock-in.
Что дальше. Две школы мысли:
1. «AI 2027» — автоматический AI-research ускорит прогресс до уровня опасности, возможна национализация компаний разработчиков AI.
2. «AI как электричество» — полное внедрение в бизнес займёт 30–40 лет.
Что ждать в ближайшие 3–6 месяцев: код-агенты в IDE, real-time дубляж голосом студийного качества и первый публичный Agent Store.
TL;DR: интеллект дешевеет, возможности растут, следующий виток — это массовое появление узкоспециализированных агентов и борьба за их экосистемы.
https://youtu.be/R5TYcdPrEnU.
Презентация в аттаче.
22.04.202520:55
Anthropic вчера опубликовал, а сегодня на хабре перевели отличный гайд по использованию агентов в программировании, чтобы не ругаться на тупой chatgpt или Claude, когда он вам пол-проекта перепишет :)
Например там про то, чтобы план составить сначала:
https://habr.com/ru/articles/902422/
Например там про то, чтобы план составить сначала:
https://habr.com/ru/articles/902422/
21.04.202519:33
Netflix рассказывает, как сделал одну большую модель для персональных рекомендаций
https://netflixtechblog.com/foundation-model-for-personalized-recommendation-1a0bd8e02d39
Раньше в Netflix использовались десятки отдельных моделей:
одна рекомендовала контент на главной,
другая — при поиске,
третья — для уведомлений и e-mail.
Это было сложно масштабировать и поддерживать. Поэтому они решили создать одну универсальную модель, которую можно использовать везде.
Transformer, обученный на миллиардных объемах событий:
просмотры,
скроллы,
клики,
добавления в список,
рейтинги.
Модель предсказывает "следующее действие" пользователя, учитывая весь контекст (устройство, время, сессию и др.).
Используется multi-task learning: одна модель решает сразу множество задач (например, "покажи на главной" и "выведи в поиске").
Входные данные: токены, представляющие действия, контент и контекст
Обучение идет на огромных логах взаимодействий. Используется self-supervised learning: модель учится предсказывать недостающие или следующие токены (например, какой фильм человек посмотрит).
Модель уже используется:
в рекомендациях на главной странице,
в системе "похожие фильмы",
в ранжировании результатов поиска.
Netflix называет это шагом к Unified Personalization Model — будущему, где весь UX будет персонализирован одной системой.
https://netflixtechblog.com/foundation-model-for-personalized-recommendation-1a0bd8e02d39
Раньше в Netflix использовались десятки отдельных моделей:
одна рекомендовала контент на главной,
другая — при поиске,
третья — для уведомлений и e-mail.
Это было сложно масштабировать и поддерживать. Поэтому они решили создать одну универсальную модель, которую можно использовать везде.
Transformer, обученный на миллиардных объемах событий:
просмотры,
скроллы,
клики,
добавления в список,
рейтинги.
Модель предсказывает "следующее действие" пользователя, учитывая весь контекст (устройство, время, сессию и др.).
Используется multi-task learning: одна модель решает сразу множество задач (например, "покажи на главной" и "выведи в поиске").
Входные данные: токены, представляющие действия, контент и контекст
Обучение идет на огромных логах взаимодействий. Используется self-supervised learning: модель учится предсказывать недостающие или следующие токены (например, какой фильм человек посмотрит).
Модель уже используется:
в рекомендациях на главной странице,
в системе "похожие фильмы",
в ранжировании результатов поиска.
Netflix называет это шагом к Unified Personalization Model — будущему, где весь UX будет персонализирован одной системой.
Қайта жіберілді:
Точки над ИИ

19.04.202512:14
Canva показала гору новых AI-фич
Ребята из Canva решили, что мало просто делать красивые картинки и презентации. На своей конференции Create 2025 они запустили AI на полную.
Вот 5 основных фич, которые цепляют больше всего:
1. Canva Code
Теперь превращать идеи в готовые дизайны можно без кода. Просто опиши, что тебе надо, и AI всё сделает сам.
2. Magic Formulas и Magic Insights
AI-функции внутри Canva Sheets, которые сами проанализируют данные и подскажут, что дальше с ними делать.
3. Промпт голосом, текстом или картинкой
Скажи, напиши или покажи, что хочешь получить, и Canva за секунды соберёт презентацию, графику или документ.
4. Кнопка перевода и локализации
Всё, что делаешь, сразу переводится на разные языки. Пригодится тем, кто работает с контентом на зарубежную аудиторию.
5. Magic Charts
Превращают любые данные в стильные, интерактивные графики за один клик.
Ознакомиться можно тут.
#design@TochkiNadAI
Ребята из Canva решили, что мало просто делать красивые картинки и презентации. На своей конференции Create 2025 они запустили AI на полную.
Вот 5 основных фич, которые цепляют больше всего:
1. Canva Code
Теперь превращать идеи в готовые дизайны можно без кода. Просто опиши, что тебе надо, и AI всё сделает сам.
2. Magic Formulas и Magic Insights
AI-функции внутри Canva Sheets, которые сами проанализируют данные и подскажут, что дальше с ними делать.
3. Промпт голосом, текстом или картинкой
Скажи, напиши или покажи, что хочешь получить, и Canva за секунды соберёт презентацию, графику или документ.
4. Кнопка перевода и локализации
Всё, что делаешь, сразу переводится на разные языки. Пригодится тем, кто работает с контентом на зарубежную аудиторию.
5. Magic Charts
Превращают любые данные в стильные, интерактивные графики за один клик.
Ознакомиться можно тут.
#design@TochkiNadAI
Медиа контентке
қол жеткізе алмадық
қол жеткізе алмадық
Қайта жіберілді:
Machinelearning

17.04.202521:06
🔥 Google только что выпустил Gemini 2.5 Flash
Ключевые особенности:
В 25 раз дешевле, чем Claude Sonnet 3.7 и Grok-3 и в 5–10 раз дешевле, чем Gemini‑2.5‑Pro.
Новая функция динамического «размышления» над сложными задачами.
Настраиваемый «бюджет мышления» (вы сами решаете, сколько токенов выделить на этап «размышлений»)
Делит #2, место на Арене вместе с GPT 4.5 Preview и Grok‑3.
🏆 Делит первое место в задачах
💠 Входит в топ‑4 по всем категориям
Gemini Flash 2.5 — это лучшее соотношение цена/производительность. Google снова на высоте.
Бегом тестить
@ai_machinelearning_big_data
#Gemini
Ключевые особенности:
В 25 раз дешевле, чем Claude Sonnet 3.7 и Grok-3 и в 5–10 раз дешевле, чем Gemini‑2.5‑Pro.
Новая функция динамического «размышления» над сложными задачами.
Настраиваемый «бюджет мышления» (вы сами решаете, сколько токенов выделить на этап «размышлений»)
Делит #2, место на Арене вместе с GPT 4.5 Preview и Grok‑3.
🏆 Делит первое место в задачах
Hard Prompts, Coding и Longer Query
💠 Входит в топ‑4 по всем категориям
Gemini Flash 2.5 — это лучшее соотношение цена/производительность. Google снова на высоте.
Бегом тестить
@ai_machinelearning_big_data
#Gemini
17.04.202509:28
Подписавшись на супер-полезную рассылку для продакт-менеджеров от Lenny Rachitsky на год можно получить десяток годовых подписок на сервисы, вау!
Подписка стоит 200 баксов, одними только вайб-код-инструментами можно окупить
https://www.lennysnewsletter.com/p/an-unbelievable-offer-now-get-one
Вот что входит:
Bolt: One year of the Pro plan ($240 value)
Cursor: One year of the Pro plan ($240 value)
Lovable: One year of the Starter plan ($240 value)
Replit: One year of the Core plan ($360 value)
v0: One year of the Premium plan ($240 value)
Granola: One year of the Business plan for you and your team—up to 100 seats ($10,000+ value)
Notion: One year of the Plus plan (plus unlimited AI) for you and your team—up to 10 seats ($2,000+ value)
Linear: One year of the Business plan—two seats ($336 value)
Superhuman: One year of the Starter plan ($300 value)
Perplexity: One year of the Pro plan ($240 value)
Подписка стоит 200 баксов, одними только вайб-код-инструментами можно окупить
https://www.lennysnewsletter.com/p/an-unbelievable-offer-now-get-one
Вот что входит:
Bolt: One year of the Pro plan ($240 value)
Cursor: One year of the Pro plan ($240 value)
Lovable: One year of the Starter plan ($240 value)
Replit: One year of the Core plan ($360 value)
v0: One year of the Premium plan ($240 value)
Granola: One year of the Business plan for you and your team—up to 100 seats ($10,000+ value)
Notion: One year of the Plus plan (plus unlimited AI) for you and your team—up to 10 seats ($2,000+ value)
Linear: One year of the Business plan—two seats ($336 value)
Superhuman: One year of the Starter plan ($300 value)
Perplexity: One year of the Pro plan ($240 value)
16.04.202520:20
Кажется у OpenAI будет собственный vibe-редактор кода
https://www.bloomberg.com/news/articles/2025-04-16/openai-said-to-be-in-talks-to-buy-windsurf-for-about-3-billion
https://www.bloomberg.com/news/articles/2025-04-16/openai-said-to-be-in-talks-to-buy-windsurf-for-about-3-billion
Қайта жіберілді:
эйай ньюз

16.04.202517:39
o3 и o4-mini от OpenAI релизятся
Главная фишка — новые модели натренировали использовать тулы прямо во время ризонинга. То есть они могут не только искать в интернете, но и исполнять код и пользоваться другими тулами. Обе модели мультимодальные и могут использовать это во время размышлений.
По бенчам — разнос всего, даже недавно релизнутой Gemini 2.5 Pro Experimental. Но оно и не удивительно — на тренировку o3 ушло более чем в 10x больше компьюта чем у o1.
Модели начинают раскатывать уже в ChatGPT для Pro и Plus планов, остальным через неделю. Какие лимиты — не сказали, так что скорее всего будут как у прошлых моделей. Для Pro подписчиков обещают и o3-pro, но релизнут её немного позже.
В API релизят тоже сегодня, но пока что без тулюза. Цена за o3 — $10/$40 за миллион токенов, это на треть дешевле чем o1 и в 15 (!) раз дешевле o1-pro. При этом o1 для решения задачи нужно больше токенов чем o3, поэтому o1 собираются полностью заменить на o3. А вот o3-mini стоит столько же сколько o4-mini — $1.1/$4.4 за миллион токенов, но интеллекта на доллар там тоже больше, из-за чего и o3-mini полностью заменят на o4-mini.
@ai_newz
Главная фишка — новые модели натренировали использовать тулы прямо во время ризонинга. То есть они могут не только искать в интернете, но и исполнять код и пользоваться другими тулами. Обе модели мультимодальные и могут использовать это во время размышлений.
По бенчам — разнос всего, даже недавно релизнутой Gemini 2.5 Pro Experimental. Но оно и не удивительно — на тренировку o3 ушло более чем в 10x больше компьюта чем у o1.
Модели начинают раскатывать уже в ChatGPT для Pro и Plus планов, остальным через неделю. Какие лимиты — не сказали, так что скорее всего будут как у прошлых моделей. Для Pro подписчиков обещают и o3-pro, но релизнут её немного позже.
В API релизят тоже сегодня, но пока что без тулюза. Цена за o3 — $10/$40 за миллион токенов, это на треть дешевле чем o1 и в 15 (!) раз дешевле o1-pro. При этом o1 для решения задачи нужно больше токенов чем o3, поэтому o1 собираются полностью заменить на o3. А вот o3-mini стоит столько же сколько o4-mini — $1.1/$4.4 за миллион токенов, но интеллекта на доллар там тоже больше, из-за чего и o3-mini полностью заменят на o4-mini.
@ai_newz
16.04.202515:04
Ого, Грок быстро догоняет
https://vc.ru/ai/1929777-grok-studio-rezhim-redaktirovaniya
В Grok появился режим редактирования — аналог Canvas в ChatGPT. Поле открывается автоматически, когда пользователь просит написать текст, код, отчёт или создать игру.
Для работы с документами добавили возможность форматировать заголовки, текст и списки.
В окне Preview можно увидеть, как будет выглядеть анимация, инфографика или игра, код для которой пишет чат-бот. Есть поддержка HTML, Python, C++, JavaScript, TypeScript и Bash-скриптов.
В Grok также добавили поддержку Google Drive. Теперь чат-боту можно прислать не только файл с компьютера, но и документ, электронную таблицу или презентацию с «Диска». Для этого придётся подключить аккаунт Google и дать Grok доступ к файлам.
https://vc.ru/ai/1929777-grok-studio-rezhim-redaktirovaniya
В Grok появился режим редактирования — аналог Canvas в ChatGPT. Поле открывается автоматически, когда пользователь просит написать текст, код, отчёт или создать игру.
Для работы с документами добавили возможность форматировать заголовки, текст и списки.
В окне Preview можно увидеть, как будет выглядеть анимация, инфографика или игра, код для которой пишет чат-бот. Есть поддержка HTML, Python, C++, JavaScript, TypeScript и Bash-скриптов.
В Grok также добавили поддержку Google Drive. Теперь чат-боту можно прислать не только файл с компьютера, но и документ, электронную таблицу или презентацию с «Диска». Для этого придётся подключить аккаунт Google и дать Grok доступ к файлам.


16.04.202510:26
А вот GPT-4.1-Mini выглядит прям на удивление хорошо для типичных задач. Стоит $0.40 за вход и $1.60 за выход по сравнению с GPT-4o с ценами в $2.50 и $10.00, при даже лучшем качестве. То есть затраты можно снизить в 6 раз при лучшем качестве и скорости.


16.04.202508:23
Европейцы продолжают пытаться в свои LLM - выпустили Teuken-7B-Base & Teuken-7B-Instruct, натренированные на 24 европейских языках (русского нет).
Все вроде как правильно сделали, но результаты оказались хуже базовой старенькой Meta Llama-3.1.
https://arxiv.org/abs/2410.03730
Все вроде как правильно сделали, но результаты оказались хуже базовой старенькой Meta Llama-3.1.
https://arxiv.org/abs/2410.03730


15.04.202518:18
У меня сегодня день рождения (вместе с Пугачёвой, ага, в центре весны), так что новостей не будет, но зато вот традиционная уже фоточка в стиле Action Figure, сгенерированная Gpt-4o.
Прогресс в AI просто взрывает мозг каждый день, так что пожелание на этот год - чтобы AGI был добрым к человечеству 😇. Я лично всегда говорю спасибо LLM-кам :)
Прогресс в AI просто взрывает мозг каждый день, так что пожелание на этот год - чтобы AGI был добрым к человечеству 😇. Я лично всегда говорю спасибо LLM-кам :)


14.04.202519:20
Посмотрел подобно док.
https://openai.com/index/gpt-4-1/
Хорошая моделька получилась. По умолчанию во всех ботах и агентских системах можно на нее переходить. Чуть дешевле, при этом качество в кодинге и следовании инструкциям прям сильно выше рабочей лошадки 4o. А для всяких быстрых проверок или низкой задержки (типа голоса) можно брать 4.1-mini
https://openai.com/index/gpt-4-1/
Хорошая моделька получилась. По умолчанию во всех ботах и агентских системах можно на нее переходить. Чуть дешевле, при этом качество в кодинге и следовании инструкциям прям сильно выше рабочей лошадки 4o. А для всяких быстрых проверок или низкой задержки (типа голоса) можно брать 4.1-mini
11.04.202521:31
OpenAI жалуется, как тяжело было тренировать GPT-4.5
https://youtu.be/6nJZopACRuQ
📅 Планирование проекта GPT-4.5 началось за ~2 года до запуска.
🎯 Цель - ~10-кратное эффективное увеличение вычислений по сравнению с GPT-4.
📈 Переход к большему количеству GPU делает редкие сбои (аппаратные, программные, данные) гораздо более частыми и значимыми.
🏃 Большие запуски часто начинаются с нерешенными проблемами; исправления и улучшения происходят в процессе работы.
🐞 Ошибка в torch.sum вызывала проблемы с корректностью в течение ~40 % времени выполнения.
💾 Доступность данных становится более узким местом, чем вычисления.
💡 Предварительное обучение действует как сжатие; меньшие потери сильно коррелируют с лучшими возможностями.
🛠 Переобучение GPT-4 в настоящее время потребует лишь части первоначальных усилий (сейчас - 5-10 человек)
https://youtu.be/6nJZopACRuQ
📅 Планирование проекта GPT-4.5 началось за ~2 года до запуска.
🎯 Цель - ~10-кратное эффективное увеличение вычислений по сравнению с GPT-4.
📈 Переход к большему количеству GPU делает редкие сбои (аппаратные, программные, данные) гораздо более частыми и значимыми.
🏃 Большие запуски часто начинаются с нерешенными проблемами; исправления и улучшения происходят в процессе работы.
🐞 Ошибка в torch.sum вызывала проблемы с корректностью в течение ~40 % времени выполнения.
💾 Доступность данных становится более узким местом, чем вычисления.
💡 Предварительное обучение действует как сжатие; меньшие потери сильно коррелируют с лучшими возможностями.
🛠 Переобучение GPT-4 в настоящее время потребует лишь части первоначальных усилий (сейчас - 5-10 человек)
11.04.202521:21
Государства активизируются в сфере ИИ — через регулирование и инвестиции. В 2024 году федеральные агентства США ввели 59 нормативных актов, связанных с ИИ — более чем вдвое больше, чем в 2023 году. Упоминания ИИ в законодательных актах выросли на 21,3% в 75 странах с 2023 года (рост в 9 раз с 2016 года). Параллельно растут инвестиции: Канада пообещала $2,4 млрд, Китай запустил фонд в $47,5 млрд для полупроводников, Франция — €109 млрд, Индия — $1,25 млрд, а инициатива Transcendence в Саудовской Аравии представляет собой проект на $100 млрд.
Образование в сфере ИИ и информатики расширяется, но сохраняются пробелы в доступности. Две трети стран уже предлагают или планируют предлагать компьютерные науки (CS) в школах (K–12), что вдвое больше, чем в 2019 году. Африка и Латинская Америка показали наибольший прогресс. В США количество выпускников бакалавриата в области CS выросло на 22% за последние 10 лет. Тем не менее, доступ к ИИ ограничен во многих африканских странах из-за проблем с базовой инфраструктурой, такой как электричество. В США 81% учителей CS считают, что ИИ должен быть частью базового образования, но менее половины готовы его преподавать.
Индустрия лидирует в разработке ИИ — но передний край становится конкуретнее. Почти 90% заметных ИИ-моделей в 2024 году были созданы в индустрии (против 60% в 2023), хотя научная среда остаётся главным источником наиболее цитируемых исследований. Масштабы моделей продолжают расти: вычислительные ресурсы удваиваются каждые 5 месяцев, датасеты — каждые 8 месяцев, энергопотребление — ежегодно. При этом разрывы в производительности уменьшаются: разница в рейтинге Elo между первой и десятой моделью сократилась с 11,9% до 5,4%, а между первой и второй — всего 0,7%. Конкуренция на переднем крае усиливается.
ИИ получает признание за вклад в науку. Это отражается в наградах: две Нобелевские премии были присуждены за работы, связанные с глубинным обучением (физика) и применением ИИ к прогнозированию структуры белков (химия), а премия Тьюринга — за достижения в области обучения с подкреплением.
Сложные рассуждения остаются трудной задачей. Хотя ИИ-модели справляются с задачами уровня Международной математической олимпиады, они по-прежнему испытывают трудности с более сложными задачами логики и планирования, например на PlanBench. Часто модели не способны надёжно решать логические задачи даже при наличии проверяемо правильного решения, что ограничивает их применение в критически важных областях, где требуется высокая точность.
https://hai-production.s3.amazonaws.com/files/hai_ai_index_report_2025.pdf
Образование в сфере ИИ и информатики расширяется, но сохраняются пробелы в доступности. Две трети стран уже предлагают или планируют предлагать компьютерные науки (CS) в школах (K–12), что вдвое больше, чем в 2019 году. Африка и Латинская Америка показали наибольший прогресс. В США количество выпускников бакалавриата в области CS выросло на 22% за последние 10 лет. Тем не менее, доступ к ИИ ограничен во многих африканских странах из-за проблем с базовой инфраструктурой, такой как электричество. В США 81% учителей CS считают, что ИИ должен быть частью базового образования, но менее половины готовы его преподавать.
Индустрия лидирует в разработке ИИ — но передний край становится конкуретнее. Почти 90% заметных ИИ-моделей в 2024 году были созданы в индустрии (против 60% в 2023), хотя научная среда остаётся главным источником наиболее цитируемых исследований. Масштабы моделей продолжают расти: вычислительные ресурсы удваиваются каждые 5 месяцев, датасеты — каждые 8 месяцев, энергопотребление — ежегодно. При этом разрывы в производительности уменьшаются: разница в рейтинге Elo между первой и десятой моделью сократилась с 11,9% до 5,4%, а между первой и второй — всего 0,7%. Конкуренция на переднем крае усиливается.
ИИ получает признание за вклад в науку. Это отражается в наградах: две Нобелевские премии были присуждены за работы, связанные с глубинным обучением (физика) и применением ИИ к прогнозированию структуры белков (химия), а премия Тьюринга — за достижения в области обучения с подкреплением.
Сложные рассуждения остаются трудной задачей. Хотя ИИ-модели справляются с задачами уровня Международной математической олимпиады, они по-прежнему испытывают трудности с более сложными задачами логики и планирования, например на PlanBench. Часто модели не способны надёжно решать логические задачи даже при наличии проверяемо правильного решения, что ограничивает их применение в критически важных областях, где требуется высокая точность.
https://hai-production.s3.amazonaws.com/files/hai_ai_index_report_2025.pdf
Рекордтар
23.04.202523:59
3.8KЖазылушылар21.05.202423:59
0Дәйексөз индексі09.01.202504:47
8K1 жазбаның қамтуы08.01.202505:27
8KЖарнамалық жазбаның қамтуы19.04.202523:59
10.06%ER14.12.202423:59
292.35%ERRКөбірек мүмкіндіктерді ашу үшін кіріңіз.