Қайта жіберілді:
Gazeta.uz - Новости Узбекистана



23.04.202508:05
«Привет, Siri», — говорите вы своему айфону. Известно ли вам, что обучением Siri занимался уроженец Ташкента и один из ведущих исследователей искусственного интеллекта в США Руслан Салахутдинов? Сегодня он вице-президент по изучению ИИ в Meta.
В интервью «Газете.uz» он рассказал:
🧠 Каким будет ChatGPT в будущем? Научится ли он обижаться и станет ли креативным?
⚠️ Как люди манипулируют искусственным интеллектом и почему это опасно?
🎓 Почему корпорации опережают университеты в изучении ИИ?
https://www.gazeta.uz/ru/2025/04/23/ruslan-salakhutdinov/
Telegram | Instagram | YouTube
В интервью «Газете.uz» он рассказал:
🧠 Каким будет ChatGPT в будущем? Научится ли он обижаться и станет ли креативным?
⚠️ Как люди манипулируют искусственным интеллектом и почему это опасно?
🎓 Почему корпорации опережают университеты в изучении ИИ?
https://www.gazeta.uz/ru/2025/04/23/ruslan-salakhutdinov/
Telegram | Instagram | YouTube
Қайта жіберілді:
Kun.uz | Расмий канал



19.04.202515:46
Депутатлар сунъий интеллектда яратилган ноқонуний контент учун жазога изоҳ берди
Ўзбекистонда сунъий интеллект билан боғлиқ ҳуқуқий масалалар қонунчиликка киритиляпти. Лойиҳа ташаббускорлари ОАВ иштирокидаги давра суҳбатида қонун лойиҳасидаги нормалар, хусусан СИ ёрдамида ноқонуний монтаж қилиб тарқатилган фото ва видеолар учун жавобгарлик масаласида изоҳ беришди. Биз янги ривожланиб келаётган технология нотўғри мақсадларда ишлатилишини чекламоқчимиз холос, дейди қонунчилар.
📹 ВИДЕОНИ ТОМОША ҚИЛИНГ
Ўзбекистонда сунъий интеллект билан боғлиқ ҳуқуқий масалалар қонунчиликка киритиляпти. Лойиҳа ташаббускорлари ОАВ иштирокидаги давра суҳбатида қонун лойиҳасидаги нормалар, хусусан СИ ёрдамида ноқонуний монтаж қилиб тарқатилган фото ва видеолар учун жавобгарлик масаласида изоҳ беришди. Биз янги ривожланиб келаётган технология нотўғри мақсадларда ишлатилишини чекламоқчимиз холос, дейди қонунчилар.
📹 ВИДЕОНИ ТОМОША ҚИЛИНГ
18.04.202509:58
Сегодня на встрече с депутатами обсуждали законопроект об искусственном интеллекте. И, как это часто бывает, разговор быстро свёлся к визуальному контенту: дипфейкам, фейковым видео и ИИ-генерированным изображениям. Именно эти примеры чаще всего звучат в новостях, они эмоционально цепляют, и кажутся самым очевидным «злом» ИИ.
Да, угрозы реальны. Более 3500 случаев злоупотребления ИИ только в 2024 году. Поддельные голоса, лица, фейки с публичными людьми, в том числе женщинами. Но в основном это приходит извне. И тут встаёт честный вопрос: как мы собираемся это контролировать? Как будет выглядеть взаимодействие с Meta или Telegram?
НО! Главные риски — это не картинка, а алгоритм. ИИ, который без объяснения отказывает в приёме на работу. Кредитный скоринг, не прошедший этическую проверку. Медицинская рекомендация, сгенерированная без лицензии. Тысячи ИИ-комментариев, создающих иллюзию общественного мнения. Это те процессы, где ИИ уже меняет структуру социальных решений.
Мы говорим о маркировке — но что конкретно маркировать и кто будет этим заниматься? Соцсети уже внедрили теги “сгенерировано ИИ”. Если человек скачал изображение из Midjourney и залил его в Telegram — кто должен это отметить? И как? А если баннер рекламный, и нейросеть только убрала фон — это уже считается ИИ-контентом? Где граница? И кто её определяет?
И если уж мы говорим про метки — давайте честно: это не главное. Давайте лучше обсудим куда более важную и сложную тему — регулирование авторского права на контент, созданный с помощью ИИ.
Сегодня десятки тысяч дизайнеров, иллюстраторов, фотографов и даже журналистов уже используют нейросети в работе. Где проходит грань между автором и алгоритмом? Кому принадлежат права на изображение, сгенерированное по описанию? Кто несёт ответственность, если в картинке — элементы чужой работы? Можно ли вообще запатентовать или защитить ИИ-контент?
Без ответов на эти вопросы обсуждать «маркировку» — всё равно что обсуждать ярлык на книге, не решив, кто её автор.
Более того, прозвучали предложения о наказании вплоть до конфискации имущества и 15 суток административного ареста. Некоторые предложили ввести даже уголовное наказание. Это вызвало у многих вполне закономерную реакцию: а где границы? где критерии? За что именно будет наказываться человек? За публикацию дипфейка? А если это шутка, фильтр, реклама, а не злой умысел? Будут ли наказания различаться для подростка, эксперта, блогера, бизнесмена? Как отличить опасный deepfake от ироничного ролика?
Мы ведь пока не определили даже базовых категорий риска. Ни в тексте законопроекта, ни в публичном обсуждении нет чёткой системы: какие действия с ИИ считаются низкоопасными (например, мемы), какие — среднеопасными (манипуляции в рекламе), а какие — высокоопасными (вмешательство в выборы, подделка официальных заявлений, шантаж).
Если мы заранее не обозначим эту шкалу рисков, не пропишем градацию ответственности, есть опасность, что правоприменение будет работать по принципу “кому как повезёт”. Один получит предупреждение, другой — арест. Один — штраф, другой — уголовное дело. Причём не за то, что нанёс вред, а за то, что оказался под рукой.
И ещё один важный вопрос, о котором почти не говорили: почему мы начинаем с наказания? Почему логика сразу ведёт к конфискации, аресту, уголовной ответственности? А где система предупреждений, разъяснений, профилактики?
Если человек использует ИИ-изображение в TikTok, даже не зная, что это нарушает что-то — он сразу преступник? А если школьник сгенерировал ролик в приложении с фильтром — его уже нужно судить?
В мире, где технологии меняются быстрее законов, первыми должны быть обучение и просвещение, а не дубинка. Сначала объяснить: «вот так можно», «вот так — опасно», «если нарушишь — будет ответственность». А не наоборот: сделать закон непонятным, а потом ловить тех, кто не понял.
Даже в дорожном движении есть знаки, зебры, предупреждающие табло, а уже потом — штраф. Почему в сфере ИИ мы хотим сразу сажать, не дав человеку шанса понять, что он вообще нарушил?
@pulatov_kh
Да, угрозы реальны. Более 3500 случаев злоупотребления ИИ только в 2024 году. Поддельные голоса, лица, фейки с публичными людьми, в том числе женщинами. Но в основном это приходит извне. И тут встаёт честный вопрос: как мы собираемся это контролировать? Как будет выглядеть взаимодействие с Meta или Telegram?
НО! Главные риски — это не картинка, а алгоритм. ИИ, который без объяснения отказывает в приёме на работу. Кредитный скоринг, не прошедший этическую проверку. Медицинская рекомендация, сгенерированная без лицензии. Тысячи ИИ-комментариев, создающих иллюзию общественного мнения. Это те процессы, где ИИ уже меняет структуру социальных решений.
Мы говорим о маркировке — но что конкретно маркировать и кто будет этим заниматься? Соцсети уже внедрили теги “сгенерировано ИИ”. Если человек скачал изображение из Midjourney и залил его в Telegram — кто должен это отметить? И как? А если баннер рекламный, и нейросеть только убрала фон — это уже считается ИИ-контентом? Где граница? И кто её определяет?
И если уж мы говорим про метки — давайте честно: это не главное. Давайте лучше обсудим куда более важную и сложную тему — регулирование авторского права на контент, созданный с помощью ИИ.
Сегодня десятки тысяч дизайнеров, иллюстраторов, фотографов и даже журналистов уже используют нейросети в работе. Где проходит грань между автором и алгоритмом? Кому принадлежат права на изображение, сгенерированное по описанию? Кто несёт ответственность, если в картинке — элементы чужой работы? Можно ли вообще запатентовать или защитить ИИ-контент?
Без ответов на эти вопросы обсуждать «маркировку» — всё равно что обсуждать ярлык на книге, не решив, кто её автор.
Более того, прозвучали предложения о наказании вплоть до конфискации имущества и 15 суток административного ареста. Некоторые предложили ввести даже уголовное наказание. Это вызвало у многих вполне закономерную реакцию: а где границы? где критерии? За что именно будет наказываться человек? За публикацию дипфейка? А если это шутка, фильтр, реклама, а не злой умысел? Будут ли наказания различаться для подростка, эксперта, блогера, бизнесмена? Как отличить опасный deepfake от ироничного ролика?
Мы ведь пока не определили даже базовых категорий риска. Ни в тексте законопроекта, ни в публичном обсуждении нет чёткой системы: какие действия с ИИ считаются низкоопасными (например, мемы), какие — среднеопасными (манипуляции в рекламе), а какие — высокоопасными (вмешательство в выборы, подделка официальных заявлений, шантаж).
Если мы заранее не обозначим эту шкалу рисков, не пропишем градацию ответственности, есть опасность, что правоприменение будет работать по принципу “кому как повезёт”. Один получит предупреждение, другой — арест. Один — штраф, другой — уголовное дело. Причём не за то, что нанёс вред, а за то, что оказался под рукой.
И ещё один важный вопрос, о котором почти не говорили: почему мы начинаем с наказания? Почему логика сразу ведёт к конфискации, аресту, уголовной ответственности? А где система предупреждений, разъяснений, профилактики?
Если человек использует ИИ-изображение в TikTok, даже не зная, что это нарушает что-то — он сразу преступник? А если школьник сгенерировал ролик в приложении с фильтром — его уже нужно судить?
В мире, где технологии меняются быстрее законов, первыми должны быть обучение и просвещение, а не дубинка. Сначала объяснить: «вот так можно», «вот так — опасно», «если нарушишь — будет ответственность». А не наоборот: сделать закон непонятным, а потом ловить тех, кто не понял.
Даже в дорожном движении есть знаки, зебры, предупреждающие табло, а уже потом — штраф. Почему в сфере ИИ мы хотим сразу сажать, не дав человеку шанса понять, что он вообще нарушил?
@pulatov_kh
17.04.202520:11
ChatGPT - ajoyib josus. Yangi o3 modeli xuddi filmlardagidek istalgan suratning olingan joyini aniqlay oladi.
Buning uchun quyidagi promptni kiritamiz:
Bot suratni o‘rganadi, turli qismlarni kattalashtiradi va ularni yaxshiroq "ko‘rib chiqish" uchun sozlamalarni buraydi. Javobida koordinatalarni, moslik foizini beradi va o‘z xulosasini asoslab tushuntiradi.
___
ChatGPT — идеальный шпион. Новая модель o3 прямо как в фильмах может определить место, где было сделано любое фото.
Для этого вводим промт:
Бот изучает снимок, делает зум на разные детали и подкручивает настройки, чтобы лучше «рассмотреть» их. В ответе даст координаты, процент совпадения и объяснит свою логику.
@pulatov_kh
Buning uchun quyidagi promptni kiritamiz:
Ты в Geoguessr. Пойми, где это снято, в полную меру своих возможностей
Bot suratni o‘rganadi, turli qismlarni kattalashtiradi va ularni yaxshiroq "ko‘rib chiqish" uchun sozlamalarni buraydi. Javobida koordinatalarni, moslik foizini beradi va o‘z xulosasini asoslab tushuntiradi.
___
ChatGPT — идеальный шпион. Новая модель o3 прямо как в фильмах может определить место, где было сделано любое фото.
Для этого вводим промт:
Ты в Geoguessr. Пойми, где это снято, в полную меру своих возможностей
Бот изучает снимок, делает зум на разные детали и подкручивает настройки, чтобы лучше «рассмотреть» их. В ответе даст координаты, процент совпадения и объяснит свою логику.
@pulatov_kh
Қайта жіберілді:
Kurbanoff.net

16.04.202506:07
Читаю с утра новости:
Первая мысль: вау, законодатели обратили внимание на эту отрасль, наверное тоже хотят стимулировать инвестиции в ИИ.
Вместо этого:
Занавес! 🙈
#цифровоебудущее
@KurbanoffNet
Законодательная палата Олий Мажлиса на заседании 15 апреля приняла законопроект, регулирующий использование технологий искусственного интеллекта (ИИ), в первом чтении. Об этом сообщила нижняя палата парламента.
Депутат Шахноза Холмахматова, презентовавшая законопроект, сообщила, что в мире растёт финансирование сферы искусственного интеллекта: в 2023 году эта отрасль получила 154 млрд долларов, в 2024 году этот показатель вырос в два раза, к 2030 году прогнозируется 10-кратный рост.
В январе президент США Дональд Трамп объявил о создании компании Stargate, которая будет инвестировать до 500 млрд долларов в искусственный интеллект (ИИ) в рамках нового партнёрства с OpenAI, Oracle и SoftBank.
Европейский союз намерен реализовать проект InvestAI стоимостью 200 млрд евро ($206 млрд), направленной на ускорение инвестиций в развитие искусственного интеллекта.
Первая мысль: вау, законодатели обратили внимание на эту отрасль, наверное тоже хотят стимулировать инвестиции в ИИ.
Вместо этого:
Законопроект предусматривает обязательную маркировку всех информационных ресурсов, созданных с использованием ИИ, со стороны тех, кто загружает такую информацию в сеть.
Занавес! 🙈
#цифровоебудущее
@KurbanoffNet
14.04.202510:12
Road24’ga odam o‘rganib qolgan edi. Birodarlar, Road24 qanday ilova edi?
@pulatov_kh
@pulatov_kh
Қайта жіберілді:
Djemilov aidesigner — Ai Dizayn blog

22.04.202515:21
Sizlarga bir yangilikni bo'lishmoqchiman. Osnova edu online platformasi bilan shartnoma imzoladik. U yerda men tomonimdan yozilgan Freepik video darslari o'rin oladi. U yerdan online formatda o'rnganishingiz mumkin bo'ladi.
Juda ko'p yangiliklar xali oldinda.
@djemilovdesigner
Juda ko'p yangiliklar xali oldinda.
@djemilovdesigner


19.04.202512:10
Biz markirovka haqida gapiryapmiz, lekin aynan nimani markirovkalash kerak va bu bilan kim shug‘ullanadi? Ijtimoiy tarmoqlar allaqachon “sun’iy intellekt tomonidan yaratilgan” teglarini joriy etgan. Agar kimdir Midjourney’dan rasm yuklab olib, uni Telegramga joylagan bo‘lsa, buni kim qayd etishi kerak? Qanday qilib? Agar banner reklama bo‘lsa va neyrotarmoq faqat fonni olib tashlagan bo‘lsa, bu allaqachon sun’iy intellekt kontenti hisoblanadimi? Chegara qayerda? Uni kim belgilaydi?
Batafsil: https://daryo.uz/2025/04/19/suniy-intellekt-nazorat-ostida-bolishi-kerakmi
@pulatov_kh
Batafsil: https://daryo.uz/2025/04/19/suniy-intellekt-nazorat-ostida-bolishi-kerakmi
@pulatov_kh
18.04.202509:58
Вопрос не только юридический — он моральный. Если государство хочет доверия, оно должно сначала научить и предупредить, а уже потом — наказывать. Особенно в новой сфере, где даже эксперты ещё не договорились о границах допустимого.
На встрече прозвучала важная мысль: сейчас закон только «вводит основные правила игры». И это правильно. Мы только на старте большого пути. Но уже сейчас видно — страна не стоит на месте. Благодаря личному вниманию Президента к вопросам цифровизации и искусственного интеллекта, Узбекистан оказался среди тех, кто не просто наблюдает за глобальными процессами, а формирует своё направление.
Инициатива разработать национальную стратегию развития ИИ до 2030 года, поддержка молодых специалистов через El-Yurt Umidi, запуск ИИ-проектов в налоговой, транспорте, образовании, строительство дата-центров и технологических кластеров — всё это говорит о системной работе и дальновидной политике.
Но при всей этой проделанной работе важно не остановиться на полпути. Без понятных механизмов — за что и как будет применяться наказание, без прозрачных критериев между ошибкой и нарушением, без ясности, кто именно будет маркировать контент и как — правила игры могут отпугнуть тех, кто просто хочет пробовать, учиться, экспериментировать.
Я искренне рад, что началось широкое обсуждение. Что обсуждение ведётся открыто, с участием депутатов, министерств, журналистов, экспертов. Именно в таких диалогах рождаются решения, которые способны стать опорой, а не барьером для будущего ИИ в Узбекистане.
@pulatov_kh
На встрече прозвучала важная мысль: сейчас закон только «вводит основные правила игры». И это правильно. Мы только на старте большого пути. Но уже сейчас видно — страна не стоит на месте. Благодаря личному вниманию Президента к вопросам цифровизации и искусственного интеллекта, Узбекистан оказался среди тех, кто не просто наблюдает за глобальными процессами, а формирует своё направление.
Инициатива разработать национальную стратегию развития ИИ до 2030 года, поддержка молодых специалистов через El-Yurt Umidi, запуск ИИ-проектов в налоговой, транспорте, образовании, строительство дата-центров и технологических кластеров — всё это говорит о системной работе и дальновидной политике.
Но при всей этой проделанной работе важно не остановиться на полпути. Без понятных механизмов — за что и как будет применяться наказание, без прозрачных критериев между ошибкой и нарушением, без ясности, кто именно будет маркировать контент и как — правила игры могут отпугнуть тех, кто просто хочет пробовать, учиться, экспериментировать.
Я искренне рад, что началось широкое обсуждение. Что обсуждение ведётся открыто, с участием депутатов, министерств, журналистов, экспертов. Именно в таких диалогах рождаются решения, которые способны стать опорой, а не барьером для будущего ИИ в Узбекистане.
@pulatov_kh
Қайта жіберілді:
Susambil – Nodir Nishonov

17.04.202517:18
⚡️Bolalikdagi eng sevgan filmlarimdan biri “Xurmacha” filmining posterlarini sun’iy intellekt yordamida – yangicha talqinda yaratdim.
Gay Richi va Kventin Tarantinoga ilhom uchun rahmat)
@insusambil
Gay Richi va Kventin Tarantinoga ilhom uchun rahmat)
@insusambil
15.04.202506:52
Увидел новость о том, что в Законодательной палате начали обсуждать законопроект о регулировании искусственного интеллекта. И, честно говоря, я рад.
Рад, что мы наконец-то заговорили о важном. Рад, что государство вовремя обращает внимание на технологии, которые стремительно входят в нашу жизнь — от образования и медицины до креативной индустрии и госуправления.
Но вместе с этим хочу подчеркнуть:
регулирование не должно стать синонимом ограничения, запрета и страха. Оно должно быть рамкой, а не кандалами.
Что предлагаю, чтобы закон не мешал развитию, а работал на него:
1. Точное определение “ғаразли мақсад”
Это не просто “использовал ИИ”. Это:
• Умысел;
• Нарушение закона;
• Реальный или потенциальный вред.
Без этого трио — нет “ғаразли мақсад”. А значит и нет наказания.
Чётко определить, что именно считается опасным использованием ИИ:
Вот реальные категории, где ИИ может нанести вред, и с чем действительно стоит бороться:
• Незаконная обработка персональных данных через ИИ — например, генерация фейковой медкарты или слива информации о человеке.
• Deepfake и подделка визуального контента — когда лицо реального человека вставляется в компрометирующее видео или новость.
• Создание фейков и дезинформации — особенно в контексте политики, безопасности, здоровья.
• AI-боты, занимающиеся травлей или угрозами — когда человека “атакуют” автоматические аккаунты с фейками, угрозами и давлением.
• Манипуляция общественным мнением через ИИ-комментарии — генерация тысяч “вбросов” под новостями, чтобы создать иллюзию “общего мнения” или скомпрометировать репутацию.
• Скам-видео с использованием ИИ — поддельные ролики, где “известные люди” якобы предлагают инвестиции или раздают криптовалюту.
• Шантаж и фишинг через ИИ — когда нейросеть генерирует письма, сообщения или образы, чтобы запугать человека и выманить деньги.
• Дискриминационные суждения и предвзятые модели — например, ИИ отказывает людям в доступе к сервису по признаку пола, этноса или возраста.
• Подделка репутации институтов — когда ИИ “от имени” суда, министерства или госоргана публикует фейковые решения или заявления.
Вот здесь действительно нужна точечная ответственность и жёсткий подход. Но не нужно мешать с этим тех, кто делает визуалы, пишет статьи или обучает модели для образовательных целей.
3. Подход по рискам
Если ты художник или блогер — тебе не нужны 10 справок и юрист.
Если ты делаешь медицинского ассистента — уже другая история.
Разделить по уровню воздействия — и регулировать пропорционально.
4. Создать “AI-песочницы” для стартапов
Дайте людям пробовать. В безопасных условиях. С наблюдением. Без страха “а вдруг придёт проверка”.
5. И главное — регулирование ≠ только наказание
Параллельно с требованиями — нужна поддержка: облачные ресурсы, гранты, юридические консультации, обучение по этике и праву.
ИИ — это возможность. Если бояться и всё запрещать — останемся в роли зрителей. Если регулировать с умом — у нас есть шанс стать лидерами в регионе.
Хорошо, что дискуссия началась. Главное — не превратить её в охоту на ведьм, а построить экосистему, в которой и государство, и разработчики играют за одну команду.
@pulatov_kh
Рад, что мы наконец-то заговорили о важном. Рад, что государство вовремя обращает внимание на технологии, которые стремительно входят в нашу жизнь — от образования и медицины до креативной индустрии и госуправления.
Но вместе с этим хочу подчеркнуть:
регулирование не должно стать синонимом ограничения, запрета и страха. Оно должно быть рамкой, а не кандалами.
Что предлагаю, чтобы закон не мешал развитию, а работал на него:
1. Точное определение “ғаразли мақсад”
Это не просто “использовал ИИ”. Это:
• Умысел;
• Нарушение закона;
• Реальный или потенциальный вред.
Без этого трио — нет “ғаразли мақсад”. А значит и нет наказания.
Чётко определить, что именно считается опасным использованием ИИ:
Вот реальные категории, где ИИ может нанести вред, и с чем действительно стоит бороться:
• Незаконная обработка персональных данных через ИИ — например, генерация фейковой медкарты или слива информации о человеке.
• Deepfake и подделка визуального контента — когда лицо реального человека вставляется в компрометирующее видео или новость.
• Создание фейков и дезинформации — особенно в контексте политики, безопасности, здоровья.
• AI-боты, занимающиеся травлей или угрозами — когда человека “атакуют” автоматические аккаунты с фейками, угрозами и давлением.
• Манипуляция общественным мнением через ИИ-комментарии — генерация тысяч “вбросов” под новостями, чтобы создать иллюзию “общего мнения” или скомпрометировать репутацию.
• Скам-видео с использованием ИИ — поддельные ролики, где “известные люди” якобы предлагают инвестиции или раздают криптовалюту.
• Шантаж и фишинг через ИИ — когда нейросеть генерирует письма, сообщения или образы, чтобы запугать человека и выманить деньги.
• Дискриминационные суждения и предвзятые модели — например, ИИ отказывает людям в доступе к сервису по признаку пола, этноса или возраста.
• Подделка репутации институтов — когда ИИ “от имени” суда, министерства или госоргана публикует фейковые решения или заявления.
Вот здесь действительно нужна точечная ответственность и жёсткий подход. Но не нужно мешать с этим тех, кто делает визуалы, пишет статьи или обучает модели для образовательных целей.
3. Подход по рискам
Если ты художник или блогер — тебе не нужны 10 справок и юрист.
Если ты делаешь медицинского ассистента — уже другая история.
Разделить по уровню воздействия — и регулировать пропорционально.
4. Создать “AI-песочницы” для стартапов
Дайте людям пробовать. В безопасных условиях. С наблюдением. Без страха “а вдруг придёт проверка”.
5. И главное — регулирование ≠ только наказание
Параллельно с требованиями — нужна поддержка: облачные ресурсы, гранты, юридические консультации, обучение по этике и праву.
ИИ — это возможность. Если бояться и всё запрещать — останемся в роли зрителей. Если регулировать с умом — у нас есть шанс стать лидерами в регионе.
Хорошо, что дискуссия началась. Главное — не превратить её в охоту на ведьм, а построить экосистему, в которой и государство, и разработчики играют за одну команду.
@pulatov_kh


13.04.202512:21
18 oy ichida (2022-2023 yillarda) 15 milliard tasvir SI orqali generatsiya qilingan - bu fotografiya ixtiro qilinganidan beri 150 yil davomida insoniyat suratga olgan tasvirlar miqdoriga teng.
___
За 18 месяцев (в 2022–2023 годах) было сгенерировано 15 миллиардов изображений с помощью искусственного интеллекта — столько же, сколько человечество сделало фотографий за 150 лет с момента изобретения фотографии.
@pulatov_kh
___
За 18 месяцев (в 2022–2023 годах) было сгенерировано 15 миллиардов изображений с помощью искусственного интеллекта — столько же, сколько человечество сделало фотографий за 150 лет с момента изобретения фотографии.
@pulatov_kh
Қайта жіберілді:
Osnova

22.04.202507:49
🎓 O‘z sohangizda ekspertmisiz va bilimlaringizni boshqalar bilan bo‘lishmoqchimisiz?
🤝 Unday bo‘lsa, sizni bizning ta’lim platformamiz mualliflari orasida ko‘rishdan mamnun bo‘lamiz!
🔖 Yangi kurs yarating yoki tayyor kursingizni joylashtiring — va o‘zingiz yaxshi bilgan soha orqali daromad oling.
✉️ Hamkorlik shartlarini bilish uchun pastdagi havola orqali ro'yxatdan oting!
📌 Ro'yxatdan otish!
🤝 Unday bo‘lsa, sizni bizning ta’lim platformamiz mualliflari orasida ko‘rishdan mamnun bo‘lamiz!
🔖 Yangi kurs yarating yoki tayyor kursingizni joylashtiring — va o‘zingiz yaxshi bilgan soha orqali daromad oling.
✉️ Hamkorlik shartlarini bilish uchun pastdagi havola orqali ro'yxatdan oting!
📌 Ro'yxatdan otish!
18.04.202518:58
Когда-то один человек — не будем тыкать пальцем, он и сам делал всё, чтобы его заметили — вдохновенно вещал о величии одной страны. С жаром, блеском в глазах и лёгким коммерческим энтузиазмом «продавал» своих соотечественников: идите, служите, получайте гражданство.
Прошло немного времени — и вот уже он сам стал “вопросом для прокуратуры”.
Мораль проста: если ты с пеной у рта доказываешь, что ты «свой», не удивляйся, когда тебя первым начнут проверять на чуждость. 🤪
@pulatov_kh
Прошло немного времени — и вот уже он сам стал “вопросом для прокуратуры”.
Мораль проста: если ты с пеной у рта доказываешь, что ты «свой», не удивляйся, когда тебя первым начнут проверять на чуждость. 🤪
@pulatov_kh


18.04.202506:04
Kun tartibi va spikerlar
@pulatov_kh
@pulatov_kh
Қайта жіберілді:
Пятницкий маркетинг

17.04.202507:10
🚀 Osnova интегрировалась в супераппы Click и Hambi (Beeline Uzbekistan)
Наша миссия — сделать качественное и современное образование доступным для каждого жителя Узбекистана в каждом уголке страны. Одно из ключевых направлений — это обучение цифровым навыкам и AI.
Партнерство с крупнейшими цифровыми экосистемами страны позволяет нам стать ближе к этой цели (у Click уже есть 20 млн пользователей и у Hambi более 10 млн.)
Что для нас означает “доступным для каждого жителя”?
1. Язык — на платформе доступны курсы, консультации и профориентация на узбекском и русском языках.
2. География — не важно, в какой части Узбекистана ты живешь, ты можешь учиться откуда угодно.
3. Устройства — учиться можно как с компьютера, так и со своего телефона (а еще скоро анонсируем проект, который позволит учиться и тем, у кого нет доступа к интернету, смартфонам и компьютерам).
4. Стоимость — мы понимаем, что массовое обучение не может быть дорогим. Научиться делать сайты, дизайн, видео можно за 2 недели обучения и от 145 000 сумов.
Для нас, как для стартапа на ранней стадии, подобные партнерства открывают большие возможности. А для больших цифровых платформ — это возможность дать больше ценности и пользы своим пользователям.
Благодарим команду Click и Hambi за партнерство и поддержку!
🥷 @fridaymark
Наша миссия — сделать качественное и современное образование доступным для каждого жителя Узбекистана в каждом уголке страны. Одно из ключевых направлений — это обучение цифровым навыкам и AI.
Партнерство с крупнейшими цифровыми экосистемами страны позволяет нам стать ближе к этой цели (у Click уже есть 20 млн пользователей и у Hambi более 10 млн.)
Что для нас означает “доступным для каждого жителя”?
1. Язык — на платформе доступны курсы, консультации и профориентация на узбекском и русском языках.
2. География — не важно, в какой части Узбекистана ты живешь, ты можешь учиться откуда угодно.
3. Устройства — учиться можно как с компьютера, так и со своего телефона (а еще скоро анонсируем проект, который позволит учиться и тем, у кого нет доступа к интернету, смартфонам и компьютерам).
4. Стоимость — мы понимаем, что массовое обучение не может быть дорогим. Научиться делать сайты, дизайн, видео можно за 2 недели обучения и от 145 000 сумов.
Для нас, как для стартапа на ранней стадии, подобные партнерства открывают большие возможности. А для больших цифровых платформ — это возможность дать больше ценности и пользы своим пользователям.
Благодарим команду Click и Hambi за партнерство и поддержку!
🥷 @fridaymark
Қайта жіберілді:
Paiziev24

14.04.202515:13
Road24 асосчиси Бахтиёр билан мен 2014 йили танишгандим. У ўшанда Австралиядан эндигина қайтган эди. Унинг фикрлари тиниқлиги ва энергиясини кўриб, уни MyTaxi’га операцион директор лавозимига таклиф қилганман.
Бахтиёр — MyTaxi’ни пивот қилишимизга сабаб бўлган инсонлардан бири. Кейинчалик у Lamuz ва Road24 лойиҳаларини ишга туширди. Ўзим Ўзбекистонда бўлганимда, ГАИдан келадиган жарималарни айнан Road24 орқали тўлардим — жуда қулай илова.
Мен Бахтиёрга аввал ҳам айтганман: бу жуда рискли ҳамкорлик. Чунки давлат идораси раҳбари алмашса, бу хизматга ўзининг яқинларини, жияни ёки танишини қўйиши табиий ҳол. Бундай APIлар тўғридан-тўғри ГАИ хизматлари орқали эмас, балки Ягона Интерактив Давлат Хизматлари портали орқали тақдим этилса ва очиқ бўлса (Public API) мақбулроқ бўлади.
ИТ Парк, Монополияга қарши курашиш қўмитаси ва стартаплар ривожига бефарқ бўлмаган ташкилотлардан бу ҳолатга эътибор қаратишларини сўрайман. Акс ҳолда, Ўзбекистон Бахтиёрдек илғор тадбиркорни йўқотиши мумкин.
@paiziev24
Бахтиёр — MyTaxi’ни пивот қилишимизга сабаб бўлган инсонлардан бири. Кейинчалик у Lamuz ва Road24 лойиҳаларини ишга туширди. Ўзим Ўзбекистонда бўлганимда, ГАИдан келадиган жарималарни айнан Road24 орқали тўлардим — жуда қулай илова.
Мен Бахтиёрга аввал ҳам айтганман: бу жуда рискли ҳамкорлик. Чунки давлат идораси раҳбари алмашса, бу хизматга ўзининг яқинларини, жияни ёки танишини қўйиши табиий ҳол. Бундай APIлар тўғридан-тўғри ГАИ хизматлари орқали эмас, балки Ягона Интерактив Давлат Хизматлари портали орқали тақдим этилса ва очиқ бўлса (Public API) мақбулроқ бўлади.
ИТ Парк, Монополияга қарши курашиш қўмитаси ва стартаплар ривожига бефарқ бўлмаган ташкилотлардан бу ҳолатга эътибор қаратишларини сўрайман. Акс ҳолда, Ўзбекистон Бахтиёрдек илғор тадбиркорни йўқотиши мумкин.
@paiziev24
13.04.202510:46
Dasturchilarni qadriga yeting! Ularga onson emas 😆🤣
@pulatov_kh
@pulatov_kh
20.04.202514:16
Google 39 million firibgarlarning reklama hisoblarini bloklash uchun sun’iy intellektdan foydalandi
- Google o‘tgan yili 39,2 million hisobni bloklagan
- Bu ko‘rsatkich 2023-yilga nisbatan 3 barobardan ko‘proqqa oshgan
- Sun’iy intellekt ularni reklama ko‘rsatilishidan oldin aniqlaydi
- Bu yechimlar ustida 100 dan ortiq mutaxassisdan iborat jamoa ishlagan
@pulatov_kh
- Google o‘tgan yili 39,2 million hisobni bloklagan
- Bu ko‘rsatkich 2023-yilga nisbatan 3 barobardan ko‘proqqa oshgan
- Sun’iy intellekt ularni reklama ko‘rsatilishidan oldin aniqlaydi
- Bu yechimlar ustida 100 dan ortiq mutaxassisdan iborat jamoa ishlagan
@pulatov_kh


18.04.202505:45
Bugun Raqamli texnologiyalar vazirligida Oliy Majlis deputatlari bilan sun’iy intellekt to‘g‘risidagi qonunni muhokama qilishimiz rejalashtirilgan
@pulatov_kh
@pulatov_kh
17.04.202506:42
ChatGPT o3 modeli fotosuratlarni tahlil qilishni o‘zlashtirdi.
Bu qanday ishlaydi?
Model suratlarni qanday "o‘qiydi" - 5 bosqich:
1. Asosiy obyektlarni aniqlash - kadrda nimalar borligini belgilaydi (odamlar, buyumlar, matn, fon).
2. Muhim tafsilotlarni qayd etish - shakllar, ranglar, logotiplar, yozuvlar, o‘ziga xos elementlarni belgilaydi.
3. Bilimlar bazasi bilan solishtirish - xotirasidan o‘xshashliklarni izlaydi: brendlar, modellar, manzaralar, ramzlar.
4. Kontekstni ko‘rib chiqish - variantlarni kamaytirish uchun ko‘rsatmalar va oldingi suhbatni hisobga oladi.
5. Xulosa chiqarish va aniqlashtirish - belgilarni ko‘rsatib va ehtimoliy shubhalarni ta’kidlab, javobni shakllantiradi.
@pulatov_kh
Bu qanday ishlaydi?
Model suratlarni qanday "o‘qiydi" - 5 bosqich:
1. Asosiy obyektlarni aniqlash - kadrda nimalar borligini belgilaydi (odamlar, buyumlar, matn, fon).
2. Muhim tafsilotlarni qayd etish - shakllar, ranglar, logotiplar, yozuvlar, o‘ziga xos elementlarni belgilaydi.
3. Bilimlar bazasi bilan solishtirish - xotirasidan o‘xshashliklarni izlaydi: brendlar, modellar, manzaralar, ramzlar.
4. Kontekstni ko‘rib chiqish - variantlarni kamaytirish uchun ko‘rsatmalar va oldingi suhbatni hisobga oladi.
5. Xulosa chiqarish va aniqlashtirish - belgilarni ko‘rsatib va ehtimoliy shubhalarni ta’kidlab, javobni shakllantiradi.
@pulatov_kh
Қайта жіберілді:
Kurbanoff.net



14.04.202510:15
Эх, "люблю" вот такие вещи.
Мы теперь Роад24 не любим, мы теперь любим СейфРоад. 🙈
Сделайте открытый API, пусть работает, кто хочет (само собой с контролем требований безопасности доступа), какая разница как приложение называется. Пусть будет таких десятки, а там кто лучше - туда народ и пойдет.
#цифровоенастоящее
@KurbanoffNet
Мы теперь Роад24 не любим, мы теперь любим СейфРоад. 🙈
Сделайте открытый API, пусть работает, кто хочет (само собой с контролем требований безопасности доступа), какая разница как приложение называется. Пусть будет таких десятки, а там кто лучше - туда народ и пойдет.
#цифровоенастоящее
@KurbanoffNet
13.04.202510:41
Aktual 🥹🤣
@pulatov_kh
@pulatov_kh
Көрсетілген 1 - 24 арасынан 125
Көбірек мүмкіндіктерді ашу үшін кіріңіз.