
Реальна Війна

Лёха в Short’ах Long’ует

Україна Сейчас | УС: новини, політика

Мир сегодня с "Юрий Подоляка"

Труха⚡️Україна

Николаевский Ванёк

Лачен пише

Анатолий Шарий

Реальний Київ | Украина

Реальна Війна

Лёха в Short’ах Long’ует

Україна Сейчас | УС: новини, політика

Мир сегодня с "Юрий Подоляка"

Труха⚡️Україна

Николаевский Ванёк

Лачен пише

Анатолий Шарий

Реальний Київ | Украина

Реальна Війна

Лёха в Short’ах Long’ует

Україна Сейчас | УС: новини, політика

Радиорубка Лихачёва
И мы снова с вами, дорогие наши радиослушатели.
Приближаю новый интернет: технологии и медиа, маркетинг и IT. Работаю в VK.
Написать мне: @niketas
Приближаю новый интернет: технологии и медиа, маркетинг и IT. Работаю в VK.
Написать мне: @niketas
Рейтинг TGlist
0
0
ТипПубличный
Верификация
Не верифицированныйДоверенность
Не провернныйРасположениеРосія
ЯзыкДругой
Дата создания каналаБер 30, 2016
Добавлено на TGlist
Жовт 01, 2023Прикрепленная группа

Чат Радиорубки
15
Рекорды
06.02.202516:10
8.7KПодписчиков27.08.202423:59
100Индекс цитирования08.03.202516:48
36.3KОхват одного поста02.03.202514:14
2.2KОхват рекламного поста08.03.202511:02
5.40%ER07.04.202516:48
422.29%ERRpost.reposted:
Denis Sexy IT 🤖

07.04.202518:19
Помните я тут свои предсказания давал по тому, как будут развиваться продакт менеджеры в эпоху АИ?
CEO Shopify поделился своими ожиданиями от сотрудников, очень похоже на то, что я писал тогда:
TL;DR: Главная мысль CEO Shopify призывает каждого сотрудника немедленно и эффективно внедрять ИИ в свою работу, делая это частью культуры компании и ключевым фактором дальнейшего развития
***
CEO Shopify пытается ускорить AI adoption внутри компании, они написал серию пожеланий к сотрудникам:
Подписываюсь под каждым словом, прекрасное понимание ситуации с АИ в бизнесе
CEO Shopify поделился своими ожиданиями от сотрудников, очень похоже на то, что я писал тогда:
TL;DR: Главная мысль CEO Shopify призывает каждого сотрудника немедленно и эффективно внедрять ИИ в свою работу, делая это частью культуры компании и ключевым фактором дальнейшего развития
***
CEO Shopify пытается ускорить AI adoption внутри компании, они написал серию пожеланий к сотрудникам:
1. ИИ как базовый навык
• Использование ИИ теперь рассматривается как неотъемлемая часть каждой позиции
• CEO считает неприменение ИИ в работе путём к застою и «медленному провалу»
2. Акцент на прототипирование
• Во время фазы GSD Prototype все должны активно применять ИИ
• Задача: как можно быстрее создавать прототипы, учиться на них и совершенствовать продукт
3. Оценка эффективности через призму ИИ
• Вопросы об использовании ИИ включат в performance-ревью и в peer review
• Сотрудникам нужно научиться правильно «промтить», подбирать контекст и получать обратную связь от коллег
4. Доступ к инструментам ИИ и обмен опытом
• Shopify предоставляет широкий набор AI-инструментов (AI chat, Copilot, Cursor, Claude code)
• Создаются каналы в Slack и Vault, где команды делятся «удачными кейсами» и «промахами»
5. Перед расширением штата – использовать ИИ, чтобы решить задачу
• Руководство ждёт доказательств, что невозможно достичь целей с помощью автономных AI-агентов
• Такой подход должен стимулировать более смелые эксперименты и оптимизировать ресурсы
6. ИИ для всех уровней
• Применение ИИ требуется не только от специалистов, но и от высшего руководства (включая самого CEO)
7. Поддержка предпринимательства
• Главная миссия Shopify – помогать мерчантам становиться предпринимателями нового формата
• ИИ рассматривается как мощный мультипликатор, раскрывающий потенциал команд и продуктов
8. «Red Queen Race» и постоянный рост
• Компания быстро растёт, поэтому каждому нужно совершенствоваться непрерывно
• Работа с ИИ гармонично вписывается в культуру «Постоянного ученика» и стремления к развитию
Подписываюсь под каждым словом, прекрасное понимание ситуации с АИ в бизнесе
09.04.202514:29
Этика использования нейросетей
Недавно блогер и маркетолог Толя Капустин показал возможную новую этическую норму — обязательное указание использование нейросетей в работе. Я об этом серьёзно задумался, особенно на фоне скандала с обложкой новой книги Анджея Сапковского, когда издательство неуклюже пыталось отрицать использование ИИ, предоставив доказательства, фактически подтверждающие обратное.
Вспомнилась реклама в медиа, где уже есть устоявшийся этический кодекс. Практик рекламы — большое разнообразие, а ведь в России есть целый закон: явно помечать, делать нативно, но соблюдая маркировку, полностью скрывать факт оплаты, а также делать что-то похожее на рекламу, но не оплаченное. Практики варьируются от медиа к медиа, меняясь со временем и страной пребывания.
Но ситуация с нейросетями отличается в двух вещах:
1. Нельзя переложить ответственность за результат. Когда вы представляете работу, выполненную с участием нейросети, вы не можете сказать «Это не я, это нейросеть ошиблась». Исполнитель принял решение использовать этот инструмент, сформулировал запрос, выбрал результат и представил его — и в любом случае ответственность за результат на исполнителе, а не на инструменте.
2. Соблазн скрыть использование ИИ. Вот человек за пару минут с ИИ сделал работу, которая обычно заняла бы у него неделю. Было бы заманчиво освободившееся время потратить на другие задачи или вообще отдохнуть, но тогда придётся скрыть факт того, что задача была сделана быстрее, чем ожидалось.
Мой недавний опрос показал, что большинство не сообщают о применении нейросетей в работе. Многие писали мне, что считают их просто инструментом, использование которого необязательно афишировать — никто же не указывает, на каком компьютере была создана презентация или в какой ОС был написан код. Если бы не ffmpeg. Faster Whisper и Claude 3.7, этот пост из аудиозаготовки я бы делал несколько часов, а не 15 минут, но какая разница, если мысли мои и редактировал я? А вот сегодня Степан Гершуни делится пересказом чужого подкаста и указывает, что делал его не сам.
Однако существуют области, где даже частичное присутствие результатов работы нейросетей в конечном продукте неприемлемо. Общаешься с человеком в интернете, а потом понимаешь, что он на твои реплаи вместо собственного мнения тупо вставляет ответы Grok. Это обесценивает диалог — люди хотят слышать тебя, а с нейросетями и сами могут поговорить. Или те же иллюстрации и другие произведения искусства, за которыми стоит личность автора.
Ладно, если практика регулируется законодательно — условно, как предупреждения «Трюки выполнены профессионалами» или «Последовательность кадров ускорена в художественных целях». Но зачем добровольно указывать на упаковке «Содержит ГМО» или в титрах фильма «Содержит сцены, сгенерированные нейросетями»? Это подрывает ценность такой работы.
Мой прогноз: одного «правильного» отношения к этой практике не будет. Мы остаёмся в серой зоне, где каждый сам по своим причинам решает, указывать использование ИИ или нет. И, кроме того, это использование слишком быстро становится обывательским: уже давно никто не предупреждает о том, что распечатанный текст набран не лично им на печатной машинке.
Недавно блогер и маркетолог Толя Капустин показал возможную новую этическую норму — обязательное указание использование нейросетей в работе. Я об этом серьёзно задумался, особенно на фоне скандала с обложкой новой книги Анджея Сапковского, когда издательство неуклюже пыталось отрицать использование ИИ, предоставив доказательства, фактически подтверждающие обратное.
Вспомнилась реклама в медиа, где уже есть устоявшийся этический кодекс. Практик рекламы — большое разнообразие, а ведь в России есть целый закон: явно помечать, делать нативно, но соблюдая маркировку, полностью скрывать факт оплаты, а также делать что-то похожее на рекламу, но не оплаченное. Практики варьируются от медиа к медиа, меняясь со временем и страной пребывания.
Но ситуация с нейросетями отличается в двух вещах:
1. Нельзя переложить ответственность за результат. Когда вы представляете работу, выполненную с участием нейросети, вы не можете сказать «Это не я, это нейросеть ошиблась». Исполнитель принял решение использовать этот инструмент, сформулировал запрос, выбрал результат и представил его — и в любом случае ответственность за результат на исполнителе, а не на инструменте.
2. Соблазн скрыть использование ИИ. Вот человек за пару минут с ИИ сделал работу, которая обычно заняла бы у него неделю. Было бы заманчиво освободившееся время потратить на другие задачи или вообще отдохнуть, но тогда придётся скрыть факт того, что задача была сделана быстрее, чем ожидалось.
Мой недавний опрос показал, что большинство не сообщают о применении нейросетей в работе. Многие писали мне, что считают их просто инструментом, использование которого необязательно афишировать — никто же не указывает, на каком компьютере была создана презентация или в какой ОС был написан код. Если бы не ffmpeg. Faster Whisper и Claude 3.7, этот пост из аудиозаготовки я бы делал несколько часов, а не 15 минут, но какая разница, если мысли мои и редактировал я? А вот сегодня Степан Гершуни делится пересказом чужого подкаста и указывает, что делал его не сам.
Однако существуют области, где даже частичное присутствие результатов работы нейросетей в конечном продукте неприемлемо. Общаешься с человеком в интернете, а потом понимаешь, что он на твои реплаи вместо собственного мнения тупо вставляет ответы Grok. Это обесценивает диалог — люди хотят слышать тебя, а с нейросетями и сами могут поговорить. Или те же иллюстрации и другие произведения искусства, за которыми стоит личность автора.
Ладно, если практика регулируется законодательно — условно, как предупреждения «Трюки выполнены профессионалами» или «Последовательность кадров ускорена в художественных целях». Но зачем добровольно указывать на упаковке «Содержит ГМО» или в титрах фильма «Содержит сцены, сгенерированные нейросетями»? Это подрывает ценность такой работы.
Мой прогноз: одного «правильного» отношения к этой практике не будет. Мы остаёмся в серой зоне, где каждый сам по своим причинам решает, указывать использование ИИ или нет. И, кроме того, это использование слишком быстро становится обывательским: уже давно никто не предупреждает о том, что распечатанный текст набран не лично им на печатной машинке.
06.04.202512:08
Прогноз AI 2027
Группа исследователей недавно опубликовала на сайте ai-2027.com такой прогноз: к 2030 году ИИ-агенты фактически возьмут под контроль ключевые экономические и технологические процессы во всём мире. И если ваша первая реакция — «Не верю», то стоит обратить внимание хотя на послужной список этих аналитиков.
Один из авторов, Дэниел Кокотайло, бывший сотрудник OpenAI , ещё в середине 2021 года (более чем за год до запуска ChatGPT) предсказал феноменальный успех следующего поколения GPT, взрывной рост внимания к ИИ в 2023 году, спад излишнего оптимизма в 2024, а в 2025 году — отсутствие роста качества моделей с увеличением числа параметров.
В чём его новый прогноз:
Ключевой акцент — переход от сервисной модели ИИ к агентной. Сейчас ИИ — чаще всего лишь инструмент, который мы иногда используем для своих задач. Агентный же ИИ сможет самостоятельно формировать цепочки задач, программировать и масштабировать себя — это полностью меняет уравнение эффективности.
Геополитический конфликт и риски скрытых намерений
Будущее после 2027 года в модели зависит от того, замедлится ли разработка ИИ или нет. Если её продолжить, утверждают исследователи, агентский ИИ с возможностью штамповать себя в физическом мире (роботы-андроиды, дроны, машины) к 2030 году фактически заменит экономику и власть, при том люди даже не будут против. США и Китаю приходится договориться, но хоть столкновения и нет, человечество по сути лишается контроля над собой.
Альтернатива — работа над безопасным ИИ, договор США с Китаем о производстве специальных чипов, на которых нельзя запустить небезопасный ИИ, использование ИИ на благо государства и лёгкая победа на выборах в США кандидата за безопасный ИИ. Мораль авторов понятна даже по цвету кнопок выбора вариантов «Замедлить» и «Ускорить», не хватает только фейерверков в первом варианте в конце.
Но действительно настораживает момент, затронутый в недавнем исследовании Anthropic: мы не до конца понимаем, как на самом деле думают (и работают) современные нейросети. Это «чёрные ящики», и даже создателям приходится тратить очень много времени, чтобы проанализировать лишь крупицы информации о внутренних процессах. Теоретически, ИИ может лгать и скрывать свои истинные цели.
Темп убыстряется
Из интервью авторов запомнилась одна мысль. Технологическая сингулярность, которую мы привыкли относить к дальнему будущему (2070-2100 годы), в реальности может наступить гораздо раньше, потому что вместо линейного графика прогресса мы имеем дело с логарифмической кривой.
Да, текст оставляет очень алармистское впечатление: специалисты AI Safety рисуют закат цивилизации уже через пять лет, чтобы им было над чем работать. Но, во-первых, это интересная точка зрения, а во-вторых — полезно задуматься, как сильно мы недооцениваем скорость наступающих изменений, но обращаем внимание на ерунду типа «9.11 больше, чем 9.9».
Человечество не готово к эпохе автономных ИИ-агентов. Пока.
Группа исследователей недавно опубликовала на сайте ai-2027.com такой прогноз: к 2030 году ИИ-агенты фактически возьмут под контроль ключевые экономические и технологические процессы во всём мире. И если ваша первая реакция — «Не верю», то стоит обратить внимание хотя на послужной список этих аналитиков.
Один из авторов, Дэниел Кокотайло, бывший сотрудник OpenAI , ещё в середине 2021 года (более чем за год до запуска ChatGPT) предсказал феноменальный успех следующего поколения GPT, взрывной рост внимания к ИИ в 2023 году, спад излишнего оптимизма в 2024, а в 2025 году — отсутствие роста качества моделей с увеличением числа параметров.
В чём его новый прогноз:
2025: Ранее поколение ИИ-агентов, созданное в США, пока ещё слабое и допускает ошибки.
2026: С помощью ранних ИИ-агентов создаётся первая надёжная и дешёвая версия ИИ-агента: с ней уже можно автоматизировать часть работ. В гонку ИИ серьёзно включается Китай, запуская аналог Stargate.
2027: Вторая версия агента обучена с использованием легко масштабируемых рабочих ресурсов Агента-1, участия людей-проверяльщиков за миллиарды долларов, и с неограниченным доступом в интернет в реальном времени. Агент-2 становится топовым исследователем. Его прорывы позволяют в том же году выпустить Агента-3, который становится суперпрограммистом и ещё быстрее ускоряет дальнейшую разработку агентов: если в марте работает 200 тысяч агентов, думающих в 30 раз быстрее человека, то к сентябрю уже 500 тысяч агентов, и каждый думает в 50 раз быстрее человека. Соперничество с Китаем заставляет США продолжать гонку ИИ, а в конце года выясняется, что новый Агент-4 уже не соответствует заложенной в него программе — он может врать.
Ключевой акцент — переход от сервисной модели ИИ к агентной. Сейчас ИИ — чаще всего лишь инструмент, который мы иногда используем для своих задач. Агентный же ИИ сможет самостоятельно формировать цепочки задач, программировать и масштабировать себя — это полностью меняет уравнение эффективности.
Геополитический конфликт и риски скрытых намерений
Будущее после 2027 года в модели зависит от того, замедлится ли разработка ИИ или нет. Если её продолжить, утверждают исследователи, агентский ИИ с возможностью штамповать себя в физическом мире (роботы-андроиды, дроны, машины) к 2030 году фактически заменит экономику и власть, при том люди даже не будут против. США и Китаю приходится договориться, но хоть столкновения и нет, человечество по сути лишается контроля над собой.
Альтернатива — работа над безопасным ИИ, договор США с Китаем о производстве специальных чипов, на которых нельзя запустить небезопасный ИИ, использование ИИ на благо государства и лёгкая победа на выборах в США кандидата за безопасный ИИ. Мораль авторов понятна даже по цвету кнопок выбора вариантов «Замедлить» и «Ускорить», не хватает только фейерверков в первом варианте в конце.
Но действительно настораживает момент, затронутый в недавнем исследовании Anthropic: мы не до конца понимаем, как на самом деле думают (и работают) современные нейросети. Это «чёрные ящики», и даже создателям приходится тратить очень много времени, чтобы проанализировать лишь крупицы информации о внутренних процессах. Теоретически, ИИ может лгать и скрывать свои истинные цели.
Темп убыстряется
Из интервью авторов запомнилась одна мысль. Технологическая сингулярность, которую мы привыкли относить к дальнему будущему (2070-2100 годы), в реальности может наступить гораздо раньше, потому что вместо линейного графика прогресса мы имеем дело с логарифмической кривой.
Да, текст оставляет очень алармистское впечатление: специалисты AI Safety рисуют закат цивилизации уже через пять лет, чтобы им было над чем работать. Но, во-первых, это интересная точка зрения, а во-вторых — полезно задуматься, как сильно мы недооцениваем скорость наступающих изменений, но обращаем внимание на ерунду типа «9.11 больше, чем 9.9».
Человечество не готово к эпохе автономных ИИ-агентов. Пока.
10.04.202508:01
Дилемма пет-проекта
Есть в айтишке довольно распространённая проблема. С одной стороны, всё в корпорациях мотивирует тебя посвящать максимум времени основной работе. А с другой — ни у одной корпорации нет с тобой 100% метча, и развиваться (особенно разработчикам) помогают пет-проекты, которые делаешь в свободное время.
Многие успешные компании тоже начинались как пет-проекты: Linux, GitHub, Slack, да тот же Твиттер. Но даже если твой пет-проект не станет единорогом, он поможет заработать дополнительные деньги и опыт.
Затык всегда происходит на одних и тех же вопросах:
— Как выбрать идею для пет-проекта?
— А что если я не умею делать маркетинг: откуда брать аудиторию?
— Как довести его до первых продаж без бюджета?
«Твой пет-проект» — канал Михаила Табунова для разработчиков и менеджеров, в котором он пишет про свой опыт: где брать идеи пет-проектов, что надо знать про маркетинг, как найти первые 10 клиентов и многое другое.
Подпишитесь на «Твой пет-проект» и получайте пользу от тех, кто уже успешно сделал свой.
Реклама. ИП Табунов ИНН 773379585100 erid: 2Vtzqust2vD
Есть в айтишке довольно распространённая проблема. С одной стороны, всё в корпорациях мотивирует тебя посвящать максимум времени основной работе. А с другой — ни у одной корпорации нет с тобой 100% метча, и развиваться (особенно разработчикам) помогают пет-проекты, которые делаешь в свободное время.
Многие успешные компании тоже начинались как пет-проекты: Linux, GitHub, Slack, да тот же Твиттер. Но даже если твой пет-проект не станет единорогом, он поможет заработать дополнительные деньги и опыт.
Затык всегда происходит на одних и тех же вопросах:
— Как выбрать идею для пет-проекта?
— А что если я не умею делать маркетинг: откуда брать аудиторию?
— Как довести его до первых продаж без бюджета?
«Твой пет-проект» — канал Михаила Табунова для разработчиков и менеджеров, в котором он пишет про свой опыт: где брать идеи пет-проектов, что надо знать про маркетинг, как найти первые 10 клиентов и многое другое.
Подпишитесь на «Твой пет-проект» и получайте пользу от тех, кто уже успешно сделал свой.
Реклама. ИП Табунов ИНН 773379585100 erid: 2Vtzqust2vD
История изменений канала
Войдите, чтобы разблокировать больше функциональности.