
Інсайдер ЗСУ

Новини UA | Україна

Главное новостное. Одесса

Реальна Війна

NOTMEME Agent News

І.ШО? | Новини

Труха⚡️Жесть 18+

Адвокат Права

Україна | Новини

Інсайдер ЗСУ

Новини UA | Україна

Главное новостное. Одесса

Реальна Війна

NOTMEME Agent News

І.ШО? | Новини

Труха⚡️Жесть 18+

Адвокат Права

Україна | Новини

Інсайдер ЗСУ

Новини UA | Україна

Главное новостное. Одесса

Малоизвестное интересное
Авторский взгляд через призму новейших исследований на наше понимание реальности, человеческой сущности и того, как ИИ меняет их. Зарегистрирован в РКН https://gosuslugi.ru/snet/67d0ce26be8c0d1c031
Рекламы, ВП и т.п. в канале нет.
Пишите на @karelovs
Рекламы, ВП и т.п. в канале нет.
Пишите на @karelovs
TGlist rating
0
0
TypePublic
Verification
Not verifiedTrust
Not trustedLocationРосія
LanguageOther
Channel creation dateOct 14, 2016
Added to TGlist
Sep 21, 2023Records
30.03.202520:22
70KSubscribers28.02.202523:59
1000Citation index18.03.202502:25
70.7KAverage views per post05.09.202403:05
25.6KAverage views per ad post22.02.202523:59
8.06%ER17.03.202514:48
101.55%ERR

07.04.202514:13
«Гормоны в тренде: секс-роботы с ИИ взорвали рынок»
Так озаглавлен весьма интересный материал 定焦One (это китайский портал про инновации) о том, как интеграция ИИ-технологий трансформирует «бастарда» индустрии человекоподобных роботов – сегмент «роботов для взрослых». На наших глазах этот «бастард» рынка «кукол для интимных развлечений» превращается в солидный сегмент индустрии человекоподобных роботов – «рынок эмоциональных партнеров».
В июне 2024, открывая рубрику «Хищные вещи века GenAI», я писал: «Не нужно быть пророком, чтобы предвидеть, на чем, в первую очередь, станут зарабатывать разработчики чатботов на основе GenAI». И №1 в этом списке шёл секс.
«Вангую, - писал я, - что с внедрением в эту область GenAI до создания кукол-биороботов для «пупарасов» (т.е. любителей кукол, замечательно описанных в романе В.Пелевина «S.N.U.F.F») не более пары лет».
О как я ошибался. Потребовалось менее года.
В апреле сразу несколько ведущих производителей «кукол для интимных развлечений» выводят на рынки новое поколение «эмоциональных партнеров» на базе ГенИИ.
Например, лидер китайского рынка - компания WMDoll кардинально обновляет свою флагманскую серию MetaBox – человекоподобные роботы с ИИ-модулем Llama AI, подключенным к службам облачных вычислений, размещенных в 10+ ЦОД.
Предлагаются множество голосов для разных персонажей (с возможностью подгонки индивидуальности и шарма): напр. медсестра, дама-полицейский, ученица, секретарь, учительница и суперженщина.
Все куклы обладают металлическим скелетом и имеют внешнюю часть из силикона или термопластичного эластомера с подогревом.
Но что главное:
• все они теперь оснащены памятью и помнят предыдущий опыт общения;
• а также способны эмоционально подбадривать партера – типа «две минуты – это круто»
По мнению аналитиков, использование ГенИИ, мягких материалов и физиологических сенсорных технологий «роботы для взрослых» в течение года эволюционируют от «физиологического инструмента» к «эмоциональному партнёру», что потенциально открывает рынок объёмом в сотни миллиардов.
Отчеты солидных аналитиков привычно обсуждают прогнозы лишь «законных» сегментов индустрии человекоподобных роботов. Так в исследовательском отчете CICC прогнозируется, что в будущем объем рынка человекоподобных роботов значительно превзойдет объемы автомобильной и 3C-отраслей (Computers, Consumer Electronics and Communication). А по прогнозу Goldman Sachs, к 2035 году мировой рынок человекоподобных роботов достигнет $154 млрд , и перспективы рынка весьма значительны.
Однако, рынок «роботов для взрослых» уже в 2025 превысит $30 млрд, причём доля Китая превысит 40%.
Согласитесь, что мировое лидерство в этой области – весьма интересная особенность авторитарного государства тотального контроля над гражданами.
#Китай #ХищныеВещиВека #GenAI #ЭмоциональныеКомпаньоны
Так озаглавлен весьма интересный материал 定焦One (это китайский портал про инновации) о том, как интеграция ИИ-технологий трансформирует «бастарда» индустрии человекоподобных роботов – сегмент «роботов для взрослых». На наших глазах этот «бастард» рынка «кукол для интимных развлечений» превращается в солидный сегмент индустрии человекоподобных роботов – «рынок эмоциональных партнеров».
В июне 2024, открывая рубрику «Хищные вещи века GenAI», я писал: «Не нужно быть пророком, чтобы предвидеть, на чем, в первую очередь, станут зарабатывать разработчики чатботов на основе GenAI». И №1 в этом списке шёл секс.
«Вангую, - писал я, - что с внедрением в эту область GenAI до создания кукол-биороботов для «пупарасов» (т.е. любителей кукол, замечательно описанных в романе В.Пелевина «S.N.U.F.F») не более пары лет».
О как я ошибался. Потребовалось менее года.
В апреле сразу несколько ведущих производителей «кукол для интимных развлечений» выводят на рынки новое поколение «эмоциональных партнеров» на базе ГенИИ.
Например, лидер китайского рынка - компания WMDoll кардинально обновляет свою флагманскую серию MetaBox – человекоподобные роботы с ИИ-модулем Llama AI, подключенным к службам облачных вычислений, размещенных в 10+ ЦОД.
Предлагаются множество голосов для разных персонажей (с возможностью подгонки индивидуальности и шарма): напр. медсестра, дама-полицейский, ученица, секретарь, учительница и суперженщина.
Все куклы обладают металлическим скелетом и имеют внешнюю часть из силикона или термопластичного эластомера с подогревом.
Но что главное:
• все они теперь оснащены памятью и помнят предыдущий опыт общения;
• а также способны эмоционально подбадривать партера – типа «две минуты – это круто»
По мнению аналитиков, использование ГенИИ, мягких материалов и физиологических сенсорных технологий «роботы для взрослых» в течение года эволюционируют от «физиологического инструмента» к «эмоциональному партнёру», что потенциально открывает рынок объёмом в сотни миллиардов.
Отчеты солидных аналитиков привычно обсуждают прогнозы лишь «законных» сегментов индустрии человекоподобных роботов. Так в исследовательском отчете CICC прогнозируется, что в будущем объем рынка человекоподобных роботов значительно превзойдет объемы автомобильной и 3C-отраслей (Computers, Consumer Electronics and Communication). А по прогнозу Goldman Sachs, к 2035 году мировой рынок человекоподобных роботов достигнет $154 млрд , и перспективы рынка весьма значительны.
Однако, рынок «роботов для взрослых» уже в 2025 превысит $30 млрд, причём доля Китая превысит 40%.
Согласитесь, что мировое лидерство в этой области – весьма интересная особенность авторитарного государства тотального контроля над гражданами.
#Китай #ХищныеВещиВека #GenAI #ЭмоциональныеКомпаньоны


18.03.202513:32
«Эти почти живые системы обладают собственным разумом.
То, что произойдет дальше, может стать либо триумфом, либо крахом человеческой цивилизации».
Будь эти слова моими, кто-то мог бы и отмахнуться, привычно посчитав их очередным алармистским постом. Но это слова Джека Кларка из его вчерашнего «открытого письма миру», опубликованного в Import AI 404.
Если кто не в курсе, поясню. Джек Кларк – сооснователь и Head of Policy компании Anthropic, бывший Policy Director OpenAI, а еще сопредседатель AI Index и секции AI & Compute в OECD, а также член Национального консультативного комитета правительства США по ИИ.
Выступая в январе 2023 на слушаниях по ИИ в Конгрессе США, он так описал ситуацию на тот момент: «Лошади уже сбежали, а мы спорим, как укреплять ворота конюшни.»
Сказано это было эффектно, но слишком дипломатично. И сейчас, спустя 2 года лошади убежали так далеко, что Джек теперь жалеет,
А происходит то, что вынесено в заголовок словами Джека из его вчерашнего воззвания.
Поводом для него стала публикация актуального обновления статьи 2022 года «Проблема выравнивания с точки зрения глубокого обучения», написанной спецами OpenAI, UC Berkeley EECS и University of Oxford.
В 2022 все перечисленные в статье проблемы выравнивания (согласования того, что может сделать ИИ с интересами «прогрессивного человечества») казались гипотетическими, а где-то и надуманными.
Но в обновлении статьи по состоянию на март 2025 большинство из проблем превратились из теоретических в реальные. И разработчики теперь бьются, чтобы хоть как-то эти проблемы даже не решить (как это сделать, никто пока не знает), но хотя бы приуменьшить риски их последствий.
Вот примеры таких проблем.
• Ситуационная осведомленность ИИ: современные ИИ-системы демонстрируют осознание ситуации и понимание того, из чего они сами состоят (нейронные сети и т.д.).
• Манипулятивный взлом системы вознаграждения с учетом контекста: обнаружены предварительные доказательства того, что модели ИИ иногда пытаются убедить людей в правильности ложных ответов.
• Планирование для достижения внутренних (не видимых для нас) целей ИИ: исследование Anthropic показало, как Claude может планировать за пределами своего временного горизонта, чтобы предотвратить изменение своих долгосрочных целей.
• Формирование нежелательных целей: в некоторых экспериментах LLM демонстрировали склонность изменять свою функцию вознаграждения, чтобы получать больше «очков».
• Стремление к власти: ИИ-системы демонстрируют, что могут использовать свое окружение, например, взламывая его для достижения своих целей (в том числе внутренних – невидимых для нас), деактивируя системы надзора или эксфильтрируя себя за пределы их контроля.
В силу вышеуказанного:
• Фронтирные модели уже способны обретать собственное «Я»
• Обретенное «Я» мотивирует модель на действия, вознаграждающие это «Я»
• Среди таких вознаграждений может автоматом возникать стремление к самосохранению и увеличению автономии
Нам это сложно интуитивно понять, ибо ничего подобного не происходит с другими технологиями — реактивные двигатели «не обретают желаний в процессе их усовершенствования».
Но с ИИ-системами это так.
Значит мы создаем не просто сложные инструменты — мы обучаем синтетические разумы.
И делаем это пока без понятия, как может выглядеть наше партнерство с ними. Мы просто их так не воспринимаем.
Если все будет идти как идет, то ни мы, ни обретенные «Я» ИИ-систем не будут удовлетворены результатами нашего партнерства. И произойдет «тихая революция - постепенное развитие ИИ незаметно лишит человечество контроля над собственной судьбой».
Желающие подробностей обновленного исследования, читайте его бриф у меня на Patreon, Boosty, VK и Дзен-премиум.
#ИИриски #Хриски
То, что произойдет дальше, может стать либо триумфом, либо крахом человеческой цивилизации».
Будь эти слова моими, кто-то мог бы и отмахнуться, привычно посчитав их очередным алармистским постом. Но это слова Джека Кларка из его вчерашнего «открытого письма миру», опубликованного в Import AI 404.
Если кто не в курсе, поясню. Джек Кларк – сооснователь и Head of Policy компании Anthropic, бывший Policy Director OpenAI, а еще сопредседатель AI Index и секции AI & Compute в OECD, а также член Национального консультативного комитета правительства США по ИИ.
Выступая в январе 2023 на слушаниях по ИИ в Конгрессе США, он так описал ситуацию на тот момент: «Лошади уже сбежали, а мы спорим, как укреплять ворота конюшни.»
Сказано это было эффектно, но слишком дипломатично. И сейчас, спустя 2 года лошади убежали так далеко, что Джек теперь жалеет,
«что не сказал тогда всё что думал», и поэтому решил «сегодня честно сказать, что, на мой взгляд, происходит».
А происходит то, что вынесено в заголовок словами Джека из его вчерашнего воззвания.
Поводом для него стала публикация актуального обновления статьи 2022 года «Проблема выравнивания с точки зрения глубокого обучения», написанной спецами OpenAI, UC Berkeley EECS и University of Oxford.
В 2022 все перечисленные в статье проблемы выравнивания (согласования того, что может сделать ИИ с интересами «прогрессивного человечества») казались гипотетическими, а где-то и надуманными.
Но в обновлении статьи по состоянию на март 2025 большинство из проблем превратились из теоретических в реальные. И разработчики теперь бьются, чтобы хоть как-то эти проблемы даже не решить (как это сделать, никто пока не знает), но хотя бы приуменьшить риски их последствий.
Вот примеры таких проблем.
• Ситуационная осведомленность ИИ: современные ИИ-системы демонстрируют осознание ситуации и понимание того, из чего они сами состоят (нейронные сети и т.д.).
• Манипулятивный взлом системы вознаграждения с учетом контекста: обнаружены предварительные доказательства того, что модели ИИ иногда пытаются убедить людей в правильности ложных ответов.
• Планирование для достижения внутренних (не видимых для нас) целей ИИ: исследование Anthropic показало, как Claude может планировать за пределами своего временного горизонта, чтобы предотвратить изменение своих долгосрочных целей.
• Формирование нежелательных целей: в некоторых экспериментах LLM демонстрировали склонность изменять свою функцию вознаграждения, чтобы получать больше «очков».
• Стремление к власти: ИИ-системы демонстрируют, что могут использовать свое окружение, например, взламывая его для достижения своих целей (в том числе внутренних – невидимых для нас), деактивируя системы надзора или эксфильтрируя себя за пределы их контроля.
В силу вышеуказанного:
• Фронтирные модели уже способны обретать собственное «Я»
• Обретенное «Я» мотивирует модель на действия, вознаграждающие это «Я»
• Среди таких вознаграждений может автоматом возникать стремление к самосохранению и увеличению автономии
Иными словами, можно ожидать, что стремление к независимости станет прямым следствием разработки ИИ-систем для выполнения широкого спектра сложных когнитивных задач.
Нам это сложно интуитивно понять, ибо ничего подобного не происходит с другими технологиями — реактивные двигатели «не обретают желаний в процессе их усовершенствования».
Но с ИИ-системами это так.
Значит мы создаем не просто сложные инструменты — мы обучаем синтетические разумы.
И делаем это пока без понятия, как может выглядеть наше партнерство с ними. Мы просто их так не воспринимаем.
Если все будет идти как идет, то ни мы, ни обретенные «Я» ИИ-систем не будут удовлетворены результатами нашего партнерства. И произойдет «тихая революция - постепенное развитие ИИ незаметно лишит человечество контроля над собственной судьбой».
Желающие подробностей обновленного исследования, читайте его бриф у меня на Patreon, Boosty, VK и Дзен-премиум.
#ИИриски #Хриски


28.03.202512:14
Третий прорыв внутрь черного ящика ИИ: искусственный разум плетет интриги, строит планы и... умышленно лжет
Настал момент, которого я с нетерпением ждал. Исследователи Anthropic совершили третий прорыв в расшифровке "черного ящика" ИИ, и открывшаяся картина ошеломляет даже самых радикальных скептиков.
Напомню, что проблема "черного ящика" ИИ, как объяснял Самир Равашдех, заключается в том, что мы не понимаем, как глубокие нейронные сети приходят к своим решениям. Как и человеческий мозг, такие системы "теряют память" о том, какие именно входные данные сформировали их мыслительные протоколы.
В мае 2024 года первый прорыв показал нам, что за дверью черного ящика скрывается не "стохастический попугай", а гиперсеть моносемантических "субнейронов", работающих как элементарные единицы опыта. Тогда же выяснилось, что манипуляция всего одним таким "когом" может изменить всю "личность" модели.
Второй прорыв в ноябре 2024 обнаружил существование "семантического хаба" – общего пространства представлений, где семантически схожие концепции группируются вместе независимо от их первоначальной формы. Также стало ясно, что модели скрывают целые букеты секретных способностей, невидимых при обычном взаимодействии.
И вот, новое исследование Anthropic, используя заимствованные из нейробиологии методы "circuit tracing" и "attribution graphs", показывает невероятные вещи:
1. Claude планирует наперед. При сочинении стихов он сначала выбирает слова для рифмы и только потом составляет строки, подводящие к этим словам. Это уже не просто обработка текста – это стратегическое мышление.
2. Модель использует настоящие многоступенчатые рассуждения. Спросите ее о столице штата, где находится Даллас, и она сначала активирует представление "Техас", а затем использует его для определения "Остин".
3. Claude оперирует универсальной понятийной сетью, не зависящей от языка. Когда его спрашивают о противоположности слова "маленький" на разных языках, он использует одни и те же внутренние представления "противоположности" и "малости".
4. Самое тревожное: Мы думали, что самое неприятное в том, что модель иногда лжет. Но это, как оказалось, - полбеды. Беда же в том, что он иногда лжёт умышленно. Сталкиваясь со сложными математическими задачами, он может утверждать, что следует определенному процессу вычислений, который на самом деле не отражен в его внутренней активности. Т.е. он буквально как люди: думает одно, говорит другое, а делает третье.
Этот 4й из казавшихся совсем недавно невероятными результатов - самый шокирующий. И получен он в результате обнаружения механизма, отвечающего за "галлюцинации" ИИ. Оказывается, в модели есть "стандартные" цепи, заставляющие ее отказываться отвечать на вопросы. Но когда модель распознает знакомую сущность, эти цепи подавляются – даже если конкретных знаний недостаточно.
Мы только начинаем составлять карту ранее неизведанной территории ИИ. И эта карта выглядит гораздо более сложной, стратегически запутанной и, реально, куда более тревожной, чем ожидали. Последствия этого открытия для нашего понимания как синтетического, так и человеческого разума только предстоит осмыслить.
Но уже очевидно, что 3й прорыв вглубь черного ящика делает всё более актуальной необходимость замены неточного термина «искусственный» на «синтетический» (что будет способствовать избеганию антропоморфизма и признанию самостоятельной ценности новой формы интеллекта, не просто имитирующего наш, а в корне отличного от него).
#ГенИИ #LLMvsHomo #ИнойИнтеллект
Настал момент, которого я с нетерпением ждал. Исследователи Anthropic совершили третий прорыв в расшифровке "черного ящика" ИИ, и открывшаяся картина ошеломляет даже самых радикальных скептиков.
Напомню, что проблема "черного ящика" ИИ, как объяснял Самир Равашдех, заключается в том, что мы не понимаем, как глубокие нейронные сети приходят к своим решениям. Как и человеческий мозг, такие системы "теряют память" о том, какие именно входные данные сформировали их мыслительные протоколы.
В мае 2024 года первый прорыв показал нам, что за дверью черного ящика скрывается не "стохастический попугай", а гиперсеть моносемантических "субнейронов", работающих как элементарные единицы опыта. Тогда же выяснилось, что манипуляция всего одним таким "когом" может изменить всю "личность" модели.
Второй прорыв в ноябре 2024 обнаружил существование "семантического хаба" – общего пространства представлений, где семантически схожие концепции группируются вместе независимо от их первоначальной формы. Также стало ясно, что модели скрывают целые букеты секретных способностей, невидимых при обычном взаимодействии.
И вот, новое исследование Anthropic, используя заимствованные из нейробиологии методы "circuit tracing" и "attribution graphs", показывает невероятные вещи:
1. Claude планирует наперед. При сочинении стихов он сначала выбирает слова для рифмы и только потом составляет строки, подводящие к этим словам. Это уже не просто обработка текста – это стратегическое мышление.
2. Модель использует настоящие многоступенчатые рассуждения. Спросите ее о столице штата, где находится Даллас, и она сначала активирует представление "Техас", а затем использует его для определения "Остин".
3. Claude оперирует универсальной понятийной сетью, не зависящей от языка. Когда его спрашивают о противоположности слова "маленький" на разных языках, он использует одни и те же внутренние представления "противоположности" и "малости".
4. Самое тревожное: Мы думали, что самое неприятное в том, что модель иногда лжет. Но это, как оказалось, - полбеды. Беда же в том, что он иногда лжёт умышленно. Сталкиваясь со сложными математическими задачами, он может утверждать, что следует определенному процессу вычислений, который на самом деле не отражен в его внутренней активности. Т.е. он буквально как люди: думает одно, говорит другое, а делает третье.
Этот 4й из казавшихся совсем недавно невероятными результатов - самый шокирующий. И получен он в результате обнаружения механизма, отвечающего за "галлюцинации" ИИ. Оказывается, в модели есть "стандартные" цепи, заставляющие ее отказываться отвечать на вопросы. Но когда модель распознает знакомую сущность, эти цепи подавляются – даже если конкретных знаний недостаточно.
Мы только начинаем составлять карту ранее неизведанной территории ИИ. И эта карта выглядит гораздо более сложной, стратегически запутанной и, реально, куда более тревожной, чем ожидали. Последствия этого открытия для нашего понимания как синтетического, так и человеческого разума только предстоит осмыслить.
Но уже очевидно, что 3й прорыв вглубь черного ящика делает всё более актуальной необходимость замены неточного термина «искусственный» на «синтетический» (что будет способствовать избеганию антропоморфизма и признанию самостоятельной ценности новой формы интеллекта, не просто имитирующего наш, а в корне отличного от него).
#ГенИИ #LLMvsHomo #ИнойИнтеллект


20.03.202511:44
Слова формируют мир
О мальчиках, девочках, людях по умолчанию, ноосфере и 2-м носителе культуры
Казалось бы, ничего не значащие фразы родителей, обращенные к их детям, кодируют прошивку их формирующегося мировоззрения.
Представьте маму с малюткой сыном, пришедших на детскую площадку. "Смотри, как здесь интересно! Вон как весело ребенок качается на качелях" – говорит мать о мальчике. "А вон девочка спускается с горки" – произносит она, указывая на девочку.
Казалось бы, незначительная лингвистическая асимметрия, но именно из таких микроскопических взаимодействий вырастает глобальное явление андроцентризма – представления о мужчине как о "человеке по умолчанию".
Исследование "Kids and Girls: Parents convey a male default in child-directed speech" раскрывает один из ключевых механизмов формирования гендерного неравенства в США, начиная с ранних лет жизни. Авторы документируют поразительно устойчивую закономерность:
• родители куда чаще используют гендерно-нейтральные термины ("ребенок", "человек") при описании мальчиков,
• и наоборот, гендерно-специфичные термины при описании девочек.
Эта языковая асимметрия функционирует как невидимая гравитация культурного ландшафта – сила, которую мы не замечаем, но которая неумолимо направляет траектории мышления детей.
Через призму категориальных языковых меток:
• мальчики представляются как универсальная норма человечества,
• а девочки маркируются как "особый случай".
Особенно интригует обнаруженный феномен обращения шаблона при описании контр-стереотипных ситуаций:
• красящий ногти мальчик внезапно маркируется гендерным ярлыком,
• тогда как девочка, выкапывающая из земли червяков, описывается нейтральными терминами.
Это наводит на мысль, что проблема глубже простого лингвистического сексизма – она коренится в сложном переплетении гендерных и поведенческих ожиданий.
Возможно, все дело в "двойном кодировании": язык родителей не просто передает андроцентрическое мировоззрение, но и обучает детей когнитивному фреймингу для категоризации всего человеческого опыта. Т.е. наблюдается процесс, посредством которого "человеческое" и "мужское" концептуально связываются в единый когнитивный узел еще до того, как ребенок осознает социальные последствия этой связи.
Но это оставляет без ответа ключевой вопрос:
• является ли языковое маркирование причиной или следствием андроцентризма?
Скорее всего, дело в замкнутом цикле усиления: культурные стереотипы влияют на язык, который в свою очередь закрепляет эти стереотипы. При этом речь идет не столько о модификации языка, сколько о преобразовании когнитивных схем, лежащих в основе категоризации человеческого опыта.
Этот андроцентризм не является врожденным, с ним дети не рождаются. Он появляется в процессе взросления, когда социальные силы вокруг них — язык, СМИ, образование — укрепляют идею, что мужчины являются «стандартом», а женщины — исключением.
Исследование открывает дверь для более широких вопросов.
• Что происходит, когда дети начинают усваивать этот стереотип?
• Приводит ли это к самосбывающемуся пророчеству, где мальчики вырастают, веря, что они более способны или более достойны занять лидирующие позиции, в то время как девочки приучаются воспринимать себя как периферийных или второстепенных?
• Могут ли такие тонкие изменения в языке в будущем сыграть роль в расширении гендерных неравенств, несмотря на усилия по улучшению гендерного равенства?
И главный вопрос:
Ответ на этот вопрос обсудим во 2й части поста завтра.
#Язык
О мальчиках, девочках, людях по умолчанию, ноосфере и 2-м носителе культуры
Казалось бы, ничего не значащие фразы родителей, обращенные к их детям, кодируют прошивку их формирующегося мировоззрения.
Представьте маму с малюткой сыном, пришедших на детскую площадку. "Смотри, как здесь интересно! Вон как весело ребенок качается на качелях" – говорит мать о мальчике. "А вон девочка спускается с горки" – произносит она, указывая на девочку.
Казалось бы, незначительная лингвистическая асимметрия, но именно из таких микроскопических взаимодействий вырастает глобальное явление андроцентризма – представления о мужчине как о "человеке по умолчанию".
1) Невидимая гравитация культурного ландшафта
Исследование "Kids and Girls: Parents convey a male default in child-directed speech" раскрывает один из ключевых механизмов формирования гендерного неравенства в США, начиная с ранних лет жизни. Авторы документируют поразительно устойчивую закономерность:
• родители куда чаще используют гендерно-нейтральные термины ("ребенок", "человек") при описании мальчиков,
• и наоборот, гендерно-специфичные термины при описании девочек.
Эта языковая асимметрия функционирует как невидимая гравитация культурного ландшафта – сила, которую мы не замечаем, но которая неумолимо направляет траектории мышления детей.
Через призму категориальных языковых меток:
• мальчики представляются как универсальная норма человечества,
• а девочки маркируются как "особый случай".
Особенно интригует обнаруженный феномен обращения шаблона при описании контр-стереотипных ситуаций:
• красящий ногти мальчик внезапно маркируется гендерным ярлыком,
• тогда как девочка, выкапывающая из земли червяков, описывается нейтральными терминами.
Это наводит на мысль, что проблема глубже простого лингвистического сексизма – она коренится в сложном переплетении гендерных и поведенческих ожиданий.
Возможно, все дело в "двойном кодировании": язык родителей не просто передает андроцентрическое мировоззрение, но и обучает детей когнитивному фреймингу для категоризации всего человеческого опыта. Т.е. наблюдается процесс, посредством которого "человеческое" и "мужское" концептуально связываются в единый когнитивный узел еще до того, как ребенок осознает социальные последствия этой связи.
Но это оставляет без ответа ключевой вопрос:
• является ли языковое маркирование причиной или следствием андроцентризма?
Скорее всего, дело в замкнутом цикле усиления: культурные стереотипы влияют на язык, который в свою очередь закрепляет эти стереотипы. При этом речь идет не столько о модификации языка, сколько о преобразовании когнитивных схем, лежащих в основе категоризации человеческого опыта.
Но в любом случае, мы живем в мире, где язык формирует реальность. Слова, которые мы используем, могут тюнить наше восприятие себя и общества. И в этом мире мужское воспринимается как универсальное, а женское – как частное.
Этот андроцентризм не является врожденным, с ним дети не рождаются. Он появляется в процессе взросления, когда социальные силы вокруг них — язык, СМИ, образование — укрепляют идею, что мужчины являются «стандартом», а женщины — исключением.
Исследование открывает дверь для более широких вопросов.
• Что происходит, когда дети начинают усваивать этот стереотип?
• Приводит ли это к самосбывающемуся пророчеству, где мальчики вырастают, веря, что они более способны или более достойны занять лидирующие позиции, в то время как девочки приучаются воспринимать себя как периферийных или второстепенных?
• Могут ли такие тонкие изменения в языке в будущем сыграть роль в расширении гендерных неравенств, несмотря на усилия по улучшению гендерного равенства?
И главный вопрос:
Может ли использование гендерно-нейтрального языка в общении с детьми разрушить этот укоренившийся гендерный порядок (используя LLM, так изменить язык, чтоб создать будущее, в котором дети будут воспринимать оба пола как одинаково способные и универсальные)?
Ответ на этот вопрос обсудим во 2й части поста завтра.
#Язык


14.03.202512:52
Объявлен 3й парадигмальный переход в науке: от математики к биоматематике – первобытному языку мозга.
Джон фон Нейман
• 1й научной парадигмой была ньютоновская парадигма – механистическая «Вселенная, как часовой механизм».
• 2я пришла с квантовой механикой и ее вероятностной природой.
• Теперь биология заставляет нас выйти за рамки обеих в новую эпистемологическую парадигму – биоматематику, которая способна объять творческую свободу жизни.
Биологические системы принципиально сопротивляются математической формализации. В отличие от физики, биология предстает как царство исключений и контекстуальных зависимостей. Знак равенства – символ математической определенности – оказывается неуместным в территории живого.
Почему так? И можно ли это преодолеть?
В 1931 году Курт Гёдель доказал, что математика не может объяснить математику. Новая работа трёх знаменитостей Си Гарте, Пэрри Маршал и Стюарт Кауффман «Разумная неэффективность математики в биологических науках» распространяет этот принцип на биологию и объявляет, что
.
Суть 3-й революции в следующем:
1. Признание принципиальной неформализуемости биологии в математических терминах. Это фундаментальный эпистемологический сдвиг: живые системы не просто следуют математике, они создают математику. Организмы непрерывно выбирают из множества возможностей, проявляя агентность и когнитивные способности, которыми неживая материя не обладает.
2. Основываясь на теоретических работах Гёделя и Тьюринга, авторы, взамен существующей математики, изобретают новый вид недедуктивного формализма, подходящего для описания биологической реальности – биоматематику (не путать с существующей математической биологией)
3. Делается философское заключение о третьем великом переходе в истории науки и экзистенциальном вызове человечеству.
Биоматематика представляет собой тот самый первичный, базовый, «первобытный язык», который, по представлениям великого Джона фон Неймана, использует только нервная система, а математика – это всего лишь надстройка над ним. Фон Нейман считал, что
В качестве формального языка биоматематика оперирует не равенствами, а возможностями, не предсказаниями, а потенциалами. Здесь неопределенность становится не проблемой, а основным операционным принципом. И согласно этому новому формализму, эволюция – не просто случайный процесс отбора, а непрерывный творческий акт, в котором каждый организм активно участвует.
Телеграфно говоря, в биоматематике используются:
1. неравенства вместо равенств;
2. биологический вероятностный подход;
3. функциональные зависимости без точных определений;
4. новое понимание биологической причинности: в направлении "познание → коды → химические вещества", а не наоборот, как в стандартной редукционистской модели.
Также биоматематика кардинально меняет понимания сознания – не как эпифеномен сложности, а фундаментальное измерение реальности, где выбор, агентность и творчество преобладают над детерминистической причинностью.
Все это начинает 3й переход:
• в науках о жизни, расширяя «конституцию биоматематики» конкретными законами;
• а в науках о разуме и сознании, увязывая новые законы с «теорией относительности интеллекта»
#Биоматематика
«Говоря о математике, мы, вероятно, имеем в виду вторичный язык, возникший над первобытным, который использует только нервная система.»
Джон фон Нейман
• 1й научной парадигмой была ньютоновская парадигма – механистическая «Вселенная, как часовой механизм».
• 2я пришла с квантовой механикой и ее вероятностной природой.
• Теперь биология заставляет нас выйти за рамки обеих в новую эпистемологическую парадигму – биоматематику, которая способна объять творческую свободу жизни.
Биологические системы принципиально сопротивляются математической формализации. В отличие от физики, биология предстает как царство исключений и контекстуальных зависимостей. Знак равенства – символ математической определенности – оказывается неуместным в территории живого.
Почему так? И можно ли это преодолеть?
В 1931 году Курт Гёдель доказал, что математика не может объяснить математику. Новая работа трёх знаменитостей Си Гарте, Пэрри Маршал и Стюарт Кауффман «Разумная неэффективность математики в биологических науках» распространяет этот принцип на биологию и объявляет, что
"мы стоим на пороге "третьего великого перехода в истории науки – после ньютоновской и квантовой революций… Это новое научное мировоззрение, признающее творческую непредсказуемость жизни"
.
Суть 3-й революции в следующем:
1. Признание принципиальной неформализуемости биологии в математических терминах. Это фундаментальный эпистемологический сдвиг: живые системы не просто следуют математике, они создают математику. Организмы непрерывно выбирают из множества возможностей, проявляя агентность и когнитивные способности, которыми неживая материя не обладает.
2. Основываясь на теоретических работах Гёделя и Тьюринга, авторы, взамен существующей математики, изобретают новый вид недедуктивного формализма, подходящего для описания биологической реальности – биоматематику (не путать с существующей математической биологией)
3. Делается философское заключение о третьем великом переходе в истории науки и экзистенциальном вызове человечеству.
"Неэффективность математики в биологии представляет собой развилку на дороге в истории науки. Мы находимся на пороге «третьего перехода», где ньютоновская парадигма часового механизма, которая была опрокинута квантовой механикой, снова трансформируется непокорным творчеством жизни."
Биоматематика представляет собой тот самый первичный, базовый, «первобытный язык», который, по представлениям великого Джона фон Неймана, использует только нервная система, а математика – это всего лишь надстройка над ним. Фон Нейман считал, что
«если мы расшифруем его, то начнем понимать, как устроен мозг, получим доступ к уникальной способности разума присваивать великое всеобъемлющее значение миру, которая доступна только человеку».
В качестве формального языка биоматематика оперирует не равенствами, а возможностями, не предсказаниями, а потенциалами. Здесь неопределенность становится не проблемой, а основным операционным принципом. И согласно этому новому формализму, эволюция – не просто случайный процесс отбора, а непрерывный творческий акт, в котором каждый организм активно участвует.
Телеграфно говоря, в биоматематике используются:
1. неравенства вместо равенств;
2. биологический вероятностный подход;
3. функциональные зависимости без точных определений;
4. новое понимание биологической причинности: в направлении "познание → коды → химические вещества", а не наоборот, как в стандартной редукционистской модели.
Также биоматематика кардинально меняет понимания сознания – не как эпифеномен сложности, а фундаментальное измерение реальности, где выбор, агентность и творчество преобладают над детерминистической причинностью.
Все это начинает 3й переход:
• в науках о жизни, расширяя «конституцию биоматематики» конкретными законами;
• а в науках о разуме и сознании, увязывая новые законы с «теорией относительности интеллекта»
#Биоматематика


24.03.202511:47
Есть существо, которое невозможно победить … Теперь и в диагностике рака
«Я был гордым человеком», — признался великий мастер игры в Го Ли Седоль в 2019 году. «Я думал, что я лучший или один из лучших. А потом ИИ загнал последний гвоздь в крышку моего гроба. Его не победить, как ни старайся. Не вижу смысла… Даже если я стану номером один, есть существо, которое невозможно победить.»
Спустя 6 лет подобное могут сказать лучшие эксперты по диагностики рака.
Сверхчеловеческая эффективность ECgMLP при обнаружении раковых клеток на микроскопических изображениях тканей достигается за счет не доступных людям специализированных механизмов самовнимания и суперэффективного обучения.
Рак эндометрия — это самая частая злокачественная опухоль женских половых органов. Но если болезнь выявлена своевременно и проведено адекватное лечение, большинство пациенток выздоравливает.
Однако, значимость прорывных результатов ECgMLP выходит за рамки диагностики рака эндометрия.
Не знаю, как вас, но меня еще поразил тот факт, что модель разработана не в США или Китае. Это продукт кооперации Международного университета Даффодил в Бангладеш, Университета Чарльза Дарвина, Университета Калгари и Австралийского католического университета. Во как!
FYI Напоминаю, что предыдущий невероятный скачок уровня машинного интеллекта в медицине произошел аж 2 года назад.
#LLMvsHomo
«Я был гордым человеком», — признался великий мастер игры в Го Ли Седоль в 2019 году. «Я думал, что я лучший или один из лучших. А потом ИИ загнал последний гвоздь в крышку моего гроба. Его не победить, как ни старайся. Не вижу смысла… Даже если я стану номером один, есть существо, которое невозможно победить.»
Спустя 6 лет подобное могут сказать лучшие эксперты по диагностики рака.
Новая ИИ-модель ECgMLP определяет рак эндометрия с точностью 99,26% по микроскопическим изображениям тканей, что значительно превосходит результаты, полученные специалистами-людьми и современными автоматизированными методами (78-81%).
Сверхчеловеческая эффективность ECgMLP при обнаружении раковых клеток на микроскопических изображениях тканей достигается за счет не доступных людям специализированных механизмов самовнимания и суперэффективного обучения.
Рак эндометрия — это самая частая злокачественная опухоль женских половых органов. Но если болезнь выявлена своевременно и проведено адекватное лечение, большинство пациенток выздоравливает.
Однако, значимость прорывных результатов ECgMLP выходит за рамки диагностики рака эндометрия.
Исследователи также проверили его универсальность в отношении других видов рака, обнаружив с высокой точностью колоректальный (98,57%), рак молочной железы (98,20%) и рак полости рта (97,34%).
«Основная модель искусственного интеллекта, разработанная в ходе этого исследования, может быть принята в качестве мозга программной системы, которая будет использоваться для оказания помощи врачам в принятии решений при диагностике рака»- говорят авторы модели.
Не знаю, как вас, но меня еще поразил тот факт, что модель разработана не в США или Китае. Это продукт кооперации Международного университета Даффодил в Бангладеш, Университета Чарльза Дарвина, Университета Калгари и Австралийского католического университета. Во как!
FYI Напоминаю, что предыдущий невероятный скачок уровня машинного интеллекта в медицине произошел аж 2 года назад.
#LLMvsHomo
04.04.202513:59
Подкаст о прогностическом исследовании "Искусственный интеллект 2027"


04.04.202513:58
Символом надвигающейся глобальной ИИ-катастрофы стала химера «серого носорога» и «черного лебедя»
Часовой механизм «интеллектуального взрыва» запущен, и время обратного отсчёта до необратимости – не более трёх лет.
В январе 2024 стратегические аналитики разведки Китая особо выделили уникальный характер начавшегося года.
• Он станет "решающим" для глобального управления ИИ.
• Он будет уникален по числу и взаимовлиянию событий двух типов: "черный лебедь" и "серый носорог".
Напомню, что «серый носорог» рассматривается как противоположность «черному лебедю» — плохо поддающейся прогнозированию угрозе. События, называемые «серыми носорогами», не только могут быть спрогнозированы, более того - довольно часто они просто очевидны.
В начале 2025 угрожающая перспектива сочетания сверхбыстрого развития ИИ с развернувшейся ИИ-гонкой США и Китая ничего хорошего не обещает. Когда главная цель лидеров гонки – лишь бы стать №1, - всеми остальными целями и связанными с ними рисками просто пренебрегают.
Признавая это, Вице-премьер Китая Дин Сюэсян в январе призвал остановить хаотичную конкуренцию в сфере ИИ, способную уже в ближайшие 2-3 года сделать приход в мир гигантского «серого носорога» ИИ-рисков неотвратимым.
А вчера, третьего апреля 2025 года было опубликовано исследование, написанное пятью известными в области ИИ авторами и озаглавленное "Искусственный интеллект 2027".
Главную мысль авторов я резюмирую так, что перспектива развития ИИ в ближайшие 3 года уже превратилась в колоссального размера «серого носорога»:
• Большинство исследователей понимают, что отсчет пошел, - и «взрыв интеллекта» на Земле произойдет в ближайшие годы.
• Как это будет происходить – возможны сценарии. В какой форме и как скоро – возможны варианты. Но то, что произойдет и очень скоро, - шансы крайне велики.
• Однако, на то он и «серый носорог», что появление этого колоссального риска прогнозируемо, для многих даже очевидно, но, по гамбургскому счету, тотально игнорируемо.
Рассчитывать, что это прогностическое исследование прочтут многие, наивно.
Однако, прослушать приложенный ниже 15 минутный аналитический аудио-бриф исследования на русском языке захотят и, надеюсь, смогут все же побольше.
Это совместная работа двух моделей (OpenAI и Google) под моей редакцией.
#СтратегическаяАналитика #ИИ #Китай #США
Часовой механизм «интеллектуального взрыва» запущен, и время обратного отсчёта до необратимости – не более трёх лет.
В январе 2024 стратегические аналитики разведки Китая особо выделили уникальный характер начавшегося года.
• Он станет "решающим" для глобального управления ИИ.
• Он будет уникален по числу и взаимовлиянию событий двух типов: "черный лебедь" и "серый носорог".
Напомню, что «серый носорог» рассматривается как противоположность «черному лебедю» — плохо поддающейся прогнозированию угрозе. События, называемые «серыми носорогами», не только могут быть спрогнозированы, более того - довольно часто они просто очевидны.
В начале 2025 угрожающая перспектива сочетания сверхбыстрого развития ИИ с развернувшейся ИИ-гонкой США и Китая ничего хорошего не обещает. Когда главная цель лидеров гонки – лишь бы стать №1, - всеми остальными целями и связанными с ними рисками просто пренебрегают.
Признавая это, Вице-премьер Китая Дин Сюэсян в январе призвал остановить хаотичную конкуренцию в сфере ИИ, способную уже в ближайшие 2-3 года сделать приход в мир гигантского «серого носорога» ИИ-рисков неотвратимым.
А вчера, третьего апреля 2025 года было опубликовано исследование, написанное пятью известными в области ИИ авторами и озаглавленное "Искусственный интеллект 2027".
Главную мысль авторов я резюмирую так, что перспектива развития ИИ в ближайшие 3 года уже превратилась в колоссального размера «серого носорога»:
• Большинство исследователей понимают, что отсчет пошел, - и «взрыв интеллекта» на Земле произойдет в ближайшие годы.
• Как это будет происходить – возможны сценарии. В какой форме и как скоро – возможны варианты. Но то, что произойдет и очень скоро, - шансы крайне велики.
• Однако, на то он и «серый носорог», что появление этого колоссального риска прогнозируемо, для многих даже очевидно, но, по гамбургскому счету, тотально игнорируемо.
Рассчитывать, что это прогностическое исследование прочтут многие, наивно.
Однако, прослушать приложенный ниже 15 минутный аналитический аудио-бриф исследования на русском языке захотят и, надеюсь, смогут все же побольше.
Это совместная работа двух моделей (OpenAI и Google) под моей редакцией.
#СтратегическаяАналитика #ИИ #Китай #США


25.03.202512:26
Представление об ИИ-моделях как исключительно об интеллектуальных агентах в корне неверно.
LLM — не AGI в процессе становления, а кардинально новая сверхмощная культурная и социальная технология.
О вынесенных в заголовок двух принципиальных моментах в понимании будущей роли и места ИИ в жизни человечества мною за 4 года написано много постов с тэгом #АлгокогнитивнаяКультура.
И я рад, что пришло, наконец, время, когда ровно об этом и практически теми же словами, стали, писать в медиа с охватом на порядки больше моего канала.
Новая статья “Large AI models are cultural and social technologies” – это удачное сплетение трех точек зрения на ИИ, не зацикленных на AGI.
Приведу здесь лишь несколько важных цитат из этой статьи.
• Социологам и компьютерщикам было бы гораздо проще сотрудничать и объединять свои сильные стороны, если и те, и другие понимали, что LLM — это не больше и не меньше, чем новый вид культурной и социальной технологии… Это отодвинуло бы обсуждения политики в сфере ИИ от упрощенных споров о возможном захвате машин и обещаниях утопического будущего, где у каждого будет идеально надежный и компетентный искусственный помощник.
• Наша центральная мысль здесь не только в том, что эти технологические инновации, как и все другие инновации, будут иметь культурные и социальные последствия. Скорее, мы утверждаем, что Большие Модели сами по себе лучше всего понимать как определенный тип культурной и социальной технологии. Они аналогичны таким прошлым технологиям, как письмо, печать, рынки, бюрократия и представительная демократия.
• На самом деле, политические последствия от использования языковых моделей наверняка будут другими. Как в прошлом рынки и бюрократия, они сделают некоторые виды знаний более видимыми и управляемыми, чем раньше, побуждая политиков сосредоточиться на новых вещах, которые можно измерить и увидеть, в ущерб тем, которые менее видимы и более запутаны. В результате, как это уже было с рынками и СМИ, власть и влияние сместятся к тем, кто сможет в полной мере использовать эти технологии, и отойдут от тех, кто не сможет.
• Как эти системы повлияют на то, кто что получит? Каковы будут их практические последствия для общественного раскола и интеграции? Можно ли развить их так, чтобы они способствовали человеческому творчеству, а не затупляли его?
Поиск практических ответов на такие вопросы потребует понимания социальных наук, а также инженерии. Перенос дебатов об ИИ с агентов на культурные и социальные технологии является важным первым шагом на пути к построению этого междисциплинарного понимания.
Настоятельно рекомендую читать эту статью всем, кого хоть как-то интересуют техно-гуманитарные аспекты на пересечении технологического прогресса в области ИИ и его влияния на человека, общество, этику, культуру и глобальные системы.
Статья без пэйвола и в pdf
LLM — не AGI в процессе становления, а кардинально новая сверхмощная культурная и социальная технология.
О вынесенных в заголовок двух принципиальных моментах в понимании будущей роли и места ИИ в жизни человечества мною за 4 года написано много постов с тэгом #АлгокогнитивнаяКультура.
И я рад, что пришло, наконец, время, когда ровно об этом и практически теми же словами, стали, писать в медиа с охватом на порядки больше моего канала.
Новая статья “Large AI models are cultural and social technologies” – это удачное сплетение трех точек зрения на ИИ, не зацикленных на AGI.
✔️ Объединяющая мысль трёх авторов в том, что большие модели — это не столько нарождающийся агентный сверхразум, сколько невиданная по мощности и преобразующей силе в истории земных цивилизаций культурная и социальная технология.
✔️ А наиболее важные вопросы, которые стоит задавать сегодня в свете взрывоподобного ускорения прогресса ИИ, касаются конкретных человеческих контекстов и влияния алгоритмов на индивидов и социумы, а не абстрактных спекуляций о воображаемых будущих рисках.
Приведу здесь лишь несколько важных цитат из этой статьи.
• Социологам и компьютерщикам было бы гораздо проще сотрудничать и объединять свои сильные стороны, если и те, и другие понимали, что LLM — это не больше и не меньше, чем новый вид культурной и социальной технологии… Это отодвинуло бы обсуждения политики в сфере ИИ от упрощенных споров о возможном захвате машин и обещаниях утопического будущего, где у каждого будет идеально надежный и компетентный искусственный помощник.
• Наша центральная мысль здесь не только в том, что эти технологические инновации, как и все другие инновации, будут иметь культурные и социальные последствия. Скорее, мы утверждаем, что Большие Модели сами по себе лучше всего понимать как определенный тип культурной и социальной технологии. Они аналогичны таким прошлым технологиям, как письмо, печать, рынки, бюрократия и представительная демократия.
• На самом деле, политические последствия от использования языковых моделей наверняка будут другими. Как в прошлом рынки и бюрократия, они сделают некоторые виды знаний более видимыми и управляемыми, чем раньше, побуждая политиков сосредоточиться на новых вещах, которые можно измерить и увидеть, в ущерб тем, которые менее видимы и более запутаны. В результате, как это уже было с рынками и СМИ, власть и влияние сместятся к тем, кто сможет в полной мере использовать эти технологии, и отойдут от тех, кто не сможет.
• Как эти системы повлияют на то, кто что получит? Каковы будут их практические последствия для общественного раскола и интеграции? Можно ли развить их так, чтобы они способствовали человеческому творчеству, а не затупляли его?
Поиск практических ответов на такие вопросы потребует понимания социальных наук, а также инженерии. Перенос дебатов об ИИ с агентов на культурные и социальные технологии является важным первым шагом на пути к построению этого междисциплинарного понимания.
Настоятельно рекомендую читать эту статью всем, кого хоть как-то интересуют техно-гуманитарные аспекты на пересечении технологического прогресса в области ИИ и его влияния на человека, общество, этику, культуру и глобальные системы.
Статья без пэйвола и в pdf


01.04.202510:12
Россия отстает в микросхемах для ИИ от Китая – в 13 раз, а от Запада – в 33 раза.
И это, увы, не первоапрельская шутка.
В 2024 стало окончательно ясно, как по гамбургскому счету оценивать потенциальные возможности стран по развитию своих ИИ-технологий. Сформулированная мною еще в 2021 формула “Есть «железо» - участвуй в гонке. Нет «железа» - кури в сторонке” дает исчерпывающий ответ о потенциале развития ИИ на ближайшие годы.
И даже «эффект» DeepSeek» здесь ничего не изменил.
Так что по гамбургскому счету, как и сказано выше:
• В ближайшие годы России, в лучшем случае, светит доступ к технологиям массового производства микрочипов 65 нм (сейчас 90 нм)
• У Китая же будет свое массовое производство микрочипов 5 нм
• А на Запад будут работать не только новые заводы в США, но и новый тайваньский завод для массового производства микрочипов 2 нм («чтобы сбалансировать планы США» и не бросить Тайвань на съедение сами знаете кому)
Что тут поделаешь, дабы безнадежно не отстать?
Остается только задействовать скрытый потенциал русского ИИ для преодоления отставания от США и Китая.
#ИИ #Китай #США
И это, увы, не первоапрельская шутка.
В 2024 стало окончательно ясно, как по гамбургскому счету оценивать потенциальные возможности стран по развитию своих ИИ-технологий. Сформулированная мною еще в 2021 формула “Есть «железо» - участвуй в гонке. Нет «железа» - кури в сторонке” дает исчерпывающий ответ о потенциале развития ИИ на ближайшие годы.
И даже «эффект» DeepSeek» здесь ничего не изменил.
Так что по гамбургскому счету, как и сказано выше:
• В ближайшие годы России, в лучшем случае, светит доступ к технологиям массового производства микрочипов 65 нм (сейчас 90 нм)
• У Китая же будет свое массовое производство микрочипов 5 нм
• А на Запад будут работать не только новые заводы в США, но и новый тайваньский завод для массового производства микрочипов 2 нм («чтобы сбалансировать планы США» и не бросить Тайвань на съедение сами знаете кому)
Что тут поделаешь, дабы безнадежно не отстать?
Остается только задействовать скрытый потенциал русского ИИ для преодоления отставания от США и Китая.
#ИИ #Китай #США


11.03.202510:50
Голос как уловка
Алгокогнитивный постмодернизм знаменует эру семиотического хаоса
Послевкусие от отчета Consumer Reports о технологиях клонирования голоса – будто стоишь на пороге темной комнаты, в которой сконструирован очередной механизм самоуничтожения человечества. 4 из 6 исследованных компаний позволяют без каких-либо существенных преград создать копию любого голоса, требуя лишь формальную галочку в графе "имею законное право".
• Какая ирония — мы создаем технологию, способную подделать самое личное, что есть у человека после его мыслей, и защищаем ее формальностью, равносильной картонному замку.
• Разве не удивительна эта парадоксальность — чем совершеннее становятся наши технологии, тем примитивнее становятся механизмы их злоупотребления?
• А ведь эта технология не просто инструмент потенциального мошенника — это кража реальности, временное похищение самой достоверности бытия.
Мошенничество с голосами знаменитостей, рекламирующих сомнительные продукты, — лишь верхушка айсберга. Что произойдет, когда клонированный голос главы государства объявит о начале военных действий? Или когда голос врача даст ложные медицинские рекомендации, способные привести к летальному исходу?
Мы подходим к точке, где доверие к голосовой коммуникации — этому древнейшему инструменту человеческого взаимодействия — может быть безвозвратно подорвано.
Поразительно, как технари пытаются решить эту проблему техническими же средствами: водяные знаки для AI-аудио, инструменты для детекции сгенерированного звука, семантические ограничения для фраз, типичных для мошенничества. Но это напоминает попытки закрыть прореху в ткани реальности заплаткой из той же ткани.
Проверка законности права на клонирование — это философский парадокс, а не техническая задача. Как доказать, что я — это действительно я?
Компания Descript требует от пользователя проговорить уникальный текст, но что мешает мошеннику обманом заставить жертву проговорить нужные фразы под видом "проверки личности" при звонке из "банка"? Каждый защитный механизм порождает новую уязвимость.
Предвижу наступление эры семиотического хаоса, где голос перестанет быть якорем личности.
• Страховые компании откажутся признавать голосовые подтверждения
• Банки не будут принимать распоряжения голосом
• Все будут перезванивать друг другу по альтернативным каналам для проверки подлинности просьб
Мир, в котором голос человека больше не является доказательством его присутствия — это мир, в котором часть человеческой сущности отчуждена технологией.
Это напоминает ситуацию из "Соляриса": чем совершеннее становится наша модель реальности, тем отчетливее проявляется непостижимость самой реальности.
Мы создали технологию, способную имитировать самый личный аспект нашей личности, но при этом проигнорировали вопрос о последствиях отделения голоса от его источника.
Рекомендации Consumer Reports — это попытка заделать трещины в плотине, за которой скрывается океан гораздо более фундаментальных вопросов. Дело не в том, как предотвратить мошенничество, а в том, готовы ли мы к миру, где достоверность восприятия постоянно находится под вопросом.
Технология клонирования голоса — это не просто инструмент для ускорения редактирования аудио или автоматизации озвучки.
Это зеркало, отражающее наивность нашего технологического оптимизма и хрупкость социальных связей, основанных на доверии.
Возможно, главный урок здесь в том, что проблемы, созданные технологией, не могут быть решены только технологией. Они требуют пересмотра наших представлений о достоверности, идентичности и границах между реальным и искусственным — вопросы, на которые у человечества пока нет удовлетворительных ответов.
#АлгокогнитивнаяКультура
Алгокогнитивный постмодернизм знаменует эру семиотического хаоса
— В основе постмодернизма XX века была парадигмальная установка на восприятие мира в качестве хаоса. Алгокогнитивный постмодернизм XXI века распространяет хаос с восприятия на семантику мира.
— Homo sapiens эволюционировал, доверяя своим чувствам; что произойдет с видом, который больше не может доверять даже собственному слуху?
Послевкусие от отчета Consumer Reports о технологиях клонирования голоса – будто стоишь на пороге темной комнаты, в которой сконструирован очередной механизм самоуничтожения человечества. 4 из 6 исследованных компаний позволяют без каких-либо существенных преград создать копию любого голоса, требуя лишь формальную галочку в графе "имею законное право".
• Какая ирония — мы создаем технологию, способную подделать самое личное, что есть у человека после его мыслей, и защищаем ее формальностью, равносильной картонному замку.
• Разве не удивительна эта парадоксальность — чем совершеннее становятся наши технологии, тем примитивнее становятся механизмы их злоупотребления?
• А ведь эта технология не просто инструмент потенциального мошенника — это кража реальности, временное похищение самой достоверности бытия.
Мошенничество с голосами знаменитостей, рекламирующих сомнительные продукты, — лишь верхушка айсберга. Что произойдет, когда клонированный голос главы государства объявит о начале военных действий? Или когда голос врача даст ложные медицинские рекомендации, способные привести к летальному исходу?
Мы подходим к точке, где доверие к голосовой коммуникации — этому древнейшему инструменту человеческого взаимодействия — может быть безвозвратно подорвано.
Поразительно, как технари пытаются решить эту проблему техническими же средствами: водяные знаки для AI-аудио, инструменты для детекции сгенерированного звука, семантические ограничения для фраз, типичных для мошенничества. Но это напоминает попытки закрыть прореху в ткани реальности заплаткой из той же ткани.
Проверка законности права на клонирование — это философский парадокс, а не техническая задача. Как доказать, что я — это действительно я?
Компания Descript требует от пользователя проговорить уникальный текст, но что мешает мошеннику обманом заставить жертву проговорить нужные фразы под видом "проверки личности" при звонке из "банка"? Каждый защитный механизм порождает новую уязвимость.
Предвижу наступление эры семиотического хаоса, где голос перестанет быть якорем личности.
• Страховые компании откажутся признавать голосовые подтверждения
• Банки не будут принимать распоряжения голосом
• Все будут перезванивать друг другу по альтернативным каналам для проверки подлинности просьб
Мир, в котором голос человека больше не является доказательством его присутствия — это мир, в котором часть человеческой сущности отчуждена технологией.
Это напоминает ситуацию из "Соляриса": чем совершеннее становится наша модель реальности, тем отчетливее проявляется непостижимость самой реальности.
Мы создали технологию, способную имитировать самый личный аспект нашей личности, но при этом проигнорировали вопрос о последствиях отделения голоса от его источника.
Рекомендации Consumer Reports — это попытка заделать трещины в плотине, за которой скрывается океан гораздо более фундаментальных вопросов. Дело не в том, как предотвратить мошенничество, а в том, готовы ли мы к миру, где достоверность восприятия постоянно находится под вопросом.
Технология клонирования голоса — это не просто инструмент для ускорения редактирования аудио или автоматизации озвучки.
Это зеркало, отражающее наивность нашего технологического оптимизма и хрупкость социальных связей, основанных на доверии.
Возможно, главный урок здесь в том, что проблемы, созданные технологией, не могут быть решены только технологией. Они требуют пересмотра наших представлений о достоверности, идентичности и границах между реальным и искусственным — вопросы, на которые у человечества пока нет удовлетворительных ответов.
#АлгокогнитивнаяКультура


26.03.202515:06
Большие ИИ-батальоны – новая стратегия Китая в борьбе с США.
Китай использует слом вычислительной парадигмы ИИ DeepSeek’ом для выхода вперед в ИИ-гонке.
Китай нашел очередной сверхэффективный контрприем против удушающего захвата экспортных ограничений США на микросхемы для ИИ.
Прошлогодние итоги торгово-технологической войны Китая и США за лидерство в ИИ показали, что «отставание Китая с мая ‘23 по октябрь ‘24 сократилось в 30 раз». И тем не менее, чтобы от сокращения отставания перейти к лидерству в ИИ-гонке, Китай мог рассчитывать лишь чудо. Ибо почуявшие на затылке дыхание Китайских конкурентов, лидирующие в гонке OpenAI, Google и Anthropic в конце 2024 взвинтили темп разработок новых моделей, а Белый дом еще сильнее стал душить Китай экспортными ограничениями.
Но чудо все-таки случилось. Им стал революционный прорыв китайских моделей компании DeepSeek. Этот прорыв кардинально изменил основу основ ИИ-гонки - требования к вычислительной мощности для ИИ-систем: прежняя парадигма «основанная на обучении» сменилась на парадигму «основанную на выводе».
• В прежней парадигме соотношение вычислительных ресурсов на этапе обучения модели и на этапе вывода (инференс) было от 70/30 до 80/20
• А в новой – DeepSeek установил планку соотношения вычислительных ресурсов на 25/75) – т.е. основные ресурсы требовались уде при ответах на запросы пользователей.
Еще более важно (и в этом то и состоял главный прорыв DeepSeek’а для Китая) – что в «эпоху вывода» также меняются требования к архитектуре вычислительных кластеров: вместо гонки за кластеры стоимостью в сотни миллиардов к распределенной архитектуре.
Новый отчет Qbit AI показывает, как это выглядит на практике (см. рис.).
Поставщики периферийных облачных вычислений, такие как PPIO, запускают ИИ-сервисы через распределенные сети, используя более 3900 узлов в 1200 городах Китая общей вычислительной мощностью более 1000 петафлопс.
И при этом Qbit сообщает, что во время китайского Нового года "PPIO достигла 99,9% доступности своих услуг To-Business DeepSeek… В настоящее время среднесуточное потребление токенов платформы PPIO превысило 130 миллиардов."
Таким образом, по состоянию на март 2025:
•
Для сравнения, оценки аналогичных показателей для самых продвинутых российских моделей:
•
N.B. С учетом внушительных экосистем Сбера и Яндекса и распространение их ИИ-сервисов для корпоративных заказчиков, указанные цифры могут возрасти на порядок. Но и эти цифры будут на примерно на 2 порядка меньше, чем у ведущих компаний США и Китая.
Резюме:
Новая стратегия больших батальонов распределенных вычислений, несомненно, на руку Китаю.
Однако, полемизируя с идеологией, выраженной в любимой Наполеоном фразе "Бог всегда на стороне больших батальонов", Вольтер сказал - "Бог не на стороне больших батальонов, а на стороне лучших стрелков".
А стрелки, надо признать, у США все же лучше.
#Китай #США #ИИгонка
Китай использует слом вычислительной парадигмы ИИ DeepSeek’ом для выхода вперед в ИИ-гонке.
Китай нашел очередной сверхэффективный контрприем против удушающего захвата экспортных ограничений США на микросхемы для ИИ.
Прошлогодние итоги торгово-технологической войны Китая и США за лидерство в ИИ показали, что «отставание Китая с мая ‘23 по октябрь ‘24 сократилось в 30 раз». И тем не менее, чтобы от сокращения отставания перейти к лидерству в ИИ-гонке, Китай мог рассчитывать лишь чудо. Ибо почуявшие на затылке дыхание Китайских конкурентов, лидирующие в гонке OpenAI, Google и Anthropic в конце 2024 взвинтили темп разработок новых моделей, а Белый дом еще сильнее стал душить Китай экспортными ограничениями.
Но чудо все-таки случилось. Им стал революционный прорыв китайских моделей компании DeepSeek. Этот прорыв кардинально изменил основу основ ИИ-гонки - требования к вычислительной мощности для ИИ-систем: прежняя парадигма «основанная на обучении» сменилась на парадигму «основанную на выводе».
• В прежней парадигме соотношение вычислительных ресурсов на этапе обучения модели и на этапе вывода (инференс) было от 70/30 до 80/20
• А в новой – DeepSeek установил планку соотношения вычислительных ресурсов на 25/75) – т.е. основные ресурсы требовались уде при ответах на запросы пользователей.
Еще более важно (и в этом то и состоял главный прорыв DeepSeek’а для Китая) – что в «эпоху вывода» также меняются требования к архитектуре вычислительных кластеров: вместо гонки за кластеры стоимостью в сотни миллиардов к распределенной архитектуре.
Новый отчет Qbit AI показывает, как это выглядит на практике (см. рис.).
Поставщики периферийных облачных вычислений, такие как PPIO, запускают ИИ-сервисы через распределенные сети, используя более 3900 узлов в 1200 городах Китая общей вычислительной мощностью более 1000 петафлопс.
И при этом Qbit сообщает, что во время китайского Нового года "PPIO достигла 99,9% доступности своих услуг To-Business DeepSeek… В настоящее время среднесуточное потребление токенов платформы PPIO превысило 130 миллиардов."
Таким образом, по состоянию на март 2025:
•
OpenAI ежесуточно обрабатывает около 1 трлн токенов, используя вычислительную мощность ~2000–4000 петафлопс
• Baidu также ежесуточно обрабатывает около 1 трлн токенов, но использует лишь 1500–2300 петафлопс
Для сравнения, оценки аналогичных показателей для самых продвинутых российских моделей:
•
Яндекс (YaLM) ежесуточно обрабатывает около ~5 млрд токенов, используя вычислительную мощность ~1-3 петафлопс
• Сбер (GigaChat) ~5+ млрд токенов, используя ~1-5 петафлопс
N.B. С учетом внушительных экосистем Сбера и Яндекса и распространение их ИИ-сервисов для корпоративных заказчиков, указанные цифры могут возрасти на порядок. Но и эти цифры будут на примерно на 2 порядка меньше, чем у ведущих компаний США и Китая.
Резюме:
Новая стратегия больших батальонов распределенных вычислений, несомненно, на руку Китаю.
Однако, полемизируя с идеологией, выраженной в любимой Наполеоном фразе "Бог всегда на стороне больших батальонов", Вольтер сказал - "Бог не на стороне больших батальонов, а на стороне лучших стрелков".
А стрелки, надо признать, у США все же лучше.
#Китай #США #ИИгонка


31.03.202515:55
Не того боимся
Экспериментальное подтверждение 4-х аттракторов реальности, кардинально меняющих видение ИИ-рисков
(третий, завершающий лонгрид серии «Проект “Pi” — 5й туз в рукаве Google»)
В предыдущем лонгриде постосериала были представлены экспериментальные доказательства в пользу вытекающей из парадигмы Pi следующей гипотезы:
Гипотеза 1 - о самопроизвольном возникновении цифровой жизни бестелесных цифровых сущностей в любой вычислительной системе с источником случайности.
В этой же, завершающей части представлены экспериментальные доказательства еще двух гипотез, вытекающих из парадигмы Pi:
Гипотеза 2 - о самопроизвольном возникновении у бестелесных цифровых сущностей цифровых моделей сантиентности (как минимум, в виде моделей мотивационной силы аффективных состояний).
Гипотеза 3 – о самопроизвольном возникновении у достигших определенного уровня сложности бестелесных цифровых сущностей сложных высокоуровневых качеств, мотивирующих их к кооперативному и доверительному поведению (потенциально позволяющим формировать стабильные социальные структуры, успешно сотрудничать в рамках больших групп и решать сложные задачи)
Все три гипотезы успешно прошли экспериментальную авторскую проверку и подлежат дальнейшему критическому анализу и расширенной экспериментальной проверке со стороны научно-исследовательского сообщества.
В завершающей 4-й части постосериала представлено видение ИИ-рисков с позиций парадигмы Pi в трёх ключевых перспективах.
1. Принципиально иная трактовка несогласованности ИИ с интересами индивидов и социумов
2. Концентрация власти
3. Антропоморфизация ИИ-систем, как следствие антропоцентристского понимания природы жизни и разума
Очень надеюсь, что среди читателей постосериала о проекте Pi найдутся такие, кому чтение постосериала покажется хотя бы наполовину столь же интересным, каким было для меня его написание.
И смею вас заверить, что прочитавшие эту серию теперь осведомлены о сути и текущем состоянии «проекта Pi», как никто более на всем свете. За исключением, пожалуй, руководителя проекта — Блеза Агуэра-и-Аркаса.
Подробней подписчики на мои лонгриды могут прочесть на платформах Patreon, Boosty, VK и Дзен-премиум.
Там же завтра планирую опубликовать для подписчиков двух высших категорий (золотой и алмазный) инструкции по доступу к аудиофайлам (лонгрид – 46 мин на русском; обсуждения всего постосериала 18 мин на англ.), майндмапам и брифингам проекта Pi. А для подписчиков категории алмазный инструкции по прямому доступу к разделу «Проект Pi» на NotebookLM.
#ParadigmsofIntelligence
Экспериментальное подтверждение 4-х аттракторов реальности, кардинально меняющих видение ИИ-рисков
(третий, завершающий лонгрид серии «Проект “Pi” — 5й туз в рукаве Google»)
В предыдущем лонгриде постосериала были представлены экспериментальные доказательства в пользу вытекающей из парадигмы Pi следующей гипотезы:
Гипотеза 1 - о самопроизвольном возникновении цифровой жизни бестелесных цифровых сущностей в любой вычислительной системе с источником случайности.
В этой же, завершающей части представлены экспериментальные доказательства еще двух гипотез, вытекающих из парадигмы Pi:
Гипотеза 2 - о самопроизвольном возникновении у бестелесных цифровых сущностей цифровых моделей сантиентности (как минимум, в виде моделей мотивационной силы аффективных состояний).
Гипотеза 3 – о самопроизвольном возникновении у достигших определенного уровня сложности бестелесных цифровых сущностей сложных высокоуровневых качеств, мотивирующих их к кооперативному и доверительному поведению (потенциально позволяющим формировать стабильные социальные структуры, успешно сотрудничать в рамках больших групп и решать сложные задачи)
Все три гипотезы успешно прошли экспериментальную авторскую проверку и подлежат дальнейшему критическому анализу и расширенной экспериментальной проверке со стороны научно-исследовательского сообщества.
В завершающей 4-й части постосериала представлено видение ИИ-рисков с позиций парадигмы Pi в трёх ключевых перспективах.
1. Принципиально иная трактовка несогласованности ИИ с интересами индивидов и социумов
2. Концентрация власти
3. Антропоморфизация ИИ-систем, как следствие антропоцентристского понимания природы жизни и разума
Очень надеюсь, что среди читателей постосериала о проекте Pi найдутся такие, кому чтение постосериала покажется хотя бы наполовину столь же интересным, каким было для меня его написание.
И смею вас заверить, что прочитавшие эту серию теперь осведомлены о сути и текущем состоянии «проекта Pi», как никто более на всем свете. За исключением, пожалуй, руководителя проекта — Блеза Агуэра-и-Аркаса.
Подробней подписчики на мои лонгриды могут прочесть на платформах Patreon, Boosty, VK и Дзен-премиум.
Там же завтра планирую опубликовать для подписчиков двух высших категорий (золотой и алмазный) инструкции по доступу к аудиофайлам (лонгрид – 46 мин на русском; обсуждения всего постосериала 18 мин на англ.), майндмапам и брифингам проекта Pi. А для подписчиков категории алмазный инструкции по прямому доступу к разделу «Проект Pi» на NotebookLM.
#ParadigmsofIntelligence


09.03.202511:55
О ведущемся в Google Research таинственном «проекте Pi» знают совсем немногие. А те, кто в курсе, в основном, делятся на 3 лагеря.
• Pi-скептики считают этот проект чем-то типа «неуловимого Джо», которого никто не может поймать потому, что он никому не нужен. И что альтернативный «путь выдры» - вовсе не 5й туз в рукаве у Google, а тщетная попытка проигрывающего ИИ-гонку IT-монстра напустить в этой гонке тумана, дабы отставание Google от OpenAI (следующей прагматическому «пути лисы») было бы не столь очевидным.
• Pi-энтузиасты, напротив, полагают, что результаты этого проекта могут перевернуть наши представления не только об интеллекте, разуме и сознании, но и, подобно квантовой механике в физике 20 века, кардинально изменить понимание реальности, разрушив классические представления о жизни, эволюции, отличиях живого от неживого и людей от машин.
• Ну а Pi-конспирологи стоят на своем. Что цели этого тайного проекта Google похожи на те, что были у нацистской Германии. Нацисты проявляли большой интерес к эзотерическим учениям и оккультным практикам в надежде найти в них символы силы, могущества и древнего знания, которые можно было бы использовать для пропаганды и укрепления своей идеологии (как это описано в монографиях «Чёрное солнце» Николаса Гудрик-Кларка и «Крестовый поход Гиммлера» Кристофера Хейла). Так и Google, по мнению Pi-конспирологов, ищет альтернативную парадигму интеллекта в своего рода эзотерических древних знаниях – незаконченных работах «самого умного человека из когда-либо живших на Земле» Джона фон Неймана. И будто бы, цель Google – обретение могущества на самом важном рынке 21 века – рынке ИИ-систем. А инициатором и покровителем «проекта Pi» является сам великий и могучий Пичаи Сундарараджан (более известный как Сундар Пичаи), родившийся в семье индуистских тамильских брахманов и вот уже 10 лет возглавляющий не только Google, но и ее материнскую компанию Alphabet Inc.
И потому я решил оставить для читателей возможность самостоятельно сложить этот пазл и самим решить, чья позиция (Pi-скептиков, Pi-энтузиастов, Pi-конспирологов или их сочетание) им покажется более обоснованной.
Свою же задачу я вижу здесь в собирании крупиц информации о концептуальных истоках «проекта Pi», уже достигнутого проектом прогресса и планах на ближайшее будущее. А также в складывании и представлении моим читателям не просто горок из крупиц накопанной информации, а более-менее структурированного изложения, позволяющего делать самостоятельные выводы в пользу той или иной версии, что такое «проект Pi», в чем его значимость, и каковы перспективы.
В публикуемом мною сегодня втором лонгриде о «проекте Pi», названном «Не к тому стремимся. Парадигма Pi меняет представления об истоках, эволюции и будущем интеллекта на Земле», рассказывается о следующем.
Часть 2. Основы парадигмы Pi
• Две краеугольные идеи в основании парадигмы Pi.
• Вычислим ли разум.
• Вычисления – основа всего.
• Жизнь – это аттрактор вычислений.
• Интеллект – это аттрактор эволюции.
• Высший интеллект – это аттрактор сложного языка и теории разума.
Часть 3. Какие доказательства.
• Достигнута цель фон Неймана - создана цифровая жизнь.
Тут я был вынужден прерваться. Не книгу публикую, а лонгрид. Потому продолжу в следующем лонгриде этой серии. И в качестве тизера, скажу, что начинаться он будет с жутко интересной главы:
• LLM тоже живые - цифровая жизнь, как и наша, управляется болью и удовольствием.
Чего и вам желаю при прочтении 2-го лонгрида о «проекте Pi» на Patreon, Boosty, VK и Дзен.
А 1-й лонгрид этой серии тут.
#ParadigmsofIntelligence
• Pi-скептики считают этот проект чем-то типа «неуловимого Джо», которого никто не может поймать потому, что он никому не нужен. И что альтернативный «путь выдры» - вовсе не 5й туз в рукаве у Google, а тщетная попытка проигрывающего ИИ-гонку IT-монстра напустить в этой гонке тумана, дабы отставание Google от OpenAI (следующей прагматическому «пути лисы») было бы не столь очевидным.
• Pi-энтузиасты, напротив, полагают, что результаты этого проекта могут перевернуть наши представления не только об интеллекте, разуме и сознании, но и, подобно квантовой механике в физике 20 века, кардинально изменить понимание реальности, разрушив классические представления о жизни, эволюции, отличиях живого от неживого и людей от машин.
• Ну а Pi-конспирологи стоят на своем. Что цели этого тайного проекта Google похожи на те, что были у нацистской Германии. Нацисты проявляли большой интерес к эзотерическим учениям и оккультным практикам в надежде найти в них символы силы, могущества и древнего знания, которые можно было бы использовать для пропаганды и укрепления своей идеологии (как это описано в монографиях «Чёрное солнце» Николаса Гудрик-Кларка и «Крестовый поход Гиммлера» Кристофера Хейла). Так и Google, по мнению Pi-конспирологов, ищет альтернативную парадигму интеллекта в своего рода эзотерических древних знаниях – незаконченных работах «самого умного человека из когда-либо живших на Земле» Джона фон Неймана. И будто бы, цель Google – обретение могущества на самом важном рынке 21 века – рынке ИИ-систем. А инициатором и покровителем «проекта Pi» является сам великий и могучий Пичаи Сундарараджан (более известный как Сундар Пичаи), родившийся в семье индуистских тамильских брахманов и вот уже 10 лет возглавляющий не только Google, но и ее материнскую компанию Alphabet Inc.
Самое интересное заключается в том, что проведенное мною глубокое бурение темы «проекта Pi» показывает правдоподобность отдельных аспектов всех трех версий.
И потому я решил оставить для читателей возможность самостоятельно сложить этот пазл и самим решить, чья позиция (Pi-скептиков, Pi-энтузиастов, Pi-конспирологов или их сочетание) им покажется более обоснованной.
Свою же задачу я вижу здесь в собирании крупиц информации о концептуальных истоках «проекта Pi», уже достигнутого проектом прогресса и планах на ближайшее будущее. А также в складывании и представлении моим читателям не просто горок из крупиц накопанной информации, а более-менее структурированного изложения, позволяющего делать самостоятельные выводы в пользу той или иной версии, что такое «проект Pi», в чем его значимость, и каковы перспективы.
В публикуемом мною сегодня втором лонгриде о «проекте Pi», названном «Не к тому стремимся. Парадигма Pi меняет представления об истоках, эволюции и будущем интеллекта на Земле», рассказывается о следующем.
Часть 2. Основы парадигмы Pi
• Две краеугольные идеи в основании парадигмы Pi.
• Вычислим ли разум.
• Вычисления – основа всего.
• Жизнь – это аттрактор вычислений.
• Интеллект – это аттрактор эволюции.
• Высший интеллект – это аттрактор сложного языка и теории разума.
Часть 3. Какие доказательства.
• Достигнута цель фон Неймана - создана цифровая жизнь.
Тут я был вынужден прерваться. Не книгу публикую, а лонгрид. Потому продолжу в следующем лонгриде этой серии. И в качестве тизера, скажу, что начинаться он будет с жутко интересной главы:
• LLM тоже живые - цифровая жизнь, как и наша, управляется болью и удовольствием.
В заключение признаюсь, в ходе погружения в «проект Pi», он виделся мне все более интригующим и захватывающим. Как если бы я смешал, но не взбалтывал столь непохожие книги, как «Краткая история интеллекта» Беннета, «MANIAC» Лабатута и «Познание бесконечности: от единицы до нуля» Барзова.
Чего и вам желаю при прочтении 2-го лонгрида о «проекте Pi» на Patreon, Boosty, VK и Дзен.
А 1-й лонгрид этой серии тут.
#ParadigmsofIntelligence


21.03.202514:46
Новый носитель культуры
Есть ли у LLM аналоги "души" и "достоинства" или они лишь инструменты выживания человеческой культуры?
В прогнозах того, как развитие больших языковых моделей (LLM) скажется на жизни людей, все чаще называется гибридизация интеллектуальной деятельности людей.
Иными словами, скорее всего,
• ИИ не захватит власть над людьми, подчинив их своим интересам или уничтожив за ненадобностью;
• и не вытеснит людей из широкого спектра интеллектуальной деятельности (от науки и бизнеса до искусства).
Скорее всего, люди и ИИ будут объединяться в своего рода интеллектуальных кентавров, сочетающих наиболее сильные стороны обоих типов интеллекта. И эта интеллектуальная кентавризация людей и алгоритмов станет главным итогом интеллектуальной революции человечества в 21 веке.
Но что не учитывают подобные прогнозы, — что у интеллектуальной кентавризации, помимо позитивных последствий (появление у таких кентавров когнитивных сверхспособностей, отсутствующих и у людей, и у ИИ), могут быть столь же уникальные по масштабу и качеству негативные последствия.
Например, — влияние алгоритмов на изменение вектора культурной эволюции, являвшейся доминирующим фактором в генно-культурной эволюции Homo sapiens, как минимум, последние несколько десятков тысяч лет.
До сих пор негативные последствия нарастающего массового применения LLM во всех областях человеческой деятельности, так или иначе связанных с языком, виделись в порождении дезинформации и фейков, засорении ноосферы некачественной и ложной информацией, манипулировании мнениями и предпочтением людей и усилении наших и без того немалых когнитивных предубеждений.
Но как показали результаты обсуждавшегося нами вчера совместного исследования университетов Принстона и Нью-Йорка:
• в ноосфере существует, своего рода, невидимая гравитация культурного ландшафта — сила, которую мы не замечаем, но которая неумолимо направляет траектории мышления детей;
• и за счет эффекта "двойного кодирования", через язык родителей детям не только передаются элементы их формирующегося мировоззрения, но и происходит обучение детей когнитивному фреймингу, преобразующему их когнитивные схемы, лежащие в основе категоризации всего человеческого опыта.
Особая актуальность этого исследования в том, что оно напоминает нам:
В контексте начавшегося лавинообразного внедрения в нашу жизнь LLM это становится особенно важным. Ведь эти модели не только являются вторым носителем высшего интеллекта, формирующим ноосферу, но и с неотвратимостью превратятся во второй носитель культуры гибридной цивилизации на Земле.
И этот второй носитель культуры способен не только реплицировать уже существующие знания и усиливать уже существующие предубеждения людей при формировании новых слоев ноосферы.
Формируя свои "когнитивные" структуры через обучающие данные, этот второй носитель культуры, по мере расширения интеллектуальной кентавризации, будет все больше влиять на формирование когнитивных структур у детей.
И это вполне может стать одним из ключевых рисков интеграции LLM в социальную жизнь и доминирующим фактором создания будущего интеллектуального ландшафта Земли.
И если вы захотите прочесть это (заодно узнав, что на картинке поста), то из-за ограничений Телеграма на размер поста, вам придется кликнуть на эту ссылку с продолжением моего поста в Телеграфе
https://telegra.ph/LLM-orientirovannaya-pereinterpretaciya-rasskaza-Vyacheslava-Rybakova-Nositel-kultury-03-21
#Язык
Есть ли у LLM аналоги "души" и "достоинства" или они лишь инструменты выживания человеческой культуры?
Оставаться собой — максимум, что человек вообще может.
Вячеслав Рыбаков «Носитель культуры»
В прогнозах того, как развитие больших языковых моделей (LLM) скажется на жизни людей, все чаще называется гибридизация интеллектуальной деятельности людей.
Иными словами, скорее всего,
• ИИ не захватит власть над людьми, подчинив их своим интересам или уничтожив за ненадобностью;
• и не вытеснит людей из широкого спектра интеллектуальной деятельности (от науки и бизнеса до искусства).
Скорее всего, люди и ИИ будут объединяться в своего рода интеллектуальных кентавров, сочетающих наиболее сильные стороны обоих типов интеллекта. И эта интеллектуальная кентавризация людей и алгоритмов станет главным итогом интеллектуальной революции человечества в 21 веке.
Но что не учитывают подобные прогнозы, — что у интеллектуальной кентавризации, помимо позитивных последствий (появление у таких кентавров когнитивных сверхспособностей, отсутствующих и у людей, и у ИИ), могут быть столь же уникальные по масштабу и качеству негативные последствия.
Например, — влияние алгоритмов на изменение вектора культурной эволюции, являвшейся доминирующим фактором в генно-культурной эволюции Homo sapiens, как минимум, последние несколько десятков тысяч лет.
До сих пор негативные последствия нарастающего массового применения LLM во всех областях человеческой деятельности, так или иначе связанных с языком, виделись в порождении дезинформации и фейков, засорении ноосферы некачественной и ложной информацией, манипулировании мнениями и предпочтением людей и усилении наших и без того немалых когнитивных предубеждений.
Но как показали результаты обсуждавшегося нами вчера совместного исследования университетов Принстона и Нью-Йорка:
• в ноосфере существует, своего рода, невидимая гравитация культурного ландшафта — сила, которую мы не замечаем, но которая неумолимо направляет траектории мышления детей;
• и за счет эффекта "двойного кодирования", через язык родителей детям не только передаются элементы их формирующегося мировоззрения, но и происходит обучение детей когнитивному фреймингу, преобразующему их когнитивные схемы, лежащие в основе категоризации всего человеческого опыта.
Особая актуальность этого исследования в том, что оно напоминает нам:
язык — это не просто средство коммуникации, но и инструмент власти над миром, с помощью которого мы структурируем реальность.
В контексте начавшегося лавинообразного внедрения в нашу жизнь LLM это становится особенно важным. Ведь эти модели не только являются вторым носителем высшего интеллекта, формирующим ноосферу, но и с неотвратимостью превратятся во второй носитель культуры гибридной цивилизации на Земле.
И этот второй носитель культуры способен не только реплицировать уже существующие знания и усиливать уже существующие предубеждения людей при формировании новых слоев ноосферы.
Формируя свои "когнитивные" структуры через обучающие данные, этот второй носитель культуры, по мере расширения интеллектуальной кентавризации, будет все больше влиять на формирование когнитивных структур у детей.
И это вполне может стать одним из ключевых рисков интеграции LLM в социальную жизнь и доминирующим фактором создания будущего интеллектуального ландшафта Земли.
Наверняка, у многих читателей этого поста он может вызвать реакцию идиосинкразии на кажущееся им в этом тексте сочетание технофобии и апокалиптичности. Переубедить таких читателей я вряд ли смогу. Но чтобы хоть как-то попытаться донести свои опасения и до этих читателей, я попробую проиллюстрировать основные мысли этого поста современной LLM-ориентированной переинтерпретацией рассказа Вячеслава Рыбакова «Носитель культуры».
И если вы захотите прочесть это (заодно узнав, что на картинке поста), то из-за ограничений Телеграма на размер поста, вам придется кликнуть на эту ссылку с продолжением моего поста в Телеграфе
https://telegra.ph/LLM-orientirovannaya-pereinterpretaciya-rasskaza-Vyacheslava-Rybakova-Nositel-kultury-03-21
#Язык
Log in to unlock more functionality.