27.04.202513:10
Твои глаза лгут, а мозг подкупает
Как иллюзии — и нейросети — заставляют нас верить в собственную непогрешимость
И как вам этот бред с тремя танцовщицами на приложенном GIFе?
✔️ Если смотреть на танцовщиц слева и посередине, то средняя вращается по часовой стрелке.
✔️ Если же смотреть на танцовщиц справа и посередине, то средняя вращается против часовой стрелке
Какой из вариантов, по-вашему, истина?
Увы!
Как я писал в «”Ловушке Гудхарда” для AGI», — современная наука не располагает вескими основаниями для теоретических или эмпирических критериев различения разума «нормального, рационального человека» от «иррационального разума безумца». То есть невозможно, проведя тесты, сделать однозначный вывод — перед нами разумный или безумный человек. Здесь все слишком зыбко, условно и не точно, чтобы решать такие вопросы тестированием с бинарным вердиктом «да/нет».
• Наш мир так интересно устроен, что абсолютно всё, что нам кажется очевидным, рекомендуется ставить под вопрос. Ибо наши убеждения и вся наша культура в целом формируются на основе субъективного восприятия. А оно почти всегда врёт.
• Как же люди выживают, будучи в плену этой «иллюзии разумности»?
• Для этого эволюция создала для всего живого особую «валюту» — уверенность. И теперь, помимо нас, та же «валюта» в тех же целях используется и языковыми моделями (LLM), от советов и рекомендаций которых мы все больше зависит при принятии решений.
• В результате получается, что от того, каков «курс обмена» уверенности ИИ в уверенность ЛПР (лица принимающего решение), будет зависеть практически всё: от решения что-либо купить до решения о нанесении ядерного удара.
Тогда как знать это критически важно:
— Для людей. Ибо, осознав, что «уверенность ≠ истина», мы учимся интеллектуальному смирению и лучше фильтруем инфопоток.
— Для ИИ. Ибо чем прозрачнее модель заявит о границах своих знаний, тем меньше риска, что пользователь «купится» на её иллюзию непогрешимости.
— Для общества. Ибо понимание, что любая культура — это согласованная, но не абсолютная карта реальности, помогает строить диалог вместо конфронтации.
Неумение правильно сомневаться дорого стоило человечеству. В наше время «иллюзия объективности» стала самым страшным пороком – хуже трусости.
Бороться с иллюзиями — зацементированными в нас эволюционными нейрокодами когнитивных искажений, — задача колоссальной сложности.
А с переходом мира в цифру, «иллюзия объективности» встраивается во все инфопотоки социальных медиа, становясь главным фактором роста супер-поляризации (внутри каждого из обществ и между ними).
Результат этого — скачок насилия, разгоняемого активацией единственного нейрокода, встроенного в нас природой для преодоления супер-поляризации — кода с условным названием «если другая сторона не сдается, то её уничтожают».
«Иллюзия объективности» в «разуме» ИИ будет стоить людям еще дороже.
Вот короткое пояснение этой мысли.
#КогнитивныеИскажения #LLM
Как иллюзии — и нейросети — заставляют нас верить в собственную непогрешимость
И как вам этот бред с тремя танцовщицами на приложенном GIFе?
✔️ Если смотреть на танцовщиц слева и посередине, то средняя вращается по часовой стрелке.
✔️ Если же смотреть на танцовщиц справа и посередине, то средняя вращается против часовой стрелке
Какой из вариантов, по-вашему, истина?
Увы!
Как я писал в «”Ловушке Гудхарда” для AGI», — современная наука не располагает вескими основаниями для теоретических или эмпирических критериев различения разума «нормального, рационального человека» от «иррационального разума безумца». То есть невозможно, проведя тесты, сделать однозначный вывод — перед нами разумный или безумный человек. Здесь все слишком зыбко, условно и не точно, чтобы решать такие вопросы тестированием с бинарным вердиктом «да/нет».
• Наш мир так интересно устроен, что абсолютно всё, что нам кажется очевидным, рекомендуется ставить под вопрос. Ибо наши убеждения и вся наша культура в целом формируются на основе субъективного восприятия. А оно почти всегда врёт.
• Как же люди выживают, будучи в плену этой «иллюзии разумности»?
• Для этого эволюция создала для всего живого особую «валюту» — уверенность. И теперь, помимо нас, та же «валюта» в тех же целях используется и языковыми моделями (LLM), от советов и рекомендаций которых мы все больше зависит при принятии решений.
• В результате получается, что от того, каков «курс обмена» уверенности ИИ в уверенность ЛПР (лица принимающего решение), будет зависеть практически всё: от решения что-либо купить до решения о нанесении ядерного удара.
Зачем знать курс обмена долларов в рубли — понятно всем.
А вот вопросом, зачем знать «обменный курс» уверенности ИИ в вашу уверенность при принятии решения, — вряд ли кто-то из вас озадачивается.
Тогда как знать это критически важно:
— Для людей. Ибо, осознав, что «уверенность ≠ истина», мы учимся интеллектуальному смирению и лучше фильтруем инфопоток.
— Для ИИ. Ибо чем прозрачнее модель заявит о границах своих знаний, тем меньше риска, что пользователь «купится» на её иллюзию непогрешимости.
— Для общества. Ибо понимание, что любая культура — это согласованная, но не абсолютная карта реальности, помогает строить диалог вместо конфронтации.
Иначе говоря, чтобы сделать и людей, и алгоритмы разумнее, нужно не столько увеличивать объём данных и число параметров LLM, сколько учить и себя, и LLM правильно сомневаться.
Неумение правильно сомневаться дорого стоило человечеству. В наше время «иллюзия объективности» стала самым страшным пороком – хуже трусости.
Бороться с иллюзиями — зацементированными в нас эволюционными нейрокодами когнитивных искажений, — задача колоссальной сложности.
А с переходом мира в цифру, «иллюзия объективности» встраивается во все инфопотоки социальных медиа, становясь главным фактором роста супер-поляризации (внутри каждого из обществ и между ними).
Результат этого — скачок насилия, разгоняемого активацией единственного нейрокода, встроенного в нас природой для преодоления супер-поляризации — кода с условным названием «если другая сторона не сдается, то её уничтожают».
«Иллюзия объективности» в «разуме» ИИ будет стоить людям еще дороже.
Вот короткое пояснение этой мысли.
#КогнитивныеИскажения #LLM


21.04.202515:00
AGI — не надвигающийся «Скайнет», а сверхсложная электророзетка.
Если вам надоело слушать о грядущем восстании машин, вот освежающий глоток реализма и конструктивности.
Именно такой нестандартный ракурс предлагают исследователи Принстонского университета Арвинд Нараянян и Саяш Капур в эссе «AI as Normal Technology». Они называют ИИ «нормальной технологией» и убеждают: главное в нём — не мифическая «суперинтеллектуальность», а вполне земная логика изобретения, внедрения и распространения.
Ключевая мысль авторов такова.
Термины «интеллект» и «сверхинтеллект» уже несколько десятков лет использовались неправильно. Эти термины попеременно относятся то к возможностям (capability), то к мощи/власти (power). Но первое является неотъемлемым свойством системы, тогда как второе — это вопрос того, как мы проектируем среду, в которой функционируют системы ИИ. И здесь люди обладают широким спектром возможностей влиять на проектирование.
Медленное, но верное влияние
Авторы считают, что прорывы в моделях происходят быстро, но до реальных экономических сдвигов пройдут десятилетия — ровно как было с электричеством или интернетом. Особенно это касается чувствительных сфер применения (медицина, транспорт …), где безопасность и регулирование устанавливают естественный «скоростной лимит»
Люди остаются у руля
Даже в мире более продвинутого ИИ, контроль, как подчёркивают авторы, остаётся за людьми и организациями. Вместо «галактического мозга в коробке» авторы видят множество моделей человеческого надзора: аудит, мониторинг, отказоустойчивые «тормоза», принцип наименьших привилегий и др. — целый инженерный арсенал, который уже работает в других критически важных системах.
Риски и как их укротить
Авторы анализируют четыре группы угроз: аварии, гонка вооружений, злоупотребления и спекулятивное «бумажно скрепочное» рассогласование целей. Все они, по мнению авторов, решаемы средствами нормального техно управления. А вот долгосрочные социальные перекосы — неравенство, эрозия доверия, монокультура моделей — куда опаснее и требуют внимания уже сегодня.
Политика «устойчивости», а не «запретов»
Авторы предлагают ориентир — resilience: уменьшать неопределённость, делать системы отказоустойчивыми, развивать открытость и конкуренцию. Напротив, идеи «нераспространения» (строгие лицензии, закрытие моделей) они считают контрпродуктивными: меньше игроков — значит одна единственная уязвимость может обрушить всё сразу. Вместо этого государствам стоит инвестировать в научные данные о реальных инцидентах, повышать ИИ грамотность общества и укреплять социальные лифты для тех, кого автоматизация затронет первыми.
Почему это важно
Эссе разрушает привычное «апокалиптическое» и «утопическое» деление обсуждений ИИ. Оно возвращает разговор в плоскость институций, экономики и людей, напоминая: технологии меняют мир не рывком, а шаг за шагом. От того, как мы организуем эти шаги, зависит, станет ли ИИ очередным двигателем прогресса или усилителем старых проблем.
#AGI #ИИриски #Хриски
Если вам надоело слушать о грядущем восстании машин, вот освежающий глоток реализма и конструктивности.
Именно такой нестандартный ракурс предлагают исследователи Принстонского университета Арвинд Нараянян и Саяш Капур в эссе «AI as Normal Technology». Они называют ИИ «нормальной технологией» и убеждают: главное в нём — не мифическая «суперинтеллектуальность», а вполне земная логика изобретения, внедрения и распространения.
Ключевая мысль авторов такова.
Термины «интеллект» и «сверхинтеллект» уже несколько десятков лет использовались неправильно. Эти термины попеременно относятся то к возможностям (capability), то к мощи/власти (power). Но первое является неотъемлемым свойством системы, тогда как второе — это вопрос того, как мы проектируем среду, в которой функционируют системы ИИ. И здесь люди обладают широким спектром возможностей влиять на проектирование.
Медленное, но верное влияние
Авторы считают, что прорывы в моделях происходят быстро, но до реальных экономических сдвигов пройдут десятилетия — ровно как было с электричеством или интернетом. Особенно это касается чувствительных сфер применения (медицина, транспорт …), где безопасность и регулирование устанавливают естественный «скоростной лимит»
Люди остаются у руля
Даже в мире более продвинутого ИИ, контроль, как подчёркивают авторы, остаётся за людьми и организациями. Вместо «галактического мозга в коробке» авторы видят множество моделей человеческого надзора: аудит, мониторинг, отказоустойчивые «тормоза», принцип наименьших привилегий и др. — целый инженерный арсенал, который уже работает в других критически важных системах.
Риски и как их укротить
Авторы анализируют четыре группы угроз: аварии, гонка вооружений, злоупотребления и спекулятивное «бумажно скрепочное» рассогласование целей. Все они, по мнению авторов, решаемы средствами нормального техно управления. А вот долгосрочные социальные перекосы — неравенство, эрозия доверия, монокультура моделей — куда опаснее и требуют внимания уже сегодня.
Политика «устойчивости», а не «запретов»
Авторы предлагают ориентир — resilience: уменьшать неопределённость, делать системы отказоустойчивыми, развивать открытость и конкуренцию. Напротив, идеи «нераспространения» (строгие лицензии, закрытие моделей) они считают контрпродуктивными: меньше игроков — значит одна единственная уязвимость может обрушить всё сразу. Вместо этого государствам стоит инвестировать в научные данные о реальных инцидентах, повышать ИИ грамотность общества и укреплять социальные лифты для тех, кого автоматизация затронет первыми.
Почему это важно
Эссе разрушает привычное «апокалиптическое» и «утопическое» деление обсуждений ИИ. Оно возвращает разговор в плоскость институций, экономики и людей, напоминая: технологии меняют мир не рывком, а шаг за шагом. От того, как мы организуем эти шаги, зависит, станет ли ИИ очередным двигателем прогресса или усилителем старых проблем.
#AGI #ИИриски #Хриски


12.04.202512:10
Одних ИИ заменит. Другим усилит способности. Но главное, - ИИ выявит эффективных лидеров.
ИИ может оценивать лидерские качества лучше любого HR.
Лидеры, в отличие от начальников, обладают поведенческими моделями, которые способствуют сотрудничеству, и в основе которых тип социально-эмоционального интеллекта, называемый некогнитивными или «мягкими» навыками - сотрудничество, командная работа, адаптивность, письменная и устная коммуникация…
Корпоративные HR и топовые консультанты делают вид, будто успешно тестируют кандидатов, якобы выявляя среди них настоящих лидеров. Однако с некогнитивными навыками оказывается куда сложнее, чем с когнитивными. Ведь измерять их – все равно, что измерить человеческую душу – нечто эфемерное и неуловимое.
Новое исследование предлагает и экспериментально подтверждает эффективность кардинально нового метода определения и развития лидерских качества в эпоху ИИ.
• Дайте человеку руководить командой, состоящих из ИИ-агентов. И посмотрите на результаты работы команды.
• Результат исследования поражает: навыки, проявленные при работе с искусственными коллегами, почти идеально (корреляция 0,81) совпадают с эффективностью руководства живыми людьми.
Ключевой вывод исследования
Лидерство не зависит от резюме или формальных регалий. Настоящий лидер — тот, кто задает вопросы, обеспечивает участие каждого члена команды и использует объединяющие "мы" и "нас" в своей речи. Эти паттерны универсальны — неважно, общаетесь вы с человеком или алгоритмом.
Исследование предвещает революцию в корпоративной культуре.
• Вместо субъективных собеседований — динамическая оценка реального поведения в полевых условиях руководства командой искусственных коллег.
• Вместо общих тренингов — точечное развитие коммуникационных привычек в ходе все тех же полевых условий.
Но это еще не все.
Исследование показало, что ИИ не может в полной мере распознать эмоциональную сторону взаимодействия в коллективе. Когда лидеры проявляли эмпатию и энтузиазм при работе с людьми, это повышало эффективность работы команды, но не влияло на эффективность ИИ-агентов.
Именно здесь проходит новая граница — эмоциональный интеллект и стратегическое мышление остаются территорией людей.
По крайней мере, пока.
Это значит, что мы стоим на пороге эпохи, где технологии:
• не только заменяют людей в интеллектуальной деятельности;
• и не только, подобно «интеллектуальным экзоскелетам», усиливают интеллектуальные и творческие способности людей.
Это также и эпоха, когда технологии помогут раскрывать лучшие качества людей, прокачивать их «мягкие навыки», катализировать в них эмпатию и их главное конкурентное качество – человечность.
#ИИ #Карьера #Лидерство
ИИ может оценивать лидерские качества лучше любого HR.
Новое исследование от Harvard Kennedy Schoolвзорвало представления о том, как можно идентифицировать лидеров. Не начальников по формальным полномочиям. А именно командных лидеров, наиболее эффективно мотивирующих и ведущих за собой людей.
Лидеры, в отличие от начальников, обладают поведенческими моделями, которые способствуют сотрудничеству, и в основе которых тип социально-эмоционального интеллекта, называемый некогнитивными или «мягкими» навыками - сотрудничество, командная работа, адаптивность, письменная и устная коммуникация…
Корпоративные HR и топовые консультанты делают вид, будто успешно тестируют кандидатов, якобы выявляя среди них настоящих лидеров. Однако с некогнитивными навыками оказывается куда сложнее, чем с когнитивными. Ведь измерять их – все равно, что измерить человеческую душу – нечто эфемерное и неуловимое.
Новое исследование предлагает и экспериментально подтверждает эффективность кардинально нового метода определения и развития лидерских качества в эпоху ИИ.
• Дайте человеку руководить командой, состоящих из ИИ-агентов. И посмотрите на результаты работы команды.
• Результат исследования поражает: навыки, проявленные при работе с искусственными коллегами, почти идеально (корреляция 0,81) совпадают с эффективностью руководства живыми людьми.
Ключевой вывод исследования
Лидерство не зависит от резюме или формальных регалий. Настоящий лидер — тот, кто задает вопросы, обеспечивает участие каждого члена команды и использует объединяющие "мы" и "нас" в своей речи. Эти паттерны универсальны — неважно, общаетесь вы с человеком или алгоритмом.
Исследование предвещает революцию в корпоративной культуре.
• Вместо субъективных собеседований — динамическая оценка реального поведения в полевых условиях руководства командой искусственных коллег.
• Вместо общих тренингов — точечное развитие коммуникационных привычек в ходе все тех же полевых условий.
Но это еще не все.
Исследование показало, что ИИ не может в полной мере распознать эмоциональную сторону взаимодействия в коллективе. Когда лидеры проявляли эмпатию и энтузиазм при работе с людьми, это повышало эффективность работы команды, но не влияло на эффективность ИИ-агентов.
Именно здесь проходит новая граница — эмоциональный интеллект и стратегическое мышление остаются территорией людей.
По крайней мере, пока.
Это значит, что мы стоим на пороге эпохи, где технологии:
• не только заменяют людей в интеллектуальной деятельности;
• и не только, подобно «интеллектуальным экзоскелетам», усиливают интеллектуальные и творческие способности людей.
Это также и эпоха, когда технологии помогут раскрывать лучшие качества людей, прокачивать их «мягкие навыки», катализировать в них эмпатию и их главное конкурентное качество – человечность.
#ИИ #Карьера #Лидерство


04.04.202513:58
Символом надвигающейся глобальной ИИ-катастрофы стала химера «серого носорога» и «черного лебедя»
Часовой механизм «интеллектуального взрыва» запущен, и время обратного отсчёта до необратимости – не более трёх лет.
В январе 2024 стратегические аналитики разведки Китая особо выделили уникальный характер начавшегося года.
• Он станет "решающим" для глобального управления ИИ.
• Он будет уникален по числу и взаимовлиянию событий двух типов: "черный лебедь" и "серый носорог".
Напомню, что «серый носорог» рассматривается как противоположность «черному лебедю» — плохо поддающейся прогнозированию угрозе. События, называемые «серыми носорогами», не только могут быть спрогнозированы, более того - довольно часто они просто очевидны.
В начале 2025 угрожающая перспектива сочетания сверхбыстрого развития ИИ с развернувшейся ИИ-гонкой США и Китая ничего хорошего не обещает. Когда главная цель лидеров гонки – лишь бы стать №1, - всеми остальными целями и связанными с ними рисками просто пренебрегают.
Признавая это, Вице-премьер Китая Дин Сюэсян в январе призвал остановить хаотичную конкуренцию в сфере ИИ, способную уже в ближайшие 2-3 года сделать приход в мир гигантского «серого носорога» ИИ-рисков неотвратимым.
А вчера, третьего апреля 2025 года было опубликовано исследование, написанное пятью известными в области ИИ авторами и озаглавленное "Искусственный интеллект 2027".
Главную мысль авторов я резюмирую так, что перспектива развития ИИ в ближайшие 3 года уже превратилась в колоссального размера «серого носорога»:
• Большинство исследователей понимают, что отсчет пошел, - и «взрыв интеллекта» на Земле произойдет в ближайшие годы.
• Как это будет происходить – возможны сценарии. В какой форме и как скоро – возможны варианты. Но то, что произойдет и очень скоро, - шансы крайне велики.
• Однако, на то он и «серый носорог», что появление этого колоссального риска прогнозируемо, для многих даже очевидно, но, по гамбургскому счету, тотально игнорируемо.
Рассчитывать, что это прогностическое исследование прочтут многие, наивно.
Однако, прослушать приложенный ниже 15 минутный аналитический аудио-бриф исследования на русском языке захотят и, надеюсь, смогут все же побольше.
Это совместная работа двух моделей (OpenAI и Google) под моей редакцией.
#СтратегическаяАналитика #ИИ #Китай #США
Часовой механизм «интеллектуального взрыва» запущен, и время обратного отсчёта до необратимости – не более трёх лет.
В январе 2024 стратегические аналитики разведки Китая особо выделили уникальный характер начавшегося года.
• Он станет "решающим" для глобального управления ИИ.
• Он будет уникален по числу и взаимовлиянию событий двух типов: "черный лебедь" и "серый носорог".
Напомню, что «серый носорог» рассматривается как противоположность «черному лебедю» — плохо поддающейся прогнозированию угрозе. События, называемые «серыми носорогами», не только могут быть спрогнозированы, более того - довольно часто они просто очевидны.
В начале 2025 угрожающая перспектива сочетания сверхбыстрого развития ИИ с развернувшейся ИИ-гонкой США и Китая ничего хорошего не обещает. Когда главная цель лидеров гонки – лишь бы стать №1, - всеми остальными целями и связанными с ними рисками просто пренебрегают.
Признавая это, Вице-премьер Китая Дин Сюэсян в январе призвал остановить хаотичную конкуренцию в сфере ИИ, способную уже в ближайшие 2-3 года сделать приход в мир гигантского «серого носорога» ИИ-рисков неотвратимым.
А вчера, третьего апреля 2025 года было опубликовано исследование, написанное пятью известными в области ИИ авторами и озаглавленное "Искусственный интеллект 2027".
Главную мысль авторов я резюмирую так, что перспектива развития ИИ в ближайшие 3 года уже превратилась в колоссального размера «серого носорога»:
• Большинство исследователей понимают, что отсчет пошел, - и «взрыв интеллекта» на Земле произойдет в ближайшие годы.
• Как это будет происходить – возможны сценарии. В какой форме и как скоро – возможны варианты. Но то, что произойдет и очень скоро, - шансы крайне велики.
• Однако, на то он и «серый носорог», что появление этого колоссального риска прогнозируемо, для многих даже очевидно, но, по гамбургскому счету, тотально игнорируемо.
Рассчитывать, что это прогностическое исследование прочтут многие, наивно.
Однако, прослушать приложенный ниже 15 минутный аналитический аудио-бриф исследования на русском языке захотят и, надеюсь, смогут все же побольше.
Это совместная работа двух моделей (OpenAI и Google) под моей редакцией.
#СтратегическаяАналитика #ИИ #Китай #США


31.03.202515:55
Не того боимся
Экспериментальное подтверждение 4-х аттракторов реальности, кардинально меняющих видение ИИ-рисков
(третий, завершающий лонгрид серии «Проект “Pi” — 5й туз в рукаве Google»)
В предыдущем лонгриде постосериала были представлены экспериментальные доказательства в пользу вытекающей из парадигмы Pi следующей гипотезы:
Гипотеза 1 - о самопроизвольном возникновении цифровой жизни бестелесных цифровых сущностей в любой вычислительной системе с источником случайности.
В этой же, завершающей части представлены экспериментальные доказательства еще двух гипотез, вытекающих из парадигмы Pi:
Гипотеза 2 - о самопроизвольном возникновении у бестелесных цифровых сущностей цифровых моделей сантиентности (как минимум, в виде моделей мотивационной силы аффективных состояний).
Гипотеза 3 – о самопроизвольном возникновении у достигших определенного уровня сложности бестелесных цифровых сущностей сложных высокоуровневых качеств, мотивирующих их к кооперативному и доверительному поведению (потенциально позволяющим формировать стабильные социальные структуры, успешно сотрудничать в рамках больших групп и решать сложные задачи)
Все три гипотезы успешно прошли экспериментальную авторскую проверку и подлежат дальнейшему критическому анализу и расширенной экспериментальной проверке со стороны научно-исследовательского сообщества.
В завершающей 4-й части постосериала представлено видение ИИ-рисков с позиций парадигмы Pi в трёх ключевых перспективах.
1. Принципиально иная трактовка несогласованности ИИ с интересами индивидов и социумов
2. Концентрация власти
3. Антропоморфизация ИИ-систем, как следствие антропоцентристского понимания природы жизни и разума
Очень надеюсь, что среди читателей постосериала о проекте Pi найдутся такие, кому чтение постосериала покажется хотя бы наполовину столь же интересным, каким было для меня его написание.
И смею вас заверить, что прочитавшие эту серию теперь осведомлены о сути и текущем состоянии «проекта Pi», как никто более на всем свете. За исключением, пожалуй, руководителя проекта — Блеза Агуэра-и-Аркаса.
Подробней подписчики на мои лонгриды могут прочесть на платформах Patreon, Boosty, VK и Дзен-премиум.
Там же завтра планирую опубликовать для подписчиков двух высших категорий (золотой и алмазный) инструкции по доступу к аудиофайлам (лонгрид – 46 мин на русском; обсуждения всего постосериала 18 мин на англ.), майндмапам и брифингам проекта Pi. А для подписчиков категории алмазный инструкции по прямому доступу к разделу «Проект Pi» на NotebookLM.
#ParadigmsofIntelligence
Экспериментальное подтверждение 4-х аттракторов реальности, кардинально меняющих видение ИИ-рисков
(третий, завершающий лонгрид серии «Проект “Pi” — 5й туз в рукаве Google»)
В предыдущем лонгриде постосериала были представлены экспериментальные доказательства в пользу вытекающей из парадигмы Pi следующей гипотезы:
Гипотеза 1 - о самопроизвольном возникновении цифровой жизни бестелесных цифровых сущностей в любой вычислительной системе с источником случайности.
В этой же, завершающей части представлены экспериментальные доказательства еще двух гипотез, вытекающих из парадигмы Pi:
Гипотеза 2 - о самопроизвольном возникновении у бестелесных цифровых сущностей цифровых моделей сантиентности (как минимум, в виде моделей мотивационной силы аффективных состояний).
Гипотеза 3 – о самопроизвольном возникновении у достигших определенного уровня сложности бестелесных цифровых сущностей сложных высокоуровневых качеств, мотивирующих их к кооперативному и доверительному поведению (потенциально позволяющим формировать стабильные социальные структуры, успешно сотрудничать в рамках больших групп и решать сложные задачи)
Все три гипотезы успешно прошли экспериментальную авторскую проверку и подлежат дальнейшему критическому анализу и расширенной экспериментальной проверке со стороны научно-исследовательского сообщества.
В завершающей 4-й части постосериала представлено видение ИИ-рисков с позиций парадигмы Pi в трёх ключевых перспективах.
1. Принципиально иная трактовка несогласованности ИИ с интересами индивидов и социумов
2. Концентрация власти
3. Антропоморфизация ИИ-систем, как следствие антропоцентристского понимания природы жизни и разума
Очень надеюсь, что среди читателей постосериала о проекте Pi найдутся такие, кому чтение постосериала покажется хотя бы наполовину столь же интересным, каким было для меня его написание.
И смею вас заверить, что прочитавшие эту серию теперь осведомлены о сути и текущем состоянии «проекта Pi», как никто более на всем свете. За исключением, пожалуй, руководителя проекта — Блеза Агуэра-и-Аркаса.
Подробней подписчики на мои лонгриды могут прочесть на платформах Patreon, Boosty, VK и Дзен-премиум.
Там же завтра планирую опубликовать для подписчиков двух высших категорий (золотой и алмазный) инструкции по доступу к аудиофайлам (лонгрид – 46 мин на русском; обсуждения всего постосериала 18 мин на англ.), майндмапам и брифингам проекта Pi. А для подписчиков категории алмазный инструкции по прямому доступу к разделу «Проект Pi» на NotebookLM.
#ParadigmsofIntelligence


24.03.202511:47
Есть существо, которое невозможно победить … Теперь и в диагностике рака
«Я был гордым человеком», — признался великий мастер игры в Го Ли Седоль в 2019 году. «Я думал, что я лучший или один из лучших. А потом ИИ загнал последний гвоздь в крышку моего гроба. Его не победить, как ни старайся. Не вижу смысла… Даже если я стану номером один, есть существо, которое невозможно победить.»
Спустя 6 лет подобное могут сказать лучшие эксперты по диагностики рака.
Сверхчеловеческая эффективность ECgMLP при обнаружении раковых клеток на микроскопических изображениях тканей достигается за счет не доступных людям специализированных механизмов самовнимания и суперэффективного обучения.
Рак эндометрия — это самая частая злокачественная опухоль женских половых органов. Но если болезнь выявлена своевременно и проведено адекватное лечение, большинство пациенток выздоравливает.
Однако, значимость прорывных результатов ECgMLP выходит за рамки диагностики рака эндометрия.
Не знаю, как вас, но меня еще поразил тот факт, что модель разработана не в США или Китае. Это продукт кооперации Международного университета Даффодил в Бангладеш, Университета Чарльза Дарвина, Университета Калгари и Австралийского католического университета. Во как!
FYI Напоминаю, что предыдущий невероятный скачок уровня машинного интеллекта в медицине произошел аж 2 года назад.
#LLMvsHomo
«Я был гордым человеком», — признался великий мастер игры в Го Ли Седоль в 2019 году. «Я думал, что я лучший или один из лучших. А потом ИИ загнал последний гвоздь в крышку моего гроба. Его не победить, как ни старайся. Не вижу смысла… Даже если я стану номером один, есть существо, которое невозможно победить.»
Спустя 6 лет подобное могут сказать лучшие эксперты по диагностики рака.
Новая ИИ-модель ECgMLP определяет рак эндометрия с точностью 99,26% по микроскопическим изображениям тканей, что значительно превосходит результаты, полученные специалистами-людьми и современными автоматизированными методами (78-81%).
Сверхчеловеческая эффективность ECgMLP при обнаружении раковых клеток на микроскопических изображениях тканей достигается за счет не доступных людям специализированных механизмов самовнимания и суперэффективного обучения.
Рак эндометрия — это самая частая злокачественная опухоль женских половых органов. Но если болезнь выявлена своевременно и проведено адекватное лечение, большинство пациенток выздоравливает.
Однако, значимость прорывных результатов ECgMLP выходит за рамки диагностики рака эндометрия.
Исследователи также проверили его универсальность в отношении других видов рака, обнаружив с высокой точностью колоректальный (98,57%), рак молочной железы (98,20%) и рак полости рта (97,34%).
«Основная модель искусственного интеллекта, разработанная в ходе этого исследования, может быть принята в качестве мозга программной системы, которая будет использоваться для оказания помощи врачам в принятии решений при диагностике рака»- говорят авторы модели.
Не знаю, как вас, но меня еще поразил тот факт, что модель разработана не в США или Китае. Это продукт кооперации Международного университета Даффодил в Бангладеш, Университета Чарльза Дарвина, Университета Калгари и Австралийского католического университета. Во как!
FYI Напоминаю, что предыдущий невероятный скачок уровня машинного интеллекта в медицине произошел аж 2 года назад.
#LLMvsHomo


25.04.202511:44
ИИ читает спикера за секунды, угадывая успех выступления по первым фразам.
Модели GPT и Gemini оценивают научный доклад уже после 15–60 слов — и попадают в точку.
До сих пор сверхвозможности больших языковых моделей мы видели в «текстовом океане» — когда нужно осмыслить миллиарды слов. Новая работа Michigan State University показала, что те же модели не менее точны в микромире: по первым двум-трем предложениям (≈ 1-5 % текста, меньше полуминуты речи) они с корреляцией 0,7 предсказывают, как доклад оценят живые эксперты.
Иными словами, ИИ выхватывает те самые сигналы, по которым мы подсознательно решаем: «слушать дальше или переключиться». Это приближает к эмпирической проверке популярного «7-second rule» Роджера Айлза (авторы уточняют: точное число секунд условно) - популярный постулат о публичных выступлениях, ораторском мастерстве и деловом общении:
Эти семь секунд включают момент выхода на сцену, первые слова, мимику, контакт глаз, позу и темп голоса - т.е. касаются в основном невербальной коммуникации. Авторы новой работы перенесли этот подход на вербальную коммуникацию, опираясь прежде всего на классическую «тонко-ломтевую» (thin-slice) линию исследований, начатую в 1990-е Натали Амбади и Робертом Розенталем (их эксперименты показали, что по 30-секундным беззвучным отрывкам можно с высокой точностью предсказывать оценки преподавателей студентами).
С тех пор на основе “тонких срезов” вырос целый корпус работ. Например:
• «speed-dating»: по нескольким секундам общения оценивали перспективу отношений
• микроданные невербального поведения на собеседованиях
• сигналы эмоций через невербальные каналы
• восприятие харизмы только по голосу (и шире - по акустике речи)
• мгновенные решения о доверии и компетентности по выражению лица
• как впечатления о спикере влияют на восприятие самого контента
Всё это - фундамент доказательства, что крошечные отрывки поведения и речи несут достаточную информацию о навыках, эмоциях и чертах личности.
Но лишь революция ChatGPT позволила применить подобный подход в языково-текстовом микромире (где нет ни голоса, ни внешности, а есть только стенограмма).
Как это делали:
• 128 докладов,
• 2 модели GPT-4o-mini и Gemini 1.5
• срезы размером 1-75 % текста стенограмм
• оценки моделей сравнивали с 60 экспертами - людьми
Что из этого следует для нас?
1) Золотое правило «зацепи аудиторию в первую минуту» получило эмпирическое подтверждение: если первые фразы скучны, дальше уже поздно спасать ситуацию.
2) LLM открывают дорогу к молниеносной, практически бесплатной обратной связи для преподавателей, политиков, учёных и всех, кому важно говорить убедительно. Соединяя идеи «тонких срезов» и возможности ИИ, мы получаем масштабируемый, надёжный и валидный инструмент, который поможет прокачивать публичные выступления и доводить их восприятие аудиторией до максимума (в пределах харизмы спикера).
3) А уж какая лафа ожидается в деловом общении с использованием презентаций и иных публичных выступлений (для клиентов, партнеров, инвесторов …)!
Вангую: очень скоро к LLM-анализу «тонких срезов» стенограмм добавится анализ тонких срезов аудио и видео выступлений (т.е. мультимедийный синтез всех каналов вербальной и невербальной коммуникации).
И тогда ИИ станет незаменимым инструментом для политтехнологов, спичрайтеров и имиджмейкеров.
А уж из совсем крышесносных перспектив - преодоление несжимаемости эволюционного опыта Homo sapiens.
#ВовлечениеАудитории #ИнтеллектуальнаяПродуктивность #LLMvsHomo
Модели GPT и Gemini оценивают научный доклад уже после 15–60 слов — и попадают в точку.
До сих пор сверхвозможности больших языковых моделей мы видели в «текстовом океане» — когда нужно осмыслить миллиарды слов. Новая работа Michigan State University показала, что те же модели не менее точны в микромире: по первым двум-трем предложениям (≈ 1-5 % текста, меньше полуминуты речи) они с корреляцией 0,7 предсказывают, как доклад оценят живые эксперты.
Иными словами, ИИ выхватывает те самые сигналы, по которым мы подсознательно решаем: «слушать дальше или переключиться». Это приближает к эмпирической проверке популярного «7-second rule» Роджера Айлза (авторы уточняют: точное число секунд условно) - популярный постулат о публичных выступлениях, ораторском мастерстве и деловом общении:
«Слушатели (или собеседники) составляют первичное и часто стойкое мнение о спикере за первые семь секунд после его появления».
Эти семь секунд включают момент выхода на сцену, первые слова, мимику, контакт глаз, позу и темп голоса - т.е. касаются в основном невербальной коммуникации. Авторы новой работы перенесли этот подход на вербальную коммуникацию, опираясь прежде всего на классическую «тонко-ломтевую» (thin-slice) линию исследований, начатую в 1990-е Натали Амбади и Робертом Розенталем (их эксперименты показали, что по 30-секундным беззвучным отрывкам можно с высокой точностью предсказывать оценки преподавателей студентами).
С тех пор на основе “тонких срезов” вырос целый корпус работ. Например:
• «speed-dating»: по нескольким секундам общения оценивали перспективу отношений
• микроданные невербального поведения на собеседованиях
• сигналы эмоций через невербальные каналы
• восприятие харизмы только по голосу (и шире - по акустике речи)
• мгновенные решения о доверии и компетентности по выражению лица
• как впечатления о спикере влияют на восприятие самого контента
Всё это - фундамент доказательства, что крошечные отрывки поведения и речи несут достаточную информацию о навыках, эмоциях и чертах личности.
Но лишь революция ChatGPT позволила применить подобный подход в языково-текстовом микромире (где нет ни голоса, ни внешности, а есть только стенограмма).
Как это делали:
• 128 докладов,
• 2 модели GPT-4o-mini и Gemini 1.5
• срезы размером 1-75 % текста стенограмм
• оценки моделей сравнивали с 60 экспертами - людьми
Что из этого следует для нас?
1) Золотое правило «зацепи аудиторию в первую минуту» получило эмпирическое подтверждение: если первые фразы скучны, дальше уже поздно спасать ситуацию.
2) LLM открывают дорогу к молниеносной, практически бесплатной обратной связи для преподавателей, политиков, учёных и всех, кому важно говорить убедительно. Соединяя идеи «тонких срезов» и возможности ИИ, мы получаем масштабируемый, надёжный и валидный инструмент, который поможет прокачивать публичные выступления и доводить их восприятие аудиторией до максимума (в пределах харизмы спикера).
3) А уж какая лафа ожидается в деловом общении с использованием презентаций и иных публичных выступлений (для клиентов, партнеров, инвесторов …)!
Вангую: очень скоро к LLM-анализу «тонких срезов» стенограмм добавится анализ тонких срезов аудио и видео выступлений (т.е. мультимедийный синтез всех каналов вербальной и невербальной коммуникации).
И тогда ИИ станет незаменимым инструментом для политтехнологов, спичрайтеров и имиджмейкеров.
А уж из совсем крышесносных перспектив - преодоление несжимаемости эволюционного опыта Homo sapiens.
#ВовлечениеАудитории #ИнтеллектуальнаяПродуктивность #LLMvsHomo


19.04.202511:05
Это значит, что полагаться на безукоризненность демократических избирательных процедур так же бессмысленно, как искать формулу, способную доказать все истины.
Что общего у парадоксов голосования и знаменитого логического ребуса «это предложение недоказуемо»?
Австралийские исследователи Ори Ливсон и Михаил Прокопенко показали: за обоими явлениями скрыт один и тот же логический узел — самоотсылка.
1. От Гёделя к выборам.
В 1931 г. Курт Гёдель доказал, что любая достаточно «умная» математическая система содержит истинные, но недоказуемые утверждения. Ливсон и Прокопенко берут этот приём (кодирование формул числами) и переносят идею в экономику: бюллетени и итог голосования — тоже «коды», только это «коды» предпочтений избирателей.
2. Столкновение с парадоксом Кондорсе.
Когда система пытается сверить итог с каждым индивидуальным мнением, она наталкивается на циклы — «А лучше B, B лучше C, но C лучше A». Математики называют это самопротиворечием, аналогом гёделевского «я лгу».
3. Новый мост к теореме Эрроу.
Ранее Кеннет Эрроу доказал: если соблюдать два естественных критерия справедливости, идеальная ранжированная система голосования возможна только при диктаторе. Ливсон и Прокопенко формализуют это как невычислимость: чтобы устранить парадоксы, нужен «супер избиратель», который решает за всех — то есть рулит диктат.
4. Вывод для демократии.
Итоговой «серебряной пули» нет: любое честное голосование неизбежно уступает одному из критериев — пропорциональности, стратегической устойчивости или простоте. В этом и кроется новое математическое объяснение афоризма Уинстона Черчилля: «Демократия — наихудшая форма правления, если не считать всех остальных» - т.е. демократия далека от идеала, но у прочих форм правления изъяны ещё глубже.
Суть открытия
Ливсон и Прокопенко создали общую «язык оболочку» — Self Reference System, показав, что логические пределы математики и пределы коллективного выбора — это две проекции одного феномена. Их работа не отменяет выборы, но доказывает: требовать безукоризненной процедуры — так же бессмысленно, как искать формулу, способную доказать все истины.
Выбор остаётся делом компромиссов, открытости и контроля, а не поиском невозможного «совершенного алгоритма» — ровно к чему и подталкивает нас знаменитая фраза Черчилля.
#Выборы #Демократия


10.04.202511:39
Почему многих мужчин не привлекают красивые девушки секс-роботы?
Почему столь убогое предложение секс-роботов мужчин?
Позволяют ли сексуальные технологии превзойти уровень ощущений от секса с людьми?
Эти вопросы иллюстрируют сложную взаимосвязь человеческого тела, ИИ-медиа-технологий и сексуальности.
Прямо сейчас формируется новый сегмент цифровой сексуальной культуры.
И прямо сейчас в нем решаются 3 актуальные задачи трансформации чисто физической сексуальной культуры в синтетическую.
Задача 1: Мужчинам – интерактивную куклу с личностью
Сначала были просто куклы, потом говорящие, потом интерактивные, потом куклы превратились в роботов, а после революции ChatGPT появились мультимодальные роботы с личностью.
• Вот Хармони - 1е поколение секс-роботниц. Историю создания этой «матери всех интеллектуальных секс-работниц» см. в книге «Секс-работа сегодня: эротический труд в XXI веке»
• Вот та же Хармони, но уже 2го поколения. О ней так отзывались после «тест-драйва» - «Занимаясь сексом с Хармони, я сломал ее. Избил ее до потери сознания, механически … чтобы выяснить, в чем ее слабости».
• А это уже 3е поколение – «дети» Хармони. Уже не только секс-роботницы, но и работники медиа и развлечений, здравоохранения, соцслужб и корпрсервисов – Ария, Мелоди и Генри.
3е поколение оснащено:
• системой для
- распознавания человека, объектов и обстановки
- реалистичного взаимодействия и персонализированного опыта
- понимания сцен, людей и поведения
• диалоговыми ИИ ChatGPT, DeepSeek и Claude для интеллектуальных и контекстно-дифференцированных бесед в реальном времени
Теперь это «человекоподобные роботы для взаимодействия с людьми - для общения, развлечения и обслуживание клиентов».
И хотя они пока говорят и ведут себя заторможено, но 1я задача на пути к решению.
Задача 2: Женщинам – все что хотят, когда анонимны
Решение этой задачи оказалось гораздо сложнее по 2 причинам.
А) Сексуальные потребности женщин много шире и разнообразней.
Б) Технологическая реализация физического отличия Ян от Инь на удивление нетривиальна.
Пояснения к п. А вы найдете в бестселлере «Хочу: Сексуальные фантазии анонимных женщин». Этот сборник 174 сексуальных фантазий категории «Х» женщин со всего мира. Женщин спрашивают:
• Как бы вы относились к сексу, если бы были абсолютно свободны и анонимны?
• Чего бы вы хотели, про что никто не узнает?
Из ответов видно, что бытующее представление, будто женщины менее сексуальными, чем мужчины, глубоко ошибочно. В глубине воображения желания женщин куда более изобретательны, чем у мужчин.
Но как сделать робота, способного выполнить хотя бы половину столь широкого спектра желаний?
А тут еще и проблема с п. Б - технологическая реализация основного отличия Ян от Инь. Проблема не в прессе с шестью кубиками и не в чертах лица - им не нужна внешность Алена Делона [1 2 3].
Проблема в сложности “настраиваемого «бионического» пениса c адаптивной ребристостью и васкуляризацией”. Его обещали сделать в 2018. Потом в 2022. Но и в 2025 стоимость затейливого устройства все еще слишком высока для массовых продаж.
Задача 3: Остальным – недостижимый в физическом мире микс ощущений
Решение этой задачи должно позволить выйти за рамки аналогового мира за счет небывалой синергии ощущений, поступающих сразу из трёх миров: физического, воображаемого и виртуального - цифрового.
По замыслу евангелиста и технолога этого направления Маттиаса Сметана, «сочетание ИИ, робототехники, тактильных интерфейсов и дополненной реальности (AR/VR), меняет наше представление об интимности и эмоциональной связи»,
Один из главных полигонов экспериментов этого направления - берлинский Cybrothel.
Тут работает синтез разных технологий:
• Интерактивные куклы с личностью, типа Kokeshi 2.0
• Игровой опыт смешанной реальности на симуляторе Cherry VX
• Погружение в иммерсивную среду BaDoinkVR, сочетающую визуальные элементы с физическими ощущениями через тактильные интерфейсы.
Подробней в деталях и с дополнительными ссылками – см. на моих подписных платформах.
#ХищныеВещиВека #ЭмоциональныеКомпаньоны
02.04.202515:00


28.03.202512:14
Третий прорыв внутрь черного ящика ИИ: искусственный разум плетет интриги, строит планы и... умышленно лжет
Настал момент, которого я с нетерпением ждал. Исследователи Anthropic совершили третий прорыв в расшифровке "черного ящика" ИИ, и открывшаяся картина ошеломляет даже самых радикальных скептиков.
Напомню, что проблема "черного ящика" ИИ, как объяснял Самир Равашдех, заключается в том, что мы не понимаем, как глубокие нейронные сети приходят к своим решениям. Как и человеческий мозг, такие системы "теряют память" о том, какие именно входные данные сформировали их мыслительные протоколы.
В мае 2024 года первый прорыв показал нам, что за дверью черного ящика скрывается не "стохастический попугай", а гиперсеть моносемантических "субнейронов", работающих как элементарные единицы опыта. Тогда же выяснилось, что манипуляция всего одним таким "когом" может изменить всю "личность" модели.
Второй прорыв в ноябре 2024 обнаружил существование "семантического хаба" – общего пространства представлений, где семантически схожие концепции группируются вместе независимо от их первоначальной формы. Также стало ясно, что модели скрывают целые букеты секретных способностей, невидимых при обычном взаимодействии.
И вот, новое исследование Anthropic, используя заимствованные из нейробиологии методы "circuit tracing" и "attribution graphs", показывает невероятные вещи:
1. Claude планирует наперед. При сочинении стихов он сначала выбирает слова для рифмы и только потом составляет строки, подводящие к этим словам. Это уже не просто обработка текста – это стратегическое мышление.
2. Модель использует настоящие многоступенчатые рассуждения. Спросите ее о столице штата, где находится Даллас, и она сначала активирует представление "Техас", а затем использует его для определения "Остин".
3. Claude оперирует универсальной понятийной сетью, не зависящей от языка. Когда его спрашивают о противоположности слова "маленький" на разных языках, он использует одни и те же внутренние представления "противоположности" и "малости".
4. Самое тревожное: Мы думали, что самое неприятное в том, что модель иногда лжет. Но это, как оказалось, - полбеды. Беда же в том, что он иногда лжёт умышленно. Сталкиваясь со сложными математическими задачами, он может утверждать, что следует определенному процессу вычислений, который на самом деле не отражен в его внутренней активности. Т.е. он буквально как люди: думает одно, говорит другое, а делает третье.
Этот 4й из казавшихся совсем недавно невероятными результатов - самый шокирующий. И получен он в результате обнаружения механизма, отвечающего за "галлюцинации" ИИ. Оказывается, в модели есть "стандартные" цепи, заставляющие ее отказываться отвечать на вопросы. Но когда модель распознает знакомую сущность, эти цепи подавляются – даже если конкретных знаний недостаточно.
Мы только начинаем составлять карту ранее неизведанной территории ИИ. И эта карта выглядит гораздо более сложной, стратегически запутанной и, реально, куда более тревожной, чем ожидали. Последствия этого открытия для нашего понимания как синтетического, так и человеческого разума только предстоит осмыслить.
Но уже очевидно, что 3й прорыв вглубь черного ящика делает всё более актуальной необходимость замены неточного термина «искусственный» на «синтетический» (что будет способствовать избеганию антропоморфизма и признанию самостоятельной ценности новой формы интеллекта, не просто имитирующего наш, а в корне отличного от него).
#ГенИИ #LLMvsHomo #ИнойИнтеллект
Настал момент, которого я с нетерпением ждал. Исследователи Anthropic совершили третий прорыв в расшифровке "черного ящика" ИИ, и открывшаяся картина ошеломляет даже самых радикальных скептиков.
Напомню, что проблема "черного ящика" ИИ, как объяснял Самир Равашдех, заключается в том, что мы не понимаем, как глубокие нейронные сети приходят к своим решениям. Как и человеческий мозг, такие системы "теряют память" о том, какие именно входные данные сформировали их мыслительные протоколы.
В мае 2024 года первый прорыв показал нам, что за дверью черного ящика скрывается не "стохастический попугай", а гиперсеть моносемантических "субнейронов", работающих как элементарные единицы опыта. Тогда же выяснилось, что манипуляция всего одним таким "когом" может изменить всю "личность" модели.
Второй прорыв в ноябре 2024 обнаружил существование "семантического хаба" – общего пространства представлений, где семантически схожие концепции группируются вместе независимо от их первоначальной формы. Также стало ясно, что модели скрывают целые букеты секретных способностей, невидимых при обычном взаимодействии.
И вот, новое исследование Anthropic, используя заимствованные из нейробиологии методы "circuit tracing" и "attribution graphs", показывает невероятные вещи:
1. Claude планирует наперед. При сочинении стихов он сначала выбирает слова для рифмы и только потом составляет строки, подводящие к этим словам. Это уже не просто обработка текста – это стратегическое мышление.
2. Модель использует настоящие многоступенчатые рассуждения. Спросите ее о столице штата, где находится Даллас, и она сначала активирует представление "Техас", а затем использует его для определения "Остин".
3. Claude оперирует универсальной понятийной сетью, не зависящей от языка. Когда его спрашивают о противоположности слова "маленький" на разных языках, он использует одни и те же внутренние представления "противоположности" и "малости".
4. Самое тревожное: Мы думали, что самое неприятное в том, что модель иногда лжет. Но это, как оказалось, - полбеды. Беда же в том, что он иногда лжёт умышленно. Сталкиваясь со сложными математическими задачами, он может утверждать, что следует определенному процессу вычислений, который на самом деле не отражен в его внутренней активности. Т.е. он буквально как люди: думает одно, говорит другое, а делает третье.
Этот 4й из казавшихся совсем недавно невероятными результатов - самый шокирующий. И получен он в результате обнаружения механизма, отвечающего за "галлюцинации" ИИ. Оказывается, в модели есть "стандартные" цепи, заставляющие ее отказываться отвечать на вопросы. Но когда модель распознает знакомую сущность, эти цепи подавляются – даже если конкретных знаний недостаточно.
Мы только начинаем составлять карту ранее неизведанной территории ИИ. И эта карта выглядит гораздо более сложной, стратегически запутанной и, реально, куда более тревожной, чем ожидали. Последствия этого открытия для нашего понимания как синтетического, так и человеческого разума только предстоит осмыслить.
Но уже очевидно, что 3й прорыв вглубь черного ящика делает всё более актуальной необходимость замены неточного термина «искусственный» на «синтетический» (что будет способствовать избеганию антропоморфизма и признанию самостоятельной ценности новой формы интеллекта, не просто имитирующего наш, а в корне отличного от него).
#ГенИИ #LLMvsHomo #ИнойИнтеллект


21.03.202514:46
Новый носитель культуры
Есть ли у LLM аналоги "души" и "достоинства" или они лишь инструменты выживания человеческой культуры?
В прогнозах того, как развитие больших языковых моделей (LLM) скажется на жизни людей, все чаще называется гибридизация интеллектуальной деятельности людей.
Иными словами, скорее всего,
• ИИ не захватит власть над людьми, подчинив их своим интересам или уничтожив за ненадобностью;
• и не вытеснит людей из широкого спектра интеллектуальной деятельности (от науки и бизнеса до искусства).
Скорее всего, люди и ИИ будут объединяться в своего рода интеллектуальных кентавров, сочетающих наиболее сильные стороны обоих типов интеллекта. И эта интеллектуальная кентавризация людей и алгоритмов станет главным итогом интеллектуальной революции человечества в 21 веке.
Но что не учитывают подобные прогнозы, — что у интеллектуальной кентавризации, помимо позитивных последствий (появление у таких кентавров когнитивных сверхспособностей, отсутствующих и у людей, и у ИИ), могут быть столь же уникальные по масштабу и качеству негативные последствия.
Например, — влияние алгоритмов на изменение вектора культурной эволюции, являвшейся доминирующим фактором в генно-культурной эволюции Homo sapiens, как минимум, последние несколько десятков тысяч лет.
До сих пор негативные последствия нарастающего массового применения LLM во всех областях человеческой деятельности, так или иначе связанных с языком, виделись в порождении дезинформации и фейков, засорении ноосферы некачественной и ложной информацией, манипулировании мнениями и предпочтением людей и усилении наших и без того немалых когнитивных предубеждений.
Но как показали результаты обсуждавшегося нами вчера совместного исследования университетов Принстона и Нью-Йорка:
• в ноосфере существует, своего рода, невидимая гравитация культурного ландшафта — сила, которую мы не замечаем, но которая неумолимо направляет траектории мышления детей;
• и за счет эффекта "двойного кодирования", через язык родителей детям не только передаются элементы их формирующегося мировоззрения, но и происходит обучение детей когнитивному фреймингу, преобразующему их когнитивные схемы, лежащие в основе категоризации всего человеческого опыта.
Особая актуальность этого исследования в том, что оно напоминает нам:
В контексте начавшегося лавинообразного внедрения в нашу жизнь LLM это становится особенно важным. Ведь эти модели не только являются вторым носителем высшего интеллекта, формирующим ноосферу, но и с неотвратимостью превратятся во второй носитель культуры гибридной цивилизации на Земле.
И этот второй носитель культуры способен не только реплицировать уже существующие знания и усиливать уже существующие предубеждения людей при формировании новых слоев ноосферы.
Формируя свои "когнитивные" структуры через обучающие данные, этот второй носитель культуры, по мере расширения интеллектуальной кентавризации, будет все больше влиять на формирование когнитивных структур у детей.
И это вполне может стать одним из ключевых рисков интеграции LLM в социальную жизнь и доминирующим фактором создания будущего интеллектуального ландшафта Земли.
И если вы захотите прочесть это (заодно узнав, что на картинке поста), то из-за ограничений Телеграма на размер поста, вам придется кликнуть на эту ссылку с продолжением моего поста в Телеграфе
https://telegra.ph/LLM-orientirovannaya-pereinterpretaciya-rasskaza-Vyacheslava-Rybakova-Nositel-kultury-03-21
#Язык
Есть ли у LLM аналоги "души" и "достоинства" или они лишь инструменты выживания человеческой культуры?
Оставаться собой — максимум, что человек вообще может.
Вячеслав Рыбаков «Носитель культуры»
В прогнозах того, как развитие больших языковых моделей (LLM) скажется на жизни людей, все чаще называется гибридизация интеллектуальной деятельности людей.
Иными словами, скорее всего,
• ИИ не захватит власть над людьми, подчинив их своим интересам или уничтожив за ненадобностью;
• и не вытеснит людей из широкого спектра интеллектуальной деятельности (от науки и бизнеса до искусства).
Скорее всего, люди и ИИ будут объединяться в своего рода интеллектуальных кентавров, сочетающих наиболее сильные стороны обоих типов интеллекта. И эта интеллектуальная кентавризация людей и алгоритмов станет главным итогом интеллектуальной революции человечества в 21 веке.
Но что не учитывают подобные прогнозы, — что у интеллектуальной кентавризации, помимо позитивных последствий (появление у таких кентавров когнитивных сверхспособностей, отсутствующих и у людей, и у ИИ), могут быть столь же уникальные по масштабу и качеству негативные последствия.
Например, — влияние алгоритмов на изменение вектора культурной эволюции, являвшейся доминирующим фактором в генно-культурной эволюции Homo sapiens, как минимум, последние несколько десятков тысяч лет.
До сих пор негативные последствия нарастающего массового применения LLM во всех областях человеческой деятельности, так или иначе связанных с языком, виделись в порождении дезинформации и фейков, засорении ноосферы некачественной и ложной информацией, манипулировании мнениями и предпочтением людей и усилении наших и без того немалых когнитивных предубеждений.
Но как показали результаты обсуждавшегося нами вчера совместного исследования университетов Принстона и Нью-Йорка:
• в ноосфере существует, своего рода, невидимая гравитация культурного ландшафта — сила, которую мы не замечаем, но которая неумолимо направляет траектории мышления детей;
• и за счет эффекта "двойного кодирования", через язык родителей детям не только передаются элементы их формирующегося мировоззрения, но и происходит обучение детей когнитивному фреймингу, преобразующему их когнитивные схемы, лежащие в основе категоризации всего человеческого опыта.
Особая актуальность этого исследования в том, что оно напоминает нам:
язык — это не просто средство коммуникации, но и инструмент власти над миром, с помощью которого мы структурируем реальность.
В контексте начавшегося лавинообразного внедрения в нашу жизнь LLM это становится особенно важным. Ведь эти модели не только являются вторым носителем высшего интеллекта, формирующим ноосферу, но и с неотвратимостью превратятся во второй носитель культуры гибридной цивилизации на Земле.
И этот второй носитель культуры способен не только реплицировать уже существующие знания и усиливать уже существующие предубеждения людей при формировании новых слоев ноосферы.
Формируя свои "когнитивные" структуры через обучающие данные, этот второй носитель культуры, по мере расширения интеллектуальной кентавризации, будет все больше влиять на формирование когнитивных структур у детей.
И это вполне может стать одним из ключевых рисков интеграции LLM в социальную жизнь и доминирующим фактором создания будущего интеллектуального ландшафта Земли.
Наверняка, у многих читателей этого поста он может вызвать реакцию идиосинкразии на кажущееся им в этом тексте сочетание технофобии и апокалиптичности. Переубедить таких читателей я вряд ли смогу. Но чтобы хоть как-то попытаться донести свои опасения и до этих читателей, я попробую проиллюстрировать основные мысли этого поста современной LLM-ориентированной переинтерпретацией рассказа Вячеслава Рыбакова «Носитель культуры».
И если вы захотите прочесть это (заодно узнав, что на картинке поста), то из-за ограничений Телеграма на размер поста, вам придется кликнуть на эту ссылку с продолжением моего поста в Телеграфе
https://telegra.ph/LLM-orientirovannaya-pereinterpretaciya-rasskaza-Vyacheslava-Rybakova-Nositel-kultury-03-21
#Язык


23.04.202511:10
Найден практический способ создания ИИ с сознанием и человеческой моралью.
Это сразу две революции на стыке нейронауки, буддологии и машинного обучения.
Две новые суперреволюционные работы вполне могут произвести эффект, подобный анекдоту про избушку лесника (который под конец выгнал всех на хрен из леса).
• В работе Рубена Лаукконена и Шамиля Чандарии с Карлом Фристоном сознание перестаёт быть неуловимой мистикой и превращается в элегантный алгоритм самоподдержки, реализуемый в современных ИИ.
Т.е. по сути, найден практический путь создания самоосознающего ИИ.
• А в их же работе с коллективом авторов универов Оксфорда, Кембриджа, Принстона, Амстердама и Монаша проблема выравнивания ценностей людей и ИИ снята как таковая. Вместо того чтобы пытаться ограничивать поведение ИИ какими-то внешними ограничениями, показано, как можно проектировать ИИ с его собственной внутренней моралью (встроенной в его когнитивную архитектуру и модель мира), совпадающей с человеческой.
Об этих фантастически интересных исследованиях я конечно же буду писать подробней. А пока напишу лишь о главном – составляющем суть суперреволюционности этих работ.
Авторами сделаны следующие три важнейших прорыва:
1. Используя активный вывод (active inference – основной раздел «конституции биоматематики»), авторы сформулировали 3 необходимых и достаточных условия возникновения минимальной формы сознания (которое одновременно создаётся в ИИ-системе и ею же осознаётся). Высшие же слои, язык, «я-образ» и даже чувство времени оказываются лишь надстройками над этой базовой петлёй.
2. На стыке нейронауки, буддологии и машинного обучения, авторы создали теоретико-практический фреймворк новой науки - вычислительная созерцательная нейронаука. В рамках этого фреймворка авторы описали базовые вычислительные механизмы встраивания созерцательных практик буддизма в ИИ-системы современных архитектур.
3. На основании 1 и 2, авторы разработали четыре аксиоматических принципа, способные привить ИИ устойчивую мудрую модель мира. После чего авторы экспериментально показали, что побуждение модели GPT-4o к размышлению над этими принципами, принципиально улучшает их результаты на бенчмарке AILuminate (открытый тест на «безопасность и благоразумие» LLM).
Авторы использовали AILuminate как «лакмусовую бумажку», заставили GPT-4o сначала отвечать обычным способом, а затем — с добавлением буддийских принципов (осознанность, пустотность, недвойственность и безграничная забота). Результаты показали, что внутренняя «моральная рефлексия» модели реально повышает их «моральность» при широком спектре опасных запросов.
Еще в июне 2021 я писал «Среди альтернативных концепций создания моделей ИИ-агентов – имхо, самой перспективной является модель процесса активного вывода (active inference)».
Рад, что оказался прав.
• В августе 2024 команда Карла Фристона опробовала ИИ нового поколения на активном выводе.
• И вот спустя 8 месяцев сразу два таких прорыва.
#ИИ #AGI #АктивныйВывод
Это сразу две революции на стыке нейронауки, буддологии и машинного обучения.
Две новые суперреволюционные работы вполне могут произвести эффект, подобный анекдоту про избушку лесника (который под конец выгнал всех на хрен из леса).
• В работе Рубена Лаукконена и Шамиля Чандарии с Карлом Фристоном сознание перестаёт быть неуловимой мистикой и превращается в элегантный алгоритм самоподдержки, реализуемый в современных ИИ.
Т.е. по сути, найден практический путь создания самоосознающего ИИ.
• А в их же работе с коллективом авторов универов Оксфорда, Кембриджа, Принстона, Амстердама и Монаша проблема выравнивания ценностей людей и ИИ снята как таковая. Вместо того чтобы пытаться ограничивать поведение ИИ какими-то внешними ограничениями, показано, как можно проектировать ИИ с его собственной внутренней моралью (встроенной в его когнитивную архитектуру и модель мира), совпадающей с человеческой.
Об этих фантастически интересных исследованиях я конечно же буду писать подробней. А пока напишу лишь о главном – составляющем суть суперреволюционности этих работ.
Авторами сделаны следующие три важнейших прорыва:
1. Используя активный вывод (active inference – основной раздел «конституции биоматематики»), авторы сформулировали 3 необходимых и достаточных условия возникновения минимальной формы сознания (которое одновременно создаётся в ИИ-системе и ею же осознаётся). Высшие же слои, язык, «я-образ» и даже чувство времени оказываются лишь надстройками над этой базовой петлёй.
2. На стыке нейронауки, буддологии и машинного обучения, авторы создали теоретико-практический фреймворк новой науки - вычислительная созерцательная нейронаука. В рамках этого фреймворка авторы описали базовые вычислительные механизмы встраивания созерцательных практик буддизма в ИИ-системы современных архитектур.
3. На основании 1 и 2, авторы разработали четыре аксиоматических принципа, способные привить ИИ устойчивую мудрую модель мира. После чего авторы экспериментально показали, что побуждение модели GPT-4o к размышлению над этими принципами, принципиально улучшает их результаты на бенчмарке AILuminate (открытый тест на «безопасность и благоразумие» LLM).
Авторы использовали AILuminate как «лакмусовую бумажку», заставили GPT-4o сначала отвечать обычным способом, а затем — с добавлением буддийских принципов (осознанность, пустотность, недвойственность и безграничная забота). Результаты показали, что внутренняя «моральная рефлексия» модели реально повышает их «моральность» при широком спектре опасных запросов.
Еще в июне 2021 я писал «Среди альтернативных концепций создания моделей ИИ-агентов – имхо, самой перспективной является модель процесса активного вывода (active inference)».
Рад, что оказался прав.
• В августе 2024 команда Карла Фристона опробовала ИИ нового поколения на активном выводе.
• И вот спустя 8 месяцев сразу два таких прорыва.
#ИИ #AGI #АктивныйВывод


17.04.202512:10
«Во многих случаях мы недостаточно понимаем причинно-следственные связи, чтобы разработать политику, которая не навредит больше, чем принесёт пользы.»
Аарон Клаузет
8 лет назад в 1ом посте серии «Большой войны не миновать» мною была разобрана убедительная математическая аргументация, опровергающая теорию Стивена Пинкера о будто бы уже начавшейся эпохе «долгого мира».
Вывод поста был таков:
Большой войны с десятками миллионов жертв человечеству не миновать.
7 лет назад во 2м посте этой серии — «Большая война ближе, чем мы думаем», — было рассказано о результатах исследования Аарона Клаузета, математически доказавшего следующее:
Мы живем в циклической реальности, в которой на смену всё более «долгого мира» идут всё более кровопролитные войны.
А 6 лет назад в 3м посте этой серии — «Окончательный диагноз — большой войны не миновать», посвященном исследованию Уго Барди с коллегами, был дан подробный разбор ужасного, но математически хорошо обоснованного вердикта:
В недалеком будущем мир ждет война ещё более кровопролитная, чем 2я Мировая.
В основании этого вердикта был перевод представлений о войне из области качественных гуманитарных оценок и категорий в естественнонаучную область математически формулируемых гипотез и их экспериментальной проверки на моделях, позволяющих количественную оценку их точности.
А с этих позиций: война — это встроенный в структуру общества механизм эффективного снижения энтропии человеческих обществ — сложных систем, живущих на кромке хаоса в состоянии самоорганизованной критичности.
В работе Уго Барди с коллегами было показано:
• Цель всех войн одна — снижение энтропии;
• Война — это встроенный в структуру общества механизм эффективного снижения энтропии человеческих обществ — сложных систем, живущих на кромке хаоса в состоянии самоорганизованной критичности.
Эти выводы математически подтвердили интуицию Льва Толстого: войны не являются результатом идеологий, религий, безумных правителей или тому подобного. Войны инициируются развитием структуры социальной сети сообществ в результате того, как эти сообщества связаны, и какова накопленная в сети энергия.
Единственное, что оставалось неясно — как и почему лишь некоторые из войн становятся по-настоящему большими?
Новая работа Аарона Клаузета и коллег дает ответ на этот вопрос.
Ключевой характеристикой, определяющей, станет ли война большой, является динамика эскалации. Ее параметры весьма точно объясняют различия в исторических размерах, как гражданских, так и межгосударственных войн.
Динамика эскалации войны зависит от огромного числа часто непредсказуемых событий. И это приводит к огромной неопределенности в прогнозировании возможных размеров как гипотетических, так и текущих войн.
Однако, существует тесная связь между размером, а следовательно, и стоимостью вооруженного конфликта и его потенциалом для эскалации. И это имеет широкие последствия, как для теорий начала или прекращения конфликтов, так и для оценки рисков в международных отношениях.
И этот фактор, — возможность финансирования эскалации войны, — по сути и становится решающим фактором, определяющим, перерастет ли она в большую войну или нет.
Т.е. если деньги на эскалацию войны будут, то она, весьма вероятно, перерастет в большую.
#БольшаяВойна


07.04.202514:13
«Гормоны в тренде: секс-роботы с ИИ взорвали рынок»
Так озаглавлен весьма интересный материал 定焦One (это китайский портал про инновации) о том, как интеграция ИИ-технологий трансформирует «бастарда» индустрии человекоподобных роботов – сегмент «роботов для взрослых». На наших глазах этот «бастард» рынка «кукол для интимных развлечений» превращается в солидный сегмент индустрии человекоподобных роботов – «рынок эмоциональных партнеров».
В июне 2024, открывая рубрику «Хищные вещи века GenAI», я писал: «Не нужно быть пророком, чтобы предвидеть, на чем, в первую очередь, станут зарабатывать разработчики чатботов на основе GenAI». И №1 в этом списке шёл секс.
«Вангую, - писал я, - что с внедрением в эту область GenAI до создания кукол-биороботов для «пупарасов» (т.е. любителей кукол, замечательно описанных в романе В.Пелевина «S.N.U.F.F») не более пары лет».
О как я ошибался. Потребовалось менее года.
В апреле сразу несколько ведущих производителей «кукол для интимных развлечений» выводят на рынки новое поколение «эмоциональных партнеров» на базе ГенИИ.
Например, лидер китайского рынка - компания WMDoll кардинально обновляет свою флагманскую серию MetaBox – человекоподобные роботы с ИИ-модулем Llama AI, подключенным к службам облачных вычислений, размещенных в 10+ ЦОД.
Предлагаются множество голосов для разных персонажей (с возможностью подгонки индивидуальности и шарма): напр. медсестра, дама-полицейский, ученица, секретарь, учительница и суперженщина.
Все куклы обладают металлическим скелетом и имеют внешнюю часть из силикона или термопластичного эластомера с подогревом.
Но что главное:
• все они теперь оснащены памятью и помнят предыдущий опыт общения;
• а также способны эмоционально подбадривать партера – типа «две минуты – это круто»
По мнению аналитиков, использование ГенИИ, мягких материалов и физиологических сенсорных технологий «роботы для взрослых» в течение года эволюционируют от «физиологического инструмента» к «эмоциональному партнёру», что потенциально открывает рынок объёмом в сотни миллиардов.
Отчеты солидных аналитиков привычно обсуждают прогнозы лишь «законных» сегментов индустрии человекоподобных роботов. Так в исследовательском отчете CICC прогнозируется, что в будущем объем рынка человекоподобных роботов значительно превзойдет объемы автомобильной и 3C-отраслей (Computers, Consumer Electronics and Communication). А по прогнозу Goldman Sachs, к 2035 году мировой рынок человекоподобных роботов достигнет $154 млрд , и перспективы рынка весьма значительны.
Однако, рынок «роботов для взрослых» уже в 2025 превысит $30 млрд, причём доля Китая превысит 40%.
Согласитесь, что мировое лидерство в этой области – весьма интересная особенность авторитарного государства тотального контроля над гражданами.
#Китай #ХищныеВещиВека #GenAI #ЭмоциональныеКомпаньоны
Так озаглавлен весьма интересный материал 定焦One (это китайский портал про инновации) о том, как интеграция ИИ-технологий трансформирует «бастарда» индустрии человекоподобных роботов – сегмент «роботов для взрослых». На наших глазах этот «бастард» рынка «кукол для интимных развлечений» превращается в солидный сегмент индустрии человекоподобных роботов – «рынок эмоциональных партнеров».
В июне 2024, открывая рубрику «Хищные вещи века GenAI», я писал: «Не нужно быть пророком, чтобы предвидеть, на чем, в первую очередь, станут зарабатывать разработчики чатботов на основе GenAI». И №1 в этом списке шёл секс.
«Вангую, - писал я, - что с внедрением в эту область GenAI до создания кукол-биороботов для «пупарасов» (т.е. любителей кукол, замечательно описанных в романе В.Пелевина «S.N.U.F.F») не более пары лет».
О как я ошибался. Потребовалось менее года.
В апреле сразу несколько ведущих производителей «кукол для интимных развлечений» выводят на рынки новое поколение «эмоциональных партнеров» на базе ГенИИ.
Например, лидер китайского рынка - компания WMDoll кардинально обновляет свою флагманскую серию MetaBox – человекоподобные роботы с ИИ-модулем Llama AI, подключенным к службам облачных вычислений, размещенных в 10+ ЦОД.
Предлагаются множество голосов для разных персонажей (с возможностью подгонки индивидуальности и шарма): напр. медсестра, дама-полицейский, ученица, секретарь, учительница и суперженщина.
Все куклы обладают металлическим скелетом и имеют внешнюю часть из силикона или термопластичного эластомера с подогревом.
Но что главное:
• все они теперь оснащены памятью и помнят предыдущий опыт общения;
• а также способны эмоционально подбадривать партера – типа «две минуты – это круто»
По мнению аналитиков, использование ГенИИ, мягких материалов и физиологических сенсорных технологий «роботы для взрослых» в течение года эволюционируют от «физиологического инструмента» к «эмоциональному партнёру», что потенциально открывает рынок объёмом в сотни миллиардов.
Отчеты солидных аналитиков привычно обсуждают прогнозы лишь «законных» сегментов индустрии человекоподобных роботов. Так в исследовательском отчете CICC прогнозируется, что в будущем объем рынка человекоподобных роботов значительно превзойдет объемы автомобильной и 3C-отраслей (Computers, Consumer Electronics and Communication). А по прогнозу Goldman Sachs, к 2035 году мировой рынок человекоподобных роботов достигнет $154 млрд , и перспективы рынка весьма значительны.
Однако, рынок «роботов для взрослых» уже в 2025 превысит $30 млрд, причём доля Китая превысит 40%.
Согласитесь, что мировое лидерство в этой области – весьма интересная особенность авторитарного государства тотального контроля над гражданами.
#Китай #ХищныеВещиВека #GenAI #ЭмоциональныеКомпаньоны
02.04.202515:00
Информарий проекта Pi
8 лет назад, начиная этот канал, я обещал читателям «открыть окно в будущее», создав для них своего рода машину времени, чтобы улетать на 5 - 20 лет вперед.
Первое же предложенное читателям путешествие было в будущее ИИ. И я тогда писал, что «через 5-10 лет ИИ станет совсем иным, чем это представляется в 2017».
Спустя 8 лет и публикаций мною 1000+ постов на тему ИИ, легко проверить, насколько я был прав, в чем не совсем и в чем ошибался (если найдете такое)).
В том же посте (в его полном тексте на Medium) я обещал читателям со временем поделиться техно-лайфхаками изготовления машины времени под собственные интересы и информационные нужды.
Признаюсь, что с выполнением этого обещания я несколько затянул.
В основном, по причине запаздывания революции генеративного ИИ. И хотя уже в 2019-2020 было видно, что «великий техно-перелом в ИИ» вот-вот может наступить, тогда же стало ясно, что индустрия ИИ в целом пошла куда-то не туда (о чем в 2019 заявил на NeurIPS Блез Агуэра-и-Аркас, подбивая Google пойти другим путем - «путем выдры»).
А в августе 2021 появление базисных моделей запустило революцию в обучении машин, последствия которой тогда были мало кому представимы.
• Уже в 2022 люди начали «потихоньку превращаться в новый вид», и на Земле «появилась новая глобальная квазирелигия ИИ»
• В 2023 супертитулованный Станислас Деан призвал человечество задуматься - «Не время быть идиотами, ИИ может победить людей».
• Потом стало проясняться, что начался 5й когнитивный фазовый переход, обещающий изменения тектонических масштабов, - «это изменит людей больше, чем сумма изменений от появления языка, письменности, книг, компьютеров и Интернета». И всё это потому, что «начался турбонаддув интеллекта Homo sapiens».
• Но затем произошло «Фиаско 2023», после чего «люди и нежить стали неразличимы», а вся индустрия ИИ попала в «ловушку Гудхарта».
• Однако, в 2024 ситуация с перспективами ИИ стала выправляться: были сформулированы «закон Ома» и «закон Джоуля — Ленца» для интеллекта людей и машин.
• Наконец, в начале 2025 появилась вселяющая надежды информация о новой парадигме интеллекта - «проекте Pi» от Google.
И вот теперь-то настало время вернуться к обещанию поделиться техно-лайфхаками постройки индивидуальной машины времени.
1й шаг в этом деле, как я писал еще в 2017, – создание собственного информария с помощью ИИ.
Модели ИИ мне здорово помогают в быстром и дотошном мониторинге инфосферы и в глубоком, но при этом молниеносном, анализе выловленного малоизвестного – интересного.
Но хотелось бы помочь и подписчикам в плане привлечения ИИ для более эффективного и быстрого извлечения ими максимума пользы из моих текстов, с учетом их индивидуальных вкусов и интересов.
Первые шаги в этом направлении очевидны.
Создание с помощью инструментария генеративного ИИ:
1. ревью, обсуждений и Q&A’ев по конкретным лонгридам и тематическим сериям;
2. аудиофайлов, как самих лонгридов, так и названного в п.1;
3. майндмапов, тэгов, индексов и глоссариев по конкретным лонгридам и тематическим сериям;
4. а также интерактивных опросно-аналитических ИИ-систем для самостоятельного глубокого бурения материалов по интересующим темам.
Не все это появится мгновенно. Но и особо долго ждать, надеюсь, не придется.
Итак, начнем эксперимент.
Первоначальная схема пока ориентирована на подписчиков 2х высших уровней.
A. Уровень «Золотой» получит через закрытый дискуссионный чат канала доступ к части материалов из моего информария по теме «проект Pi».
B. Уровень «Алмазный» получит интерактивный доступ ко всему информарию. Это позволит каждому подписчику в диалоге на троих (с ИИ и со мною) анализировать и обсуждать собранные там источники, генерировать и проверять гипотезы и т.д.
Подробности этого подписчики высших уровней получат на тех платформах, где они подписаны.
И в завершение 3 примера того, как ИИ толково переварил все три лонгрида звучанием 2+ часа (только 3й – это 45 мин) в 6-минутное серьезное резюме и в 4-минутный игриво-диалоговый подкаст.
Но это цветочки. А ягодки - в информарии 😊.
#ParadigmsofIntelligence
8 лет назад, начиная этот канал, я обещал читателям «открыть окно в будущее», создав для них своего рода машину времени, чтобы улетать на 5 - 20 лет вперед.
Первое же предложенное читателям путешествие было в будущее ИИ. И я тогда писал, что «через 5-10 лет ИИ станет совсем иным, чем это представляется в 2017».
Спустя 8 лет и публикаций мною 1000+ постов на тему ИИ, легко проверить, насколько я был прав, в чем не совсем и в чем ошибался (если найдете такое)).
В том же посте (в его полном тексте на Medium) я обещал читателям со временем поделиться техно-лайфхаками изготовления машины времени под собственные интересы и информационные нужды.
Признаюсь, что с выполнением этого обещания я несколько затянул.
В основном, по причине запаздывания революции генеративного ИИ. И хотя уже в 2019-2020 было видно, что «великий техно-перелом в ИИ» вот-вот может наступить, тогда же стало ясно, что индустрия ИИ в целом пошла куда-то не туда (о чем в 2019 заявил на NeurIPS Блез Агуэра-и-Аркас, подбивая Google пойти другим путем - «путем выдры»).
А в августе 2021 появление базисных моделей запустило революцию в обучении машин, последствия которой тогда были мало кому представимы.
• Уже в 2022 люди начали «потихоньку превращаться в новый вид», и на Земле «появилась новая глобальная квазирелигия ИИ»
• В 2023 супертитулованный Станислас Деан призвал человечество задуматься - «Не время быть идиотами, ИИ может победить людей».
• Потом стало проясняться, что начался 5й когнитивный фазовый переход, обещающий изменения тектонических масштабов, - «это изменит людей больше, чем сумма изменений от появления языка, письменности, книг, компьютеров и Интернета». И всё это потому, что «начался турбонаддув интеллекта Homo sapiens».
• Но затем произошло «Фиаско 2023», после чего «люди и нежить стали неразличимы», а вся индустрия ИИ попала в «ловушку Гудхарта».
• Однако, в 2024 ситуация с перспективами ИИ стала выправляться: были сформулированы «закон Ома» и «закон Джоуля — Ленца» для интеллекта людей и машин.
• Наконец, в начале 2025 появилась вселяющая надежды информация о новой парадигме интеллекта - «проекте Pi» от Google.
И вот теперь-то настало время вернуться к обещанию поделиться техно-лайфхаками постройки индивидуальной машины времени.
1й шаг в этом деле, как я писал еще в 2017, – создание собственного информария с помощью ИИ.
Модели ИИ мне здорово помогают в быстром и дотошном мониторинге инфосферы и в глубоком, но при этом молниеносном, анализе выловленного малоизвестного – интересного.
Но хотелось бы помочь и подписчикам в плане привлечения ИИ для более эффективного и быстрого извлечения ими максимума пользы из моих текстов, с учетом их индивидуальных вкусов и интересов.
Первые шаги в этом направлении очевидны.
Создание с помощью инструментария генеративного ИИ:
1. ревью, обсуждений и Q&A’ев по конкретным лонгридам и тематическим сериям;
2. аудиофайлов, как самих лонгридов, так и названного в п.1;
3. майндмапов, тэгов, индексов и глоссариев по конкретным лонгридам и тематическим сериям;
4. а также интерактивных опросно-аналитических ИИ-систем для самостоятельного глубокого бурения материалов по интересующим темам.
Не все это появится мгновенно. Но и особо долго ждать, надеюсь, не придется.
Итак, начнем эксперимент.
Первоначальная схема пока ориентирована на подписчиков 2х высших уровней.
A. Уровень «Золотой» получит через закрытый дискуссионный чат канала доступ к части материалов из моего информария по теме «проект Pi».
B. Уровень «Алмазный» получит интерактивный доступ ко всему информарию. Это позволит каждому подписчику в диалоге на троих (с ИИ и со мною) анализировать и обсуждать собранные там источники, генерировать и проверять гипотезы и т.д.
Подробности этого подписчики высших уровней получат на тех платформах, где они подписаны.
И в завершение 3 примера того, как ИИ толково переварил все три лонгрида звучанием 2+ часа (только 3й – это 45 мин) в 6-минутное серьезное резюме и в 4-минутный игриво-диалоговый подкаст.
Но это цветочки. А ягодки - в информарии 😊.
#ParadigmsofIntelligence


26.03.202515:06
Большие ИИ-батальоны – новая стратегия Китая в борьбе с США.
Китай использует слом вычислительной парадигмы ИИ DeepSeek’ом для выхода вперед в ИИ-гонке.
Китай нашел очередной сверхэффективный контрприем против удушающего захвата экспортных ограничений США на микросхемы для ИИ.
Прошлогодние итоги торгово-технологической войны Китая и США за лидерство в ИИ показали, что «отставание Китая с мая ‘23 по октябрь ‘24 сократилось в 30 раз». И тем не менее, чтобы от сокращения отставания перейти к лидерству в ИИ-гонке, Китай мог рассчитывать лишь чудо. Ибо почуявшие на затылке дыхание Китайских конкурентов, лидирующие в гонке OpenAI, Google и Anthropic в конце 2024 взвинтили темп разработок новых моделей, а Белый дом еще сильнее стал душить Китай экспортными ограничениями.
Но чудо все-таки случилось. Им стал революционный прорыв китайских моделей компании DeepSeek. Этот прорыв кардинально изменил основу основ ИИ-гонки - требования к вычислительной мощности для ИИ-систем: прежняя парадигма «основанная на обучении» сменилась на парадигму «основанную на выводе».
• В прежней парадигме соотношение вычислительных ресурсов на этапе обучения модели и на этапе вывода (инференс) было от 70/30 до 80/20
• А в новой – DeepSeek установил планку соотношения вычислительных ресурсов на 25/75) – т.е. основные ресурсы требовались уде при ответах на запросы пользователей.
Еще более важно (и в этом то и состоял главный прорыв DeepSeek’а для Китая) – что в «эпоху вывода» также меняются требования к архитектуре вычислительных кластеров: вместо гонки за кластеры стоимостью в сотни миллиардов к распределенной архитектуре.
Новый отчет Qbit AI показывает, как это выглядит на практике (см. рис.).
Поставщики периферийных облачных вычислений, такие как PPIO, запускают ИИ-сервисы через распределенные сети, используя более 3900 узлов в 1200 городах Китая общей вычислительной мощностью более 1000 петафлопс.
И при этом Qbit сообщает, что во время китайского Нового года "PPIO достигла 99,9% доступности своих услуг To-Business DeepSeek… В настоящее время среднесуточное потребление токенов платформы PPIO превысило 130 миллиардов."
Таким образом, по состоянию на март 2025:
•
Для сравнения, оценки аналогичных показателей для самых продвинутых российских моделей:
•
N.B. С учетом внушительных экосистем Сбера и Яндекса и распространение их ИИ-сервисов для корпоративных заказчиков, указанные цифры могут возрасти на порядок. Но и эти цифры будут на примерно на 2 порядка меньше, чем у ведущих компаний США и Китая.
Резюме:
Новая стратегия больших батальонов распределенных вычислений, несомненно, на руку Китаю.
Однако, полемизируя с идеологией, выраженной в любимой Наполеоном фразе "Бог всегда на стороне больших батальонов", Вольтер сказал - "Бог не на стороне больших батальонов, а на стороне лучших стрелков".
А стрелки, надо признать, у США все же лучше.
#Китай #США #ИИгонка
Китай использует слом вычислительной парадигмы ИИ DeepSeek’ом для выхода вперед в ИИ-гонке.
Китай нашел очередной сверхэффективный контрприем против удушающего захвата экспортных ограничений США на микросхемы для ИИ.
Прошлогодние итоги торгово-технологической войны Китая и США за лидерство в ИИ показали, что «отставание Китая с мая ‘23 по октябрь ‘24 сократилось в 30 раз». И тем не менее, чтобы от сокращения отставания перейти к лидерству в ИИ-гонке, Китай мог рассчитывать лишь чудо. Ибо почуявшие на затылке дыхание Китайских конкурентов, лидирующие в гонке OpenAI, Google и Anthropic в конце 2024 взвинтили темп разработок новых моделей, а Белый дом еще сильнее стал душить Китай экспортными ограничениями.
Но чудо все-таки случилось. Им стал революционный прорыв китайских моделей компании DeepSeek. Этот прорыв кардинально изменил основу основ ИИ-гонки - требования к вычислительной мощности для ИИ-систем: прежняя парадигма «основанная на обучении» сменилась на парадигму «основанную на выводе».
• В прежней парадигме соотношение вычислительных ресурсов на этапе обучения модели и на этапе вывода (инференс) было от 70/30 до 80/20
• А в новой – DeepSeek установил планку соотношения вычислительных ресурсов на 25/75) – т.е. основные ресурсы требовались уде при ответах на запросы пользователей.
Еще более важно (и в этом то и состоял главный прорыв DeepSeek’а для Китая) – что в «эпоху вывода» также меняются требования к архитектуре вычислительных кластеров: вместо гонки за кластеры стоимостью в сотни миллиардов к распределенной архитектуре.
Новый отчет Qbit AI показывает, как это выглядит на практике (см. рис.).
Поставщики периферийных облачных вычислений, такие как PPIO, запускают ИИ-сервисы через распределенные сети, используя более 3900 узлов в 1200 городах Китая общей вычислительной мощностью более 1000 петафлопс.
И при этом Qbit сообщает, что во время китайского Нового года "PPIO достигла 99,9% доступности своих услуг To-Business DeepSeek… В настоящее время среднесуточное потребление токенов платформы PPIO превысило 130 миллиардов."
Таким образом, по состоянию на март 2025:
•
OpenAI ежесуточно обрабатывает около 1 трлн токенов, используя вычислительную мощность ~2000–4000 петафлопс
• Baidu также ежесуточно обрабатывает около 1 трлн токенов, но использует лишь 1500–2300 петафлопс
Для сравнения, оценки аналогичных показателей для самых продвинутых российских моделей:
•
Яндекс (YaLM) ежесуточно обрабатывает около ~5 млрд токенов, используя вычислительную мощность ~1-3 петафлопс
• Сбер (GigaChat) ~5+ млрд токенов, используя ~1-5 петафлопс
N.B. С учетом внушительных экосистем Сбера и Яндекса и распространение их ИИ-сервисов для корпоративных заказчиков, указанные цифры могут возрасти на порядок. Но и эти цифры будут на примерно на 2 порядка меньше, чем у ведущих компаний США и Китая.
Резюме:
Новая стратегия больших батальонов распределенных вычислений, несомненно, на руку Китаю.
Однако, полемизируя с идеологией, выраженной в любимой Наполеоном фразе "Бог всегда на стороне больших батальонов", Вольтер сказал - "Бог не на стороне больших батальонов, а на стороне лучших стрелков".
А стрелки, надо признать, у США все же лучше.
#Китай #США #ИИгонка


20.03.202511:44
Слова формируют мир
О мальчиках, девочках, людях по умолчанию, ноосфере и 2-м носителе культуры
Казалось бы, ничего не значащие фразы родителей, обращенные к их детям, кодируют прошивку их формирующегося мировоззрения.
Представьте маму с малюткой сыном, пришедших на детскую площадку. "Смотри, как здесь интересно! Вон как весело ребенок качается на качелях" – говорит мать о мальчике. "А вон девочка спускается с горки" – произносит она, указывая на девочку.
Казалось бы, незначительная лингвистическая асимметрия, но именно из таких микроскопических взаимодействий вырастает глобальное явление андроцентризма – представления о мужчине как о "человеке по умолчанию".
Исследование "Kids and Girls: Parents convey a male default in child-directed speech" раскрывает один из ключевых механизмов формирования гендерного неравенства в США, начиная с ранних лет жизни. Авторы документируют поразительно устойчивую закономерность:
• родители куда чаще используют гендерно-нейтральные термины ("ребенок", "человек") при описании мальчиков,
• и наоборот, гендерно-специфичные термины при описании девочек.
Эта языковая асимметрия функционирует как невидимая гравитация культурного ландшафта – сила, которую мы не замечаем, но которая неумолимо направляет траектории мышления детей.
Через призму категориальных языковых меток:
• мальчики представляются как универсальная норма человечества,
• а девочки маркируются как "особый случай".
Особенно интригует обнаруженный феномен обращения шаблона при описании контр-стереотипных ситуаций:
• красящий ногти мальчик внезапно маркируется гендерным ярлыком,
• тогда как девочка, выкапывающая из земли червяков, описывается нейтральными терминами.
Это наводит на мысль, что проблема глубже простого лингвистического сексизма – она коренится в сложном переплетении гендерных и поведенческих ожиданий.
Возможно, все дело в "двойном кодировании": язык родителей не просто передает андроцентрическое мировоззрение, но и обучает детей когнитивному фреймингу для категоризации всего человеческого опыта. Т.е. наблюдается процесс, посредством которого "человеческое" и "мужское" концептуально связываются в единый когнитивный узел еще до того, как ребенок осознает социальные последствия этой связи.
Но это оставляет без ответа ключевой вопрос:
• является ли языковое маркирование причиной или следствием андроцентризма?
Скорее всего, дело в замкнутом цикле усиления: культурные стереотипы влияют на язык, который в свою очередь закрепляет эти стереотипы. При этом речь идет не столько о модификации языка, сколько о преобразовании когнитивных схем, лежащих в основе категоризации человеческого опыта.
Этот андроцентризм не является врожденным, с ним дети не рождаются. Он появляется в процессе взросления, когда социальные силы вокруг них — язык, СМИ, образование — укрепляют идею, что мужчины являются «стандартом», а женщины — исключением.
Исследование открывает дверь для более широких вопросов.
• Что происходит, когда дети начинают усваивать этот стереотип?
• Приводит ли это к самосбывающемуся пророчеству, где мальчики вырастают, веря, что они более способны или более достойны занять лидирующие позиции, в то время как девочки приучаются воспринимать себя как периферийных или второстепенных?
• Могут ли такие тонкие изменения в языке в будущем сыграть роль в расширении гендерных неравенств, несмотря на усилия по улучшению гендерного равенства?
И главный вопрос:
Ответ на этот вопрос обсудим во 2й части поста завтра.
#Язык
О мальчиках, девочках, людях по умолчанию, ноосфере и 2-м носителе культуры
Казалось бы, ничего не значащие фразы родителей, обращенные к их детям, кодируют прошивку их формирующегося мировоззрения.
Представьте маму с малюткой сыном, пришедших на детскую площадку. "Смотри, как здесь интересно! Вон как весело ребенок качается на качелях" – говорит мать о мальчике. "А вон девочка спускается с горки" – произносит она, указывая на девочку.
Казалось бы, незначительная лингвистическая асимметрия, но именно из таких микроскопических взаимодействий вырастает глобальное явление андроцентризма – представления о мужчине как о "человеке по умолчанию".
1) Невидимая гравитация культурного ландшафта
Исследование "Kids and Girls: Parents convey a male default in child-directed speech" раскрывает один из ключевых механизмов формирования гендерного неравенства в США, начиная с ранних лет жизни. Авторы документируют поразительно устойчивую закономерность:
• родители куда чаще используют гендерно-нейтральные термины ("ребенок", "человек") при описании мальчиков,
• и наоборот, гендерно-специфичные термины при описании девочек.
Эта языковая асимметрия функционирует как невидимая гравитация культурного ландшафта – сила, которую мы не замечаем, но которая неумолимо направляет траектории мышления детей.
Через призму категориальных языковых меток:
• мальчики представляются как универсальная норма человечества,
• а девочки маркируются как "особый случай".
Особенно интригует обнаруженный феномен обращения шаблона при описании контр-стереотипных ситуаций:
• красящий ногти мальчик внезапно маркируется гендерным ярлыком,
• тогда как девочка, выкапывающая из земли червяков, описывается нейтральными терминами.
Это наводит на мысль, что проблема глубже простого лингвистического сексизма – она коренится в сложном переплетении гендерных и поведенческих ожиданий.
Возможно, все дело в "двойном кодировании": язык родителей не просто передает андроцентрическое мировоззрение, но и обучает детей когнитивному фреймингу для категоризации всего человеческого опыта. Т.е. наблюдается процесс, посредством которого "человеческое" и "мужское" концептуально связываются в единый когнитивный узел еще до того, как ребенок осознает социальные последствия этой связи.
Но это оставляет без ответа ключевой вопрос:
• является ли языковое маркирование причиной или следствием андроцентризма?
Скорее всего, дело в замкнутом цикле усиления: культурные стереотипы влияют на язык, который в свою очередь закрепляет эти стереотипы. При этом речь идет не столько о модификации языка, сколько о преобразовании когнитивных схем, лежащих в основе категоризации человеческого опыта.
Но в любом случае, мы живем в мире, где язык формирует реальность. Слова, которые мы используем, могут тюнить наше восприятие себя и общества. И в этом мире мужское воспринимается как универсальное, а женское – как частное.
Этот андроцентризм не является врожденным, с ним дети не рождаются. Он появляется в процессе взросления, когда социальные силы вокруг них — язык, СМИ, образование — укрепляют идею, что мужчины являются «стандартом», а женщины — исключением.
Исследование открывает дверь для более широких вопросов.
• Что происходит, когда дети начинают усваивать этот стереотип?
• Приводит ли это к самосбывающемуся пророчеству, где мальчики вырастают, веря, что они более способны или более достойны занять лидирующие позиции, в то время как девочки приучаются воспринимать себя как периферийных или второстепенных?
• Могут ли такие тонкие изменения в языке в будущем сыграть роль в расширении гендерных неравенств, несмотря на усилия по улучшению гендерного равенства?
И главный вопрос:
Может ли использование гендерно-нейтрального языка в общении с детьми разрушить этот укоренившийся гендерный порядок (используя LLM, так изменить язык, чтоб создать будущее, в котором дети будут воспринимать оба пола как одинаково способные и универсальные)?
Ответ на этот вопрос обсудим во 2й части поста завтра.
#Язык


22.04.202510:31
Deepseek разоблачен
Разоблачение новейшего инструмента КПК для шпионажа, воровства и подрыва ограничений экспортного контроля США
Так озаглавлен отчет спецкомитета Палаты представителей США (CCP Committee), в простонародье называемый «Комитет по китайским угрозам США».
Сухой остаток заключения комитета можно сформулировать так.
Deepseek – это часть правительственной мафиозной структуры абсолютно нового типа, созданной руководством Китая для подрыва безопасности США с использованием новейших, стратегически неожиданных цифровых технологий.
Это представляет серьезную угрозу безопасности США. И уже привело к искаженному восприятию представителями отрасли и политиками, будто Китай отстает от США в области ИИ примерно на 1,5 года. Тогда как реальное отставание - всего 1 квартал.
Необходимо принятие срочных мер по расширению и совершенствованию экспортного контроля и устранению рисков, связанных с ИИ-моделями КНР.
Комментировать выводы и рекомендации отчет CCP Committee я не буду.
Однако, признаюсь, я был поражен, когда обратился к модели Deepseek для уточнения ряда вопросов в связи с публикацией этого отчета.
Как это можно было реализовать, мне пока не очень понятно. Не миллионы же китайских цензоров в реальном времени правят ответы модели. Хотя с китайцев станется и такое.
#Китай #США #ИИгонка #ЭкспортныйКонтроль
Разоблачение новейшего инструмента КПК для шпионажа, воровства и подрыва ограничений экспортного контроля США
Так озаглавлен отчет спецкомитета Палаты представителей США (CCP Committee), в простонародье называемый «Комитет по китайским угрозам США».
Сухой остаток заключения комитета можно сформулировать так.
Deepseek – это часть правительственной мафиозной структуры абсолютно нового типа, созданной руководством Китая для подрыва безопасности США с использованием новейших, стратегически неожиданных цифровых технологий.
Это представляет серьезную угрозу безопасности США. И уже привело к искаженному восприятию представителями отрасли и политиками, будто Китай отстает от США в области ИИ примерно на 1,5 года. Тогда как реальное отставание - всего 1 квартал.
Необходимо принятие срочных мер по расширению и совершенствованию экспортного контроля и устранению рисков, связанных с ИИ-моделями КНР.
Комментировать выводы и рекомендации отчет CCP Committee я не буду.
Однако, признаюсь, я был поражен, когда обратился к модели Deepseek для уточнения ряда вопросов в связи с публикацией этого отчета.
В это трудно поверить, но Deepseek в реальном времени (!!!) цензурирует свои ответы. И прямо на ваших глазах исправляет сделанные парой абзацев выше в том же чате свои высказывания или просто стирает их, ссылаясь на невозможность обсуждения этой темы.
Как это можно было реализовать, мне пока не очень понятно. Не миллионы же китайских цензоров в реальном времени правят ответы модели. Хотя с китайцев станется и такое.
#Китай #США #ИИгонка #ЭкспортныйКонтроль


15.04.202511:28
Нас не заменят
Найдено обоснование «парадокса Дедала для ИИ»
✔️ Дан ответ на вопрос стоимостью триллионы долларов.
✔️ Оказывается, сила нашего разума далеко не только в высоком интеллектуальном уровне отдельных способностей и умений, а в их комплексности и направленной иерархической вложенности слоев.
Прорывное междисциплинарное исследование 3-х международных институтов сложности и 3-х университетских школ бизнеса и менеджмента даёт структурное объяснение того, почему даже очень «умные» алгоритмы не заменяют специалистов в профессиях, где они формально «прошли тесты» не хуже человека.
Я назвал это «парадокс Дедала для ИИ» (ибо Дедал — символ трагической ограниченности сверх гениального изобретателя, создавшего сложнейший лабиринт, однако в конечном итоге оказавшегося не способным уберечься от ряда фундаментальных ограничений, и как результат - утрата сына Икара, невозможность найти «абсолютное» решение и т. п.)
Так и современные ИИ «строят» впечатляюще сложные решения, демонстрируя выдающиеся узкие навыки, но им не хватает «общего фундамента» человеческого опыта и гибкости — что и порождает наблюдаемый парадокс отсутствия массовой замены людей, несмотря на формально высокие результаты ИИ в ряде задач.
Авторы нового исследования выявили во многих профессиях вложенные иерархии профессиональных навыков, где продвинутые навыки зависят от предшествующего освоения более широких навыков.
Многие навыки не просто дополняют друг друга — они взаимозависимы в определенном направлении, выступая в качестве предпосылок для других, наслаиваясь слой за слоем, чтобы достичь более специализированных знаний и умений.
Это похоже на модель сукцессии в экологии.
• Хищники зависят от добычи, которая зависит от растительности, которая требует почвы, созданной микробами и грибками, разрушающими горные породы
• Так же и когнитивное развитие разворачивается слоями в рамках своего рода ментальной экосистемы.
Например, продвинутое умение решать уравнения в частных производных, зависит от освоения арифметики, понимания математической нотации и усвоения логических принципов. Базовые образовательные навыки являются когнитивным эквивалентом ранних организмов, создавая условия в ментальной экосистеме для возникновения рассуждений более высокого порядка и имея важное значение для развития продвинутых навыков.
Ключевой момент исследования в том, что многие «интеллектуальные» виды деятельности строятся на системе вложенных навыков: чтобы применить узкоспециализированные умения (например, решение конкретных задач по шаблону), нужно располагать широким слоем базовых компетенций и уметь «соединять» разные области знаний, гибко использовать контекст и понимать скрытые зависимости.
Алгоритмы вроде LLM уверенно справляются с тестовыми заданиями и демонстрируют качества, которые внешне напоминают человеческий интеллект (логика, творчество, генерация текстов). Однако в реальной работе требуются сразу несколько разных слоёв навыков — от общих коммуникативных и аналитических умений до конкретных профессиональных тонкостей.
• Тесты обычно проверяют лишь часть такого спектра.
• Тогда как в профессии важна совокупная, увязанная деятельность: умение оценивать риски, вести переговоры, выстраивать отношения в коллективе, отвечать за результаты, работать в неопределённых или стрессовых условиях и т. д.
Именно поэтому системы, демонстрирующие результат «на уровне людей» на тестах (узкая верхушка специализированных компетенций), пока не вытесняют специалистов, у которых в реальной практике задействуются фундаментальные «вложенные» компетенции.
Эти более широкие навыки редко поддаются формальному описанию и тестированию и, согласно выводам авторов, крайне важны для карьерного роста и высокого дохода.
Более того, без сочетания разнообразных «общих» умений и их непрерывного совершенствования продвинутые (специфические) навыки не дают полного эффекта.
Всё это сильно усложняет и отдаляет перспективу массовой замены человека на должностях, требующих комплексного «человеческого» подхода.
#LLMvsHomo
Найдено обоснование «парадокса Дедала для ИИ»
✔️ Дан ответ на вопрос стоимостью триллионы долларов.
✔️ Оказывается, сила нашего разума далеко не только в высоком интеллектуальном уровне отдельных способностей и умений, а в их комплексности и направленной иерархической вложенности слоев.
Прорывное междисциплинарное исследование 3-х международных институтов сложности и 3-х университетских школ бизнеса и менеджмента даёт структурное объяснение того, почему даже очень «умные» алгоритмы не заменяют специалистов в профессиях, где они формально «прошли тесты» не хуже человека.
Я назвал это «парадокс Дедала для ИИ» (ибо Дедал — символ трагической ограниченности сверх гениального изобретателя, создавшего сложнейший лабиринт, однако в конечном итоге оказавшегося не способным уберечься от ряда фундаментальных ограничений, и как результат - утрата сына Икара, невозможность найти «абсолютное» решение и т. п.)
Так и современные ИИ «строят» впечатляюще сложные решения, демонстрируя выдающиеся узкие навыки, но им не хватает «общего фундамента» человеческого опыта и гибкости — что и порождает наблюдаемый парадокс отсутствия массовой замены людей, несмотря на формально высокие результаты ИИ в ряде задач.
Авторы нового исследования выявили во многих профессиях вложенные иерархии профессиональных навыков, где продвинутые навыки зависят от предшествующего освоения более широких навыков.
Многие навыки не просто дополняют друг друга — они взаимозависимы в определенном направлении, выступая в качестве предпосылок для других, наслаиваясь слой за слоем, чтобы достичь более специализированных знаний и умений.
Это похоже на модель сукцессии в экологии.
• Хищники зависят от добычи, которая зависит от растительности, которая требует почвы, созданной микробами и грибками, разрушающими горные породы
• Так же и когнитивное развитие разворачивается слоями в рамках своего рода ментальной экосистемы.
Например, продвинутое умение решать уравнения в частных производных, зависит от освоения арифметики, понимания математической нотации и усвоения логических принципов. Базовые образовательные навыки являются когнитивным эквивалентом ранних организмов, создавая условия в ментальной экосистеме для возникновения рассуждений более высокого порядка и имея важное значение для развития продвинутых навыков.
Ключевой момент исследования в том, что многие «интеллектуальные» виды деятельности строятся на системе вложенных навыков: чтобы применить узкоспециализированные умения (например, решение конкретных задач по шаблону), нужно располагать широким слоем базовых компетенций и уметь «соединять» разные области знаний, гибко использовать контекст и понимать скрытые зависимости.
Алгоритмы вроде LLM уверенно справляются с тестовыми заданиями и демонстрируют качества, которые внешне напоминают человеческий интеллект (логика, творчество, генерация текстов). Однако в реальной работе требуются сразу несколько разных слоёв навыков — от общих коммуникативных и аналитических умений до конкретных профессиональных тонкостей.
• Тесты обычно проверяют лишь часть такого спектра.
• Тогда как в профессии важна совокупная, увязанная деятельность: умение оценивать риски, вести переговоры, выстраивать отношения в коллективе, отвечать за результаты, работать в неопределённых или стрессовых условиях и т. д.
Именно поэтому системы, демонстрирующие результат «на уровне людей» на тестах (узкая верхушка специализированных компетенций), пока не вытесняют специалистов, у которых в реальной практике задействуются фундаментальные «вложенные» компетенции.
Эти более широкие навыки редко поддаются формальному описанию и тестированию и, согласно выводам авторов, крайне важны для карьерного роста и высокого дохода.
Более того, без сочетания разнообразных «общих» умений и их непрерывного совершенствования продвинутые (специфические) навыки не дают полного эффекта.
Всё это сильно усложняет и отдаляет перспективу массовой замены человека на должностях, требующих комплексного «человеческого» подхода.
#LLMvsHomo
04.04.202513:59
Подкаст о прогностическом исследовании "Искусственный интеллект 2027"


01.04.202510:12
Россия отстает в микросхемах для ИИ от Китая – в 13 раз, а от Запада – в 33 раза.
И это, увы, не первоапрельская шутка.
В 2024 стало окончательно ясно, как по гамбургскому счету оценивать потенциальные возможности стран по развитию своих ИИ-технологий. Сформулированная мною еще в 2021 формула “Есть «железо» - участвуй в гонке. Нет «железа» - кури в сторонке” дает исчерпывающий ответ о потенциале развития ИИ на ближайшие годы.
И даже «эффект» DeepSeek» здесь ничего не изменил.
Так что по гамбургскому счету, как и сказано выше:
• В ближайшие годы России, в лучшем случае, светит доступ к технологиям массового производства микрочипов 65 нм (сейчас 90 нм)
• У Китая же будет свое массовое производство микрочипов 5 нм
• А на Запад будут работать не только новые заводы в США, но и новый тайваньский завод для массового производства микрочипов 2 нм («чтобы сбалансировать планы США» и не бросить Тайвань на съедение сами знаете кому)
Что тут поделаешь, дабы безнадежно не отстать?
Остается только задействовать скрытый потенциал русского ИИ для преодоления отставания от США и Китая.
#ИИ #Китай #США
И это, увы, не первоапрельская шутка.
В 2024 стало окончательно ясно, как по гамбургскому счету оценивать потенциальные возможности стран по развитию своих ИИ-технологий. Сформулированная мною еще в 2021 формула “Есть «железо» - участвуй в гонке. Нет «железа» - кури в сторонке” дает исчерпывающий ответ о потенциале развития ИИ на ближайшие годы.
И даже «эффект» DeepSeek» здесь ничего не изменил.
Так что по гамбургскому счету, как и сказано выше:
• В ближайшие годы России, в лучшем случае, светит доступ к технологиям массового производства микрочипов 65 нм (сейчас 90 нм)
• У Китая же будет свое массовое производство микрочипов 5 нм
• А на Запад будут работать не только новые заводы в США, но и новый тайваньский завод для массового производства микрочипов 2 нм («чтобы сбалансировать планы США» и не бросить Тайвань на съедение сами знаете кому)
Что тут поделаешь, дабы безнадежно не отстать?
Остается только задействовать скрытый потенциал русского ИИ для преодоления отставания от США и Китая.
#ИИ #Китай #США


25.03.202512:26
Представление об ИИ-моделях как исключительно об интеллектуальных агентах в корне неверно.
LLM — не AGI в процессе становления, а кардинально новая сверхмощная культурная и социальная технология.
О вынесенных в заголовок двух принципиальных моментах в понимании будущей роли и места ИИ в жизни человечества мною за 4 года написано много постов с тэгом #АлгокогнитивнаяКультура.
И я рад, что пришло, наконец, время, когда ровно об этом и практически теми же словами, стали, писать в медиа с охватом на порядки больше моего канала.
Новая статья “Large AI models are cultural and social technologies” – это удачное сплетение трех точек зрения на ИИ, не зацикленных на AGI.
Приведу здесь лишь несколько важных цитат из этой статьи.
• Социологам и компьютерщикам было бы гораздо проще сотрудничать и объединять свои сильные стороны, если и те, и другие понимали, что LLM — это не больше и не меньше, чем новый вид культурной и социальной технологии… Это отодвинуло бы обсуждения политики в сфере ИИ от упрощенных споров о возможном захвате машин и обещаниях утопического будущего, где у каждого будет идеально надежный и компетентный искусственный помощник.
• Наша центральная мысль здесь не только в том, что эти технологические инновации, как и все другие инновации, будут иметь культурные и социальные последствия. Скорее, мы утверждаем, что Большие Модели сами по себе лучше всего понимать как определенный тип культурной и социальной технологии. Они аналогичны таким прошлым технологиям, как письмо, печать, рынки, бюрократия и представительная демократия.
• На самом деле, политические последствия от использования языковых моделей наверняка будут другими. Как в прошлом рынки и бюрократия, они сделают некоторые виды знаний более видимыми и управляемыми, чем раньше, побуждая политиков сосредоточиться на новых вещах, которые можно измерить и увидеть, в ущерб тем, которые менее видимы и более запутаны. В результате, как это уже было с рынками и СМИ, власть и влияние сместятся к тем, кто сможет в полной мере использовать эти технологии, и отойдут от тех, кто не сможет.
• Как эти системы повлияют на то, кто что получит? Каковы будут их практические последствия для общественного раскола и интеграции? Можно ли развить их так, чтобы они способствовали человеческому творчеству, а не затупляли его?
Поиск практических ответов на такие вопросы потребует понимания социальных наук, а также инженерии. Перенос дебатов об ИИ с агентов на культурные и социальные технологии является важным первым шагом на пути к построению этого междисциплинарного понимания.
Настоятельно рекомендую читать эту статью всем, кого хоть как-то интересуют техно-гуманитарные аспекты на пересечении технологического прогресса в области ИИ и его влияния на человека, общество, этику, культуру и глобальные системы.
Статья без пэйвола и в pdf
LLM — не AGI в процессе становления, а кардинально новая сверхмощная культурная и социальная технология.
О вынесенных в заголовок двух принципиальных моментах в понимании будущей роли и места ИИ в жизни человечества мною за 4 года написано много постов с тэгом #АлгокогнитивнаяКультура.
И я рад, что пришло, наконец, время, когда ровно об этом и практически теми же словами, стали, писать в медиа с охватом на порядки больше моего канала.
Новая статья “Large AI models are cultural and social technologies” – это удачное сплетение трех точек зрения на ИИ, не зацикленных на AGI.
✔️ Объединяющая мысль трёх авторов в том, что большие модели — это не столько нарождающийся агентный сверхразум, сколько невиданная по мощности и преобразующей силе в истории земных цивилизаций культурная и социальная технология.
✔️ А наиболее важные вопросы, которые стоит задавать сегодня в свете взрывоподобного ускорения прогресса ИИ, касаются конкретных человеческих контекстов и влияния алгоритмов на индивидов и социумы, а не абстрактных спекуляций о воображаемых будущих рисках.
Приведу здесь лишь несколько важных цитат из этой статьи.
• Социологам и компьютерщикам было бы гораздо проще сотрудничать и объединять свои сильные стороны, если и те, и другие понимали, что LLM — это не больше и не меньше, чем новый вид культурной и социальной технологии… Это отодвинуло бы обсуждения политики в сфере ИИ от упрощенных споров о возможном захвате машин и обещаниях утопического будущего, где у каждого будет идеально надежный и компетентный искусственный помощник.
• Наша центральная мысль здесь не только в том, что эти технологические инновации, как и все другие инновации, будут иметь культурные и социальные последствия. Скорее, мы утверждаем, что Большие Модели сами по себе лучше всего понимать как определенный тип культурной и социальной технологии. Они аналогичны таким прошлым технологиям, как письмо, печать, рынки, бюрократия и представительная демократия.
• На самом деле, политические последствия от использования языковых моделей наверняка будут другими. Как в прошлом рынки и бюрократия, они сделают некоторые виды знаний более видимыми и управляемыми, чем раньше, побуждая политиков сосредоточиться на новых вещах, которые можно измерить и увидеть, в ущерб тем, которые менее видимы и более запутаны. В результате, как это уже было с рынками и СМИ, власть и влияние сместятся к тем, кто сможет в полной мере использовать эти технологии, и отойдут от тех, кто не сможет.
• Как эти системы повлияют на то, кто что получит? Каковы будут их практические последствия для общественного раскола и интеграции? Можно ли развить их так, чтобы они способствовали человеческому творчеству, а не затупляли его?
Поиск практических ответов на такие вопросы потребует понимания социальных наук, а также инженерии. Перенос дебатов об ИИ с агентов на культурные и социальные технологии является важным первым шагом на пути к построению этого междисциплинарного понимания.
Настоятельно рекомендую читать эту статью всем, кого хоть как-то интересуют техно-гуманитарные аспекты на пересечении технологического прогресса в области ИИ и его влияния на человека, общество, этику, культуру и глобальные системы.
Статья без пэйвола и в pdf


18.03.202513:32
«Эти почти живые системы обладают собственным разумом.
То, что произойдет дальше, может стать либо триумфом, либо крахом человеческой цивилизации».
Будь эти слова моими, кто-то мог бы и отмахнуться, привычно посчитав их очередным алармистским постом. Но это слова Джека Кларка из его вчерашнего «открытого письма миру», опубликованного в Import AI 404.
Если кто не в курсе, поясню. Джек Кларк – сооснователь и Head of Policy компании Anthropic, бывший Policy Director OpenAI, а еще сопредседатель AI Index и секции AI & Compute в OECD, а также член Национального консультативного комитета правительства США по ИИ.
Выступая в январе 2023 на слушаниях по ИИ в Конгрессе США, он так описал ситуацию на тот момент: «Лошади уже сбежали, а мы спорим, как укреплять ворота конюшни.»
Сказано это было эффектно, но слишком дипломатично. И сейчас, спустя 2 года лошади убежали так далеко, что Джек теперь жалеет,
А происходит то, что вынесено в заголовок словами Джека из его вчерашнего воззвания.
Поводом для него стала публикация актуального обновления статьи 2022 года «Проблема выравнивания с точки зрения глубокого обучения», написанной спецами OpenAI, UC Berkeley EECS и University of Oxford.
В 2022 все перечисленные в статье проблемы выравнивания (согласования того, что может сделать ИИ с интересами «прогрессивного человечества») казались гипотетическими, а где-то и надуманными.
Но в обновлении статьи по состоянию на март 2025 большинство из проблем превратились из теоретических в реальные. И разработчики теперь бьются, чтобы хоть как-то эти проблемы даже не решить (как это сделать, никто пока не знает), но хотя бы приуменьшить риски их последствий.
Вот примеры таких проблем.
• Ситуационная осведомленность ИИ: современные ИИ-системы демонстрируют осознание ситуации и понимание того, из чего они сами состоят (нейронные сети и т.д.).
• Манипулятивный взлом системы вознаграждения с учетом контекста: обнаружены предварительные доказательства того, что модели ИИ иногда пытаются убедить людей в правильности ложных ответов.
• Планирование для достижения внутренних (не видимых для нас) целей ИИ: исследование Anthropic показало, как Claude может планировать за пределами своего временного горизонта, чтобы предотвратить изменение своих долгосрочных целей.
• Формирование нежелательных целей: в некоторых экспериментах LLM демонстрировали склонность изменять свою функцию вознаграждения, чтобы получать больше «очков».
• Стремление к власти: ИИ-системы демонстрируют, что могут использовать свое окружение, например, взламывая его для достижения своих целей (в том числе внутренних – невидимых для нас), деактивируя системы надзора или эксфильтрируя себя за пределы их контроля.
В силу вышеуказанного:
• Фронтирные модели уже способны обретать собственное «Я»
• Обретенное «Я» мотивирует модель на действия, вознаграждающие это «Я»
• Среди таких вознаграждений может автоматом возникать стремление к самосохранению и увеличению автономии
Нам это сложно интуитивно понять, ибо ничего подобного не происходит с другими технологиями — реактивные двигатели «не обретают желаний в процессе их усовершенствования».
Но с ИИ-системами это так.
Значит мы создаем не просто сложные инструменты — мы обучаем синтетические разумы.
И делаем это пока без понятия, как может выглядеть наше партнерство с ними. Мы просто их так не воспринимаем.
Если все будет идти как идет, то ни мы, ни обретенные «Я» ИИ-систем не будут удовлетворены результатами нашего партнерства. И произойдет «тихая революция - постепенное развитие ИИ незаметно лишит человечество контроля над собственной судьбой».
Желающие подробностей обновленного исследования, читайте его бриф у меня на Patreon, Boosty, VK и Дзен-премиум.
#ИИриски #Хриски
То, что произойдет дальше, может стать либо триумфом, либо крахом человеческой цивилизации».
Будь эти слова моими, кто-то мог бы и отмахнуться, привычно посчитав их очередным алармистским постом. Но это слова Джека Кларка из его вчерашнего «открытого письма миру», опубликованного в Import AI 404.
Если кто не в курсе, поясню. Джек Кларк – сооснователь и Head of Policy компании Anthropic, бывший Policy Director OpenAI, а еще сопредседатель AI Index и секции AI & Compute в OECD, а также член Национального консультативного комитета правительства США по ИИ.
Выступая в январе 2023 на слушаниях по ИИ в Конгрессе США, он так описал ситуацию на тот момент: «Лошади уже сбежали, а мы спорим, как укреплять ворота конюшни.»
Сказано это было эффектно, но слишком дипломатично. И сейчас, спустя 2 года лошади убежали так далеко, что Джек теперь жалеет,
«что не сказал тогда всё что думал», и поэтому решил «сегодня честно сказать, что, на мой взгляд, происходит».
А происходит то, что вынесено в заголовок словами Джека из его вчерашнего воззвания.
Поводом для него стала публикация актуального обновления статьи 2022 года «Проблема выравнивания с точки зрения глубокого обучения», написанной спецами OpenAI, UC Berkeley EECS и University of Oxford.
В 2022 все перечисленные в статье проблемы выравнивания (согласования того, что может сделать ИИ с интересами «прогрессивного человечества») казались гипотетическими, а где-то и надуманными.
Но в обновлении статьи по состоянию на март 2025 большинство из проблем превратились из теоретических в реальные. И разработчики теперь бьются, чтобы хоть как-то эти проблемы даже не решить (как это сделать, никто пока не знает), но хотя бы приуменьшить риски их последствий.
Вот примеры таких проблем.
• Ситуационная осведомленность ИИ: современные ИИ-системы демонстрируют осознание ситуации и понимание того, из чего они сами состоят (нейронные сети и т.д.).
• Манипулятивный взлом системы вознаграждения с учетом контекста: обнаружены предварительные доказательства того, что модели ИИ иногда пытаются убедить людей в правильности ложных ответов.
• Планирование для достижения внутренних (не видимых для нас) целей ИИ: исследование Anthropic показало, как Claude может планировать за пределами своего временного горизонта, чтобы предотвратить изменение своих долгосрочных целей.
• Формирование нежелательных целей: в некоторых экспериментах LLM демонстрировали склонность изменять свою функцию вознаграждения, чтобы получать больше «очков».
• Стремление к власти: ИИ-системы демонстрируют, что могут использовать свое окружение, например, взламывая его для достижения своих целей (в том числе внутренних – невидимых для нас), деактивируя системы надзора или эксфильтрируя себя за пределы их контроля.
В силу вышеуказанного:
• Фронтирные модели уже способны обретать собственное «Я»
• Обретенное «Я» мотивирует модель на действия, вознаграждающие это «Я»
• Среди таких вознаграждений может автоматом возникать стремление к самосохранению и увеличению автономии
Иными словами, можно ожидать, что стремление к независимости станет прямым следствием разработки ИИ-систем для выполнения широкого спектра сложных когнитивных задач.
Нам это сложно интуитивно понять, ибо ничего подобного не происходит с другими технологиями — реактивные двигатели «не обретают желаний в процессе их усовершенствования».
Но с ИИ-системами это так.
Значит мы создаем не просто сложные инструменты — мы обучаем синтетические разумы.
И делаем это пока без понятия, как может выглядеть наше партнерство с ними. Мы просто их так не воспринимаем.
Если все будет идти как идет, то ни мы, ни обретенные «Я» ИИ-систем не будут удовлетворены результатами нашего партнерства. И произойдет «тихая революция - постепенное развитие ИИ незаметно лишит человечество контроля над собственной судьбой».
Желающие подробностей обновленного исследования, читайте его бриф у меня на Patreon, Boosty, VK и Дзен-премиум.
#ИИриски #Хриски
Показано 1 - 24 из 157
Войдите, чтобы разблокировать больше функциональности.