
Україна Online: Новини | Політика

Телеграмна служба новин - Україна

Резидент

Мир сегодня с "Юрий Подоляка"

Труха⚡️Україна

Николаевский Ванёк

Лачен пише

Реальний Київ | Украина

Реальна Війна

Україна Online: Новини | Політика

Телеграмна служба новин - Україна

Резидент

Мир сегодня с "Юрий Подоляка"

Труха⚡️Україна

Николаевский Ванёк

Лачен пише

Реальний Київ | Украина

Реальна Війна

Україна Online: Новини | Політика

Телеграмна служба новин - Україна

Резидент

Экономика долгого времени
Экономический канал Сергея Егиева, PhD.
Макро
Экономическая история
Рыночная
Зеленая
Industrial policy
"Радикальный центризм"
Научные статьи: https://eg1evs.github.io/
Рассылка: https://shorturl.at/Af1jA
@longvieweconbot или фб. Рекламы нет.
Макро
Экономическая история
Рыночная
Зеленая
Industrial policy
"Радикальный центризм"
Научные статьи: https://eg1evs.github.io/
Рассылка: https://shorturl.at/Af1jA
@longvieweconbot или фб. Рекламы нет.
Рэйтынг TGlist
0
0
ТыпПублічны
Вертыфікацыя
Не вертыфікаваныНадзейнасць
Не надзейныРазмяшчэннеРосія
МоваІншая
Дата стварэння каналаOct 06, 2022
Дадана ў TGlist
May 16, 2024Прыкрепленая група

ЭДВ (комментарии)
1.1K
Пераслаў з:
Экономика долгого времени

16.04.202514:33
Забыл у какого британского историка читал мысль, что в России идея разрыва с традицией существует уже так долго и имеет настолько глубокие интеллектуальные корни, что в случае России можно говорить о традиции разрыва с традицией.
25.03.202520:32
Ладно, последнее социальное наблюдение на сегодня. В Обитаемом острове у Стругацких, как выяснилось, есть сцена, в которой два парня (один — гость из светлого коммунистического будущего, другой местный) активно обсуждают политику планеты — выродки, фашизм и проч. — обсуждают, обсуждают, обсуждают, вдруг один из них — тот, что из будущего — резко прерывает разговор, будит спящую в той же квартире девушку и говорит:
«Рада! Хватит спать! Легионеры проголодались и скучают по женскому обществу!»
Т.е. в светлом далеком будущем, 2114-м году, наступил коммунизм, нет классовой борьбы, нет расизма-нацизма, все добрые и внимательные и прекрасные люди, перманентная улыбка на лице, но все-таки, все-таки, все-таки — если надо чего-то поесть, то мужики не готовят, мужики будят бабу.
«Рада! Хватит спать! Легионеры проголодались и скучают по женскому обществу!»
Т.е. в светлом далеком будущем, 2114-м году, наступил коммунизм, нет классовой борьбы, нет расизма-нацизма, все добрые и внимательные и прекрасные люди, перманентная улыбка на лице, но все-таки, все-таки, все-таки — если надо чего-то поесть, то мужики не готовят, мужики будят бабу.
Выдалена11.04.202508:27
08.04.202511:35
Пообсуждать плохую торговую политику Трампа — дело, конечно, важное, но давайте не позволять этой истории сбивать нас с толку. Калибровка:
1. Тарифы может быть зло всегда, может быть не всегда, но они определенно зло в такой ширине и в таком масштабе.
2. Американская экономика много десятилетий являлась, является сегодня и будет оставаться самой передовой экономикой на планете.
3. США остается первой экономикой по размеру на планете. По некоторым метрикам первый — Китай. Основная тому причина — китайцев сильно больше миллиарда, тогда как американцев несколько сотен миллионов. Производительность одного китайского работника даже рядом не приближается к американской.
4. Американский долг не является экзистенциальной проблемой для США.
5. Америка остается технологическим лидером практически во всех хай-тековых отраслях на планете.
6. Если случится глобальный кризис, то проиграют все, но Америка проиграет меньше других. Будут скупать американский долг и переходить в доллар.
7. Трамп может ошибаться, но эту «машинку» не сломает даже он. Это экономический, колосс, махина, дура. Власти Калифорнии не смогли поломать даже Калифорнию. Куда уж там Трампу с США.
1. Тарифы может быть зло всегда, может быть не всегда, но они определенно зло в такой ширине и в таком масштабе.
2. Американская экономика много десятилетий являлась, является сегодня и будет оставаться самой передовой экономикой на планете.
3. США остается первой экономикой по размеру на планете. По некоторым метрикам первый — Китай. Основная тому причина — китайцев сильно больше миллиарда, тогда как американцев несколько сотен миллионов. Производительность одного китайского работника даже рядом не приближается к американской.
4. Американский долг не является экзистенциальной проблемой для США.
5. Америка остается технологическим лидером практически во всех хай-тековых отраслях на планете.
6. Если случится глобальный кризис, то проиграют все, но Америка проиграет меньше других. Будут скупать американский долг и переходить в доллар.
7. Трамп может ошибаться, но эту «машинку» не сломает даже он. Это экономический, колосс, махина, дура. Власти Калифорнии не смогли поломать даже Калифорнию. Куда уж там Трампу с США.
10.04.202510:15
Году в 2017-м я сидел с несколькими соавторами в кабинете нашего профессора. Мы обсуждали как симулировать экономическую модель. Модель эту симулировать было довольно трудно — с вычислительной точки зрения: одна симуляция могла занимать дни, и это совершенно не практично. Тогда один из присутствующих предложил использовать алгоритм Смоляка, который позволял значительно сократить объем вычислений при незначительной потере в качестве расчета.
Спустя какое-то время я обнаружил, что немало советских фамилий можно узнать среди авторов таких, «повышающих эффективность» алгоритмов.
Позже, я спросил у одного знакомого мне математика: ложно ли мое наблюдение насчет представленности советских ученых в этом типе работ, а если нет, то почему. Его ответ был такой, что наблюдение не ложно и связано оно с развитием железа и софта в СССР vs. США. Железо, способность делать быстрые компьютеры, отстало довольно быстро и, в общем, безнадежно. Но какое-то время СССР продолжал успешно конкурировать за счет сильной мат. школы. Схожие расчеты в СССР могли производиться с меньшем числом вычислений при помощи результатов, выведенных советскими математиками. Конечно, это не могло быть решением проблемы недостаточно хорошего железа. Таких результатов было открыто (и, вероятно, вообще «можно открыть») не так много, и в какой-то момент требуется уже просто железная мощь.
Сегодня я думаю: 1) так ли это? Хорошая тема для статьи по интеллектуальной истории и 2) говорит ли эта история что-то содержательное про современное уже соревнование США с Китаем в ИИ.
Спустя какое-то время я обнаружил, что немало советских фамилий можно узнать среди авторов таких, «повышающих эффективность» алгоритмов.
Позже, я спросил у одного знакомого мне математика: ложно ли мое наблюдение насчет представленности советских ученых в этом типе работ, а если нет, то почему. Его ответ был такой, что наблюдение не ложно и связано оно с развитием железа и софта в СССР vs. США. Железо, способность делать быстрые компьютеры, отстало довольно быстро и, в общем, безнадежно. Но какое-то время СССР продолжал успешно конкурировать за счет сильной мат. школы. Схожие расчеты в СССР могли производиться с меньшем числом вычислений при помощи результатов, выведенных советскими математиками. Конечно, это не могло быть решением проблемы недостаточно хорошего железа. Таких результатов было открыто (и, вероятно, вообще «можно открыть») не так много, и в какой-то момент требуется уже просто железная мощь.
Сегодня я думаю: 1) так ли это? Хорошая тема для статьи по интеллектуальной истории и 2) говорит ли эта история что-то содержательное про современное уже соревнование США с Китаем в ИИ.
21.04.202517:39
Если почитать комментарии Трампа про главу ФРС (глупые и неприличные), то можно вообще не догадаться кто же его представил к назначению. Как думаете: кто же этот Левак Дипстейтович Саботажев. Кто бы это мог быть.
Пераслаў з:
Sinекура

06.04.202516:29
На этой неделе вышел очередной текст с прогнозами развития искусственного интеллекта: "AI 2027" (pdf-версия). Мне он, правда, совсем не кажется "очередным", в основном из-за списка авторов. Так что суммаризировать я его для вас не буду (текст совсем не длинный, рекомендую прочитать целиком), а лучше про этих самых авторов расскажу.
Первый автор, Даниэль Кокотайло — это бывший сотрудник OpenAI. Два самых для нас важных факта про него связаны как раз с этим трудоустройством:
— OpenAI нанял Даниэля после того, как в 2021 году он написал статью "What 2026 Looks Like", где предсказал, как будут развиваться большие языковые модели; сейчас этот текст читается потрясающе, Даниэль оказался прав очень во многом, хотя в 2021-м его прогноз выглядел маловероятно, а для многих и безумно; так что Даниэль Кокотайло — один из лучших людей мира в плане прогнозов о развитии AI;
— а когда в 2024-м Кокотайло увольнялся из OpenAI, он оказался в центре скандала с non-disparagement clause: OpenAI пригрозил ему тем, что не даст продавать акции OpenAI, если Кокотайло будет что-то разглашать о рисках развития AI, и Даниэль... плюнул на акции, чтобы стать whistleblower'ом от AGI (говорят, в акциях OpenAI было около 85% всех денег его семьи).
Второго автора, надеюсь, моим читателям представлять не надо: это Скотт Александр, автор знаменитых блогов SlateStarCodex и AstralCodexTen. Если вы вдруг их не читали, начинайте прямо сейчас (можно начать отсюда или отсюда), хотя навёрстывать придётся много. В связи с "AI 2027" Даниэль Кокотайло и Скотт Александр уже успели появиться в подкасте Дваркеша Пателя, который я тоже, конечно, целиком рекомендую.
Другие авторы не так известны широкой публике; это:
— Томас Ларсен, сооснователь Center for AI Policy;
— Илай Лифланд, один из лидеров команды прогнозистов Samotsvety, один из тех самых superforecasters, которые умеют прогнозировать будущее лучше кого бы то ни было;
— Йонас Фоллмер, VC в Macroscopic Ventures, которому хватило предсказательной силы сделать одну из ранних инвестиций в Anthropic;
— Ромео Дин, магистрант Гарварда и руководитель тамошнего AI Safety Student Team.
В общем, очень внушительная команда. И сейчас все они считают, что вполне реально ожидать появления AGI к 2027–2028 годам. Если гонка разработок в области AGI в итоге победит заботу о безопасности (вам это кажется правдоподобным? мне — вполне), то примерно в 2030–2035 годах нас ждёт тот самый AI takeover, сценарий захвата мира искусственным интеллектом. Это их "плохая концовка", но в тексте предусмотрена и "хорошая", в которой люди сохраняют контроль над ситуацией. Впрочем, в хорошей концовке AGI тоже появляется и тоже трансформирует мир и общество до неузнаваемости.
Читать очень интересно. В интернете этот текст уже начали называть "Situational Awareness 2.0"; прошлогоднюю "Situational Awareness" Леопольда Ашенбреннера я в каждой обзорной лекции упоминаю, теперь, видимо, надо будет упоминать и "AI 2027".
Первый автор, Даниэль Кокотайло — это бывший сотрудник OpenAI. Два самых для нас важных факта про него связаны как раз с этим трудоустройством:
— OpenAI нанял Даниэля после того, как в 2021 году он написал статью "What 2026 Looks Like", где предсказал, как будут развиваться большие языковые модели; сейчас этот текст читается потрясающе, Даниэль оказался прав очень во многом, хотя в 2021-м его прогноз выглядел маловероятно, а для многих и безумно; так что Даниэль Кокотайло — один из лучших людей мира в плане прогнозов о развитии AI;
— а когда в 2024-м Кокотайло увольнялся из OpenAI, он оказался в центре скандала с non-disparagement clause: OpenAI пригрозил ему тем, что не даст продавать акции OpenAI, если Кокотайло будет что-то разглашать о рисках развития AI, и Даниэль... плюнул на акции, чтобы стать whistleblower'ом от AGI (говорят, в акциях OpenAI было около 85% всех денег его семьи).
Второго автора, надеюсь, моим читателям представлять не надо: это Скотт Александр, автор знаменитых блогов SlateStarCodex и AstralCodexTen. Если вы вдруг их не читали, начинайте прямо сейчас (можно начать отсюда или отсюда), хотя навёрстывать придётся много. В связи с "AI 2027" Даниэль Кокотайло и Скотт Александр уже успели появиться в подкасте Дваркеша Пателя, который я тоже, конечно, целиком рекомендую.
Другие авторы не так известны широкой публике; это:
— Томас Ларсен, сооснователь Center for AI Policy;
— Илай Лифланд, один из лидеров команды прогнозистов Samotsvety, один из тех самых superforecasters, которые умеют прогнозировать будущее лучше кого бы то ни было;
— Йонас Фоллмер, VC в Macroscopic Ventures, которому хватило предсказательной силы сделать одну из ранних инвестиций в Anthropic;
— Ромео Дин, магистрант Гарварда и руководитель тамошнего AI Safety Student Team.
В общем, очень внушительная команда. И сейчас все они считают, что вполне реально ожидать появления AGI к 2027–2028 годам. Если гонка разработок в области AGI в итоге победит заботу о безопасности (вам это кажется правдоподобным? мне — вполне), то примерно в 2030–2035 годах нас ждёт тот самый AI takeover, сценарий захвата мира искусственным интеллектом. Это их "плохая концовка", но в тексте предусмотрена и "хорошая", в которой люди сохраняют контроль над ситуацией. Впрочем, в хорошей концовке AGI тоже появляется и тоже трансформирует мир и общество до неузнаваемости.
Читать очень интересно. В интернете этот текст уже начали называть "Situational Awareness 2.0"; прошлогоднюю "Situational Awareness" Леопольда Ашенбреннера я в каждой обзорной лекции упоминаю, теперь, видимо, надо будет упоминать и "AI 2027".
Пераслаў з:
Экономика долгого времени



17.04.202516:14
В последний раз недвижимость в Великобритании была так же недоступна (средняя стоимость высока относительно средних заработков)
…проверяет свои записи…
в 1876-м году.
Пара комментариев:
1. Поразительная черта британской экономики: огромный объем временных рядов можно продлить назад то до 19-го века, то до 15-го. Многое записывалось и фиксировалось (и, главное, не сжигалось) столетиями.
2. Относительная дороговизна недвижимости, как мне кажется, реально дестабилизирует демократический процесс. Люди злятся, считают это несправедливым и голосуют за всякий fringe — то слева, то справа. Трудно продавать “центр” в ситуации, когда средний молодой человек купит себе дом примерно никогда.
3. У такого роста цены есть общий для многих стран корень — т.н. NIMBYism, Not In My Backyard, то есть, в “моем дворе не строить”. Те, кто уже владеет домами, блокирует строительство новых домов по соседству. Это чистая рента: владеешь активом и пользуешься им, чтобы защитить рентный доход. Здесь нет простого решения (NIMBY нельзя просто запретить — демократия), но, как мне кажется, толерантно относится к NIMBY просто аморально. Придется это ограничивать регулированием.
4. Потоки капитала между странами. Понятно, что частично рост недвижимости в Великобритании — это приток денег из развивающихся стран. И здесь тоже есть политическая опасность: свободные потоки капитала — это безусловно хорошо, но если эти свободные потоки капитала будут систематически лишать молодежь возможности приобрести свой дом или квартиру, то она проголосует за capital controls. Это надо осознать, принять как фактор и что-то с этим рынком делать.
@longviewecon
…проверяет свои записи…
в 1876-м году.
Пара комментариев:
1. Поразительная черта британской экономики: огромный объем временных рядов можно продлить назад то до 19-го века, то до 15-го. Многое записывалось и фиксировалось (и, главное, не сжигалось) столетиями.
2. Относительная дороговизна недвижимости, как мне кажется, реально дестабилизирует демократический процесс. Люди злятся, считают это несправедливым и голосуют за всякий fringe — то слева, то справа. Трудно продавать “центр” в ситуации, когда средний молодой человек купит себе дом примерно никогда.
3. У такого роста цены есть общий для многих стран корень — т.н. NIMBYism, Not In My Backyard, то есть, в “моем дворе не строить”. Те, кто уже владеет домами, блокирует строительство новых домов по соседству. Это чистая рента: владеешь активом и пользуешься им, чтобы защитить рентный доход. Здесь нет простого решения (NIMBY нельзя просто запретить — демократия), но, как мне кажется, толерантно относится к NIMBY просто аморально. Придется это ограничивать регулированием.
4. Потоки капитала между странами. Понятно, что частично рост недвижимости в Великобритании — это приток денег из развивающихся стран. И здесь тоже есть политическая опасность: свободные потоки капитала — это безусловно хорошо, но если эти свободные потоки капитала будут систематически лишать молодежь возможности приобрести свой дом или квартиру, то она проголосует за capital controls. Это надо осознать, принять как фактор и что-то с этим рынком делать.
@longviewecon
31.03.202521:16
Почему меня все это триггерит? Потому что из-за этого "климата идей" многое придется сложнейшим образом «доказывать». Доказывать, что рынок — это хорошо. Доказывать, что частная собственность — это хорошо. Доказывать, что низкие налоги — это может быть хорошо. Потому что если со всеми этими идеями в хэппи миле пакетом идет такой примитив, а на стороне разговора более высокого уровня хэппи милом идет налог на богатство, разросшееся регулирование и экономическая стагнация, то ничего хорошего из этого не выйдет. Эти люди дискредитируют хорошие экономические идеи. Лучше бы молчали и не портили будущее.
Пераслаў з:
Если быть точным



28.03.202511:40
Искусственный интеллект частично может заменить программистов и копирайтеров. Но страховщикам, ассистентам и бухгалтерам бояться пока нечего — их работа слишком «хаотична»
Большие языковые модели вроде ChatGPT успешно сдают сложные экзамены и пишут эссе, которые преподаватели не всегда могут отличить от работ студентов магистратуры. Возможности искусственного интеллекта превосходят человеческие, но получается своего рода парадокс: к масштабным изменениям на рынке труда это пока не приводит.
Простой пример: задачи бухгалтеров или туроператоров почти полностью совпадают с возможностями языковых моделей, считает обозреватель Financial Times Джон Берн-Мердок. Но число работников не сокращается, несмотря на распространение генеративного искусственного интеллекта. Вероятно, офисные профессии включают множество неструктурированных задач, которые модели пока не в состоянии решить.
Однако есть исключения: копирайтеры и разработчики программного обеспечения. Эти профессии имеют четкие и последовательные задачи, которые искусственный интеллект может выполнять гораздо быстрее и точнее.
Например, в США число занятых в этих профессиях резко упало за последние два года. Мердок связывает это с влиянием языковых моделей.
Почему же офисные профессии, такие как помощники руководителей или бухгалтеры, до сих пор не поддаются автоматизации искусственным интеллектом? Причина в том, что они требуют работы с параллельной обработкой нескольких потоков информации, нечетко сформулированными задачами и решением нескольких проблем одновременно. Эти «хаотичные» процессы трудно автоматизировать, в отличие от линейных и структурированных задач программистов или копирайтеров.
Так что у офисных работников есть преимущества, и пока за рабочие места им волноваться не стоит, считает Мердок.
Большие языковые модели вроде ChatGPT успешно сдают сложные экзамены и пишут эссе, которые преподаватели не всегда могут отличить от работ студентов магистратуры. Возможности искусственного интеллекта превосходят человеческие, но получается своего рода парадокс: к масштабным изменениям на рынке труда это пока не приводит.
Простой пример: задачи бухгалтеров или туроператоров почти полностью совпадают с возможностями языковых моделей, считает обозреватель Financial Times Джон Берн-Мердок. Но число работников не сокращается, несмотря на распространение генеративного искусственного интеллекта. Вероятно, офисные профессии включают множество неструктурированных задач, которые модели пока не в состоянии решить.
Однако есть исключения: копирайтеры и разработчики программного обеспечения. Эти профессии имеют четкие и последовательные задачи, которые искусственный интеллект может выполнять гораздо быстрее и точнее.
Например, в США число занятых в этих профессиях резко упало за последние два года. Мердок связывает это с влиянием языковых моделей.
Почему же офисные профессии, такие как помощники руководителей или бухгалтеры, до сих пор не поддаются автоматизации искусственным интеллектом? Причина в том, что они требуют работы с параллельной обработкой нескольких потоков информации, нечетко сформулированными задачами и решением нескольких проблем одновременно. Эти «хаотичные» процессы трудно автоматизировать, в отличие от линейных и структурированных задач программистов или копирайтеров.
Так что у офисных работников есть преимущества, и пока за рабочие места им волноваться не стоит, считает Мердок.
Пераслаў з:
Сиолошная

28.03.202520:14
Попросил Gemini 2.5 прочитать этот документ на 150 страниц (~45'000 токенов) и сделать саммари в виде последовательных шагов, а затем перевести на русский. Вот результат:
1. Возможности моделей предсказуемо и значительно улучшаются при увеличении "эффективных вычислений" (сырая вычислительная мощность, алгоритмическая эффективность, данные, системы вокруг них).
2. Такое масштабирование привело ИИ от уровня ~дошкольника (GPT-2) до уровня ~умного старшеклассника или студента первых курсов (GPT-4) всего за 4 года.
3. Продолжение этого тренда делает достижение AGI — ИИ, способного выполнять когнитивную работу уровня эксперта, например, проведение исследований в области ИИ — вероятным к 2027 году.
4. AGI вряд ли станет конечной точкой; системы AGI смогут автоматизировать сами исследования в области ИИ, вызвав рекурсивное самоулучшение или "взрыв интеллекта".
5. Этот взрыв интеллекта может сжать десятилетия алгоритмического прогресса, возможно, в один год, быстро приведя AGI к значительно превосходящему человека ИИ (Сверхинтеллекту, ASI).
6. Создание этих передовых систем требует беспрецедентной промышленной мобилизации для вычислительной инфраструктуры (GPU, энергия, дата-центры), стоимостью в триллионы долларов.
7. Это масштабное техно-капитальное строительство уже начинается, движимое ожидаемой экономической отдачей и интенсивной конкуренцией.
8. Однако текущие методы обеспечения безопасности в ведущих лабораториях ИИ совершенно недостаточны для защиты критически важных секретов (алгоритмов и весов моделей), необходимых для создания AGI.
9. Эти важные секреты могут быть легко украдены государствами-противниками, такими как Китай, что потенциально сведет на нет лидерство США/Запада в гонке за AGI.
11. Одновременно, надежное управление системами ИИ, значительно превосходящими человека по интеллекту (супералаймент), является нерешенной технической проблемой; текущие методы, вероятно, не будут масштабироваться и работать для будущих систем.
12. Неспособность решить проблему супералаймента до или во время быстрого взрыва интеллекта может привести к катастрофическим последствиям, поскольку мы будем развертывать все более мощные, плохо контролируемые и непонятные нам системы.
13. Сверхинтеллект предоставит решающее военное и экономическое преимущество, превращая гонку за AGI в геополитическое соревнование с высокими ставками, в первую очередь между США и Китаем.
14. США и их союзники должны сохранять лидерство в этой гонке, чтобы обеспечить выживание либеральной демократии и создать необходимый запас прочности для решения проблем супералаймента. Согласно автору, если авторитарная держава (например, Китай) первой достигнет ASI, она сможет навязать свои недемократические ценности всем странам, навсегда подавить свободы и исключить возможность процветания демократических систем. Лидерство США/союзников рассматривается как необходимое условие для предотвращения такого исхода, сохранения условий для свободы и плюрализма, а также для получения "запаса прочности" для безопасного решения проблемы алаймента без давления гонки "на опережение".
15. Сочетание чрезвычайной мощи, катастрофических рисков (ошибки алаймента, злоупотребление системами) и критической важности для национальной безопасности означает, что частные стартапы в одиночку не могут ответственно управлять разработкой сверхинтеллекта.
16. Поэтому правительство США неизбежно будет глубоко вовлечено, что, вероятно, приведет к созданию национальной программы по AGI ("Проекта") для управления безопасностью, рисками и геополитическими ставками, по аналогии с Манхэттенским проектом.
1. Возможности моделей предсказуемо и значительно улучшаются при увеличении "эффективных вычислений" (сырая вычислительная мощность, алгоритмическая эффективность, данные, системы вокруг них).
2. Такое масштабирование привело ИИ от уровня ~дошкольника (GPT-2) до уровня ~умного старшеклассника или студента первых курсов (GPT-4) всего за 4 года.
3. Продолжение этого тренда делает достижение AGI — ИИ, способного выполнять когнитивную работу уровня эксперта, например, проведение исследований в области ИИ — вероятным к 2027 году.
4. AGI вряд ли станет конечной точкой; системы AGI смогут автоматизировать сами исследования в области ИИ, вызвав рекурсивное самоулучшение или "взрыв интеллекта".
5. Этот взрыв интеллекта может сжать десятилетия алгоритмического прогресса, возможно, в один год, быстро приведя AGI к значительно превосходящему человека ИИ (Сверхинтеллекту, ASI).
6. Создание этих передовых систем требует беспрецедентной промышленной мобилизации для вычислительной инфраструктуры (GPU, энергия, дата-центры), стоимостью в триллионы долларов.
7. Это масштабное техно-капитальное строительство уже начинается, движимое ожидаемой экономической отдачей и интенсивной конкуренцией.
8. Однако текущие методы обеспечения безопасности в ведущих лабораториях ИИ совершенно недостаточны для защиты критически важных секретов (алгоритмов и весов моделей), необходимых для создания AGI.
9. Эти важные секреты могут быть легко украдены государствами-противниками, такими как Китай, что потенциально сведет на нет лидерство США/Запада в гонке за AGI.
11. Одновременно, надежное управление системами ИИ, значительно превосходящими человека по интеллекту (супералаймент), является нерешенной технической проблемой; текущие методы, вероятно, не будут масштабироваться и работать для будущих систем.
12. Неспособность решить проблему супералаймента до или во время быстрого взрыва интеллекта может привести к катастрофическим последствиям, поскольку мы будем развертывать все более мощные, плохо контролируемые и непонятные нам системы.
13. Сверхинтеллект предоставит решающее военное и экономическое преимущество, превращая гонку за AGI в геополитическое соревнование с высокими ставками, в первую очередь между США и Китаем.
14. США и их союзники должны сохранять лидерство в этой гонке, чтобы обеспечить выживание либеральной демократии и создать необходимый запас прочности для решения проблем супералаймента. Согласно автору, если авторитарная держава (например, Китай) первой достигнет ASI, она сможет навязать свои недемократические ценности всем странам, навсегда подавить свободы и исключить возможность процветания демократических систем. Лидерство США/союзников рассматривается как необходимое условие для предотвращения такого исхода, сохранения условий для свободы и плюрализма, а также для получения "запаса прочности" для безопасного решения проблемы алаймента без давления гонки "на опережение".
15. Сочетание чрезвычайной мощи, катастрофических рисков (ошибки алаймента, злоупотребление системами) и критической важности для национальной безопасности означает, что частные стартапы в одиночку не могут ответственно управлять разработкой сверхинтеллекта.
16. Поэтому правительство США неизбежно будет глубоко вовлечено, что, вероятно, приведет к созданию национальной программы по AGI ("Проекта") для управления безопасностью, рисками и геополитическими ставками, по аналогии с Манхэттенским проектом.


07.04.202508:10
Прочитать-пересказать?
31.03.202514:38
Дорогие читатели, рассуждающие на тему заимствования российских авторитарных практик в Европе: пожалуйста, почитайте что делали западные демократии во время холодной войны для защиты своих режимов от советского влияния. Мы пока даже рядом «не там». И практики РФ тут вообще не при чем. Никакой РФ на свете не было, когда это все практиковалось.
04.04.202514:11
Дональд Трамп много раз обещал остановить войну. Чего он не сказал — что его план это вогнать глобальную экономику в рецессию и всерьез обвалить мировую рыночную цену на нефть.
25.03.202512:39
Известный типаж: не умный, но умненький; уверенный, что может разобраться в любом вопросе минут за 15-20; высказывается с поразительной степенью уверенности. Если такой человек потратил на одну тему не 15-20 минут, но вечер, то это, считай, степень получил. А говорит уверенно, очень уверенно, так уверенно, что это уже работает как сигналлинг: на другом конце потребитель думает: ну не может же быть так, чтобы он так уверенно говорил совсем глупости, наверное-возможно-нельзя-исключать там что-то есть.
А некоторая несправедливость ситуации состоит в том, что разные профессии подвержены коррозии, которую производят эти люди, по-разному.
Скажем, особое сочувствие вызывают историки и врачи. Они принимают тяжелый удар. Экономистам, все-таки, чуть легче: личные экономические ошибки — это быстро и очень эксплицитно «больно». Раз так, потребитель информации имеет стимул проверять ее чуть более детально. А безумные исторические теории или лечение без лечения? Это либо не больно, либо видно не так ярко и не так быстро. Вот здесь умненькие особенно процветают.
А некоторая несправедливость ситуации состоит в том, что разные профессии подвержены коррозии, которую производят эти люди, по-разному.
Скажем, особое сочувствие вызывают историки и врачи. Они принимают тяжелый удар. Экономистам, все-таки, чуть легче: личные экономические ошибки — это быстро и очень эксплицитно «больно». Раз так, потребитель информации имеет стимул проверять ее чуть более детально. А безумные исторические теории или лечение без лечения? Это либо не больно, либо видно не так ярко и не так быстро. Вот здесь умненькие особенно процветают.
25.03.202514:09
Вот я как раз чувствую в себе такое как Head of Product в стартапах. Несколько факторов слилось воедино:
- На экзаменах на физтехе научили в любой ситуации говорить уверенно, пусть даже и неправильно. Очень велика вероятность, что экзаменатор сам с трудом понимает проблему и решит, что это он просто что-то не уловил в твоем ходе размышлений.
- В стартапах еще добавляется вечный fake it till you make it: ты слышишь от потенциального клиента "а вот это вы умеете?", почти всегда отвечаешь да, а потом пытаешься сделать это за пару недель.
- Еще накидывают инвесторы + фаундеры, которые в основном хотят слышать победоносные формулировки и полную уверенность в успехе. Любая рациональность в духе "95% стартапов не получат Series B" недопустима.
Ну и вишенкой на торте: много в чем приходится разбираться буквально за вечер. После сотни итераций в разных бизнес-моделях или технических сетапах клиента у тебя действительно появляется ощущение экспертности за два часа. Иначе можно с ума сойти от своей некомпетентности и неуверенности.
- На экзаменах на физтехе научили в любой ситуации говорить уверенно, пусть даже и неправильно. Очень велика вероятность, что экзаменатор сам с трудом понимает проблему и решит, что это он просто что-то не уловил в твоем ходе размышлений.
- В стартапах еще добавляется вечный fake it till you make it: ты слышишь от потенциального клиента "а вот это вы умеете?", почти всегда отвечаешь да, а потом пытаешься сделать это за пару недель.
- Еще накидывают инвесторы + фаундеры, которые в основном хотят слышать победоносные формулировки и полную уверенность в успехе. Любая рациональность в духе "95% стартапов не получат Series B" недопустима.
Ну и вишенкой на торте: много в чем приходится разбираться буквально за вечер. После сотни итераций в разных бизнес-моделях или технических сетапах клиента у тебя действительно появляется ощущение экспертности за два часа. Иначе можно с ума сойти от своей некомпетентности и неуверенности.
Увайдзіце, каб разблакаваць больш функцый.