Пераслаў з:
Метаверсище и ИИще

12.02.202518:38
Если честно, то даже я приподохренел.
Тут у нас была дискуссия (бессодержательная по большей части) за рекламу, ну штош, держите рекламы.
Давайте вы сначала посмотрите ролик со звуком(!), а потом почитаете тексты ниже...
Пришлось смотреть 3 раза.
Конечно, я испортил весь эффект, тем что сразу акцентировал внимание на ролике. Но таки да, это генератив от Veo2. И тут Гугл, похоже, пока непобиваем.
Я вначале подумал, что дядьки с камерами настоящие и щас нам расскажут про совмещение ИИ и видео.
Но из настоящего тут только говорящая голова со странным акцентом в части behind the scenes
Пруф тут: https://www.youtube.com/watch?v=VqLWWYfCEbI
Нормальный такой 𝘢𝘯 𝘪𝘯𝘥𝘦𝘱𝘦𝘯𝘥𝘦𝘯𝘵 𝘤𝘳𝘦𝘢𝘵𝘪𝘷𝘦 𝘦𝘹𝘦𝘳𝘤𝘪𝘴𝘦 - как пишет автор. Один. Без ансамбля.
От себя добавлю, что закадровый нарратив для ИИ-роликов - это прям палочка выручалочка, недавно об этом думал.
Встречал немного снобистское мнение в прошлой жизни, что закадровый нарратив появляется там, где режиссер не может справиться со сценой или сценарием. Для ИИ - это идеальные костыли. Поглядите ролик еще раз.
И спать.
P.S. Огромное спасибо Всеволоду Тарану за такой шикарный ИИ-подгон.
@cgevent
Тут у нас была дискуссия (бессодержательная по большей части) за рекламу, ну штош, держите рекламы.
Давайте вы сначала посмотрите ролик со звуком(!), а потом почитаете тексты ниже...
Пришлось смотреть 3 раза.
Конечно, я испортил весь эффект, тем что сразу акцентировал внимание на ролике. Но таки да, это генератив от Veo2. И тут Гугл, похоже, пока непобиваем.
Я вначале подумал, что дядьки с камерами настоящие и щас нам расскажут про совмещение ИИ и видео.
Но из настоящего тут только говорящая голова со странным акцентом в части behind the scenes
Пруф тут: https://www.youtube.com/watch?v=VqLWWYfCEbI
Нормальный такой 𝘢𝘯 𝘪𝘯𝘥𝘦𝘱𝘦𝘯𝘥𝘦𝘯𝘵 𝘤𝘳𝘦𝘢𝘵𝘪𝘷𝘦 𝘦𝘹𝘦𝘳𝘤𝘪𝘴𝘦 - как пишет автор. Один. Без ансамбля.
От себя добавлю, что закадровый нарратив для ИИ-роликов - это прям палочка выручалочка, недавно об этом думал.
Встречал немного снобистское мнение в прошлой жизни, что закадровый нарратив появляется там, где режиссер не может справиться со сценой или сценарием. Для ИИ - это идеальные костыли. Поглядите ролик еще раз.
И спать.
P.S. Огромное спасибо Всеволоду Тарану за такой шикарный ИИ-подгон.
@cgevent
07.02.202519:14
Кстати, в эту тему у меня есть давно интересующая меня дилемма.
Вот у нас есть автомобили, из-за аварий с которыми ежегодно погибают условных 10 млн. человек. Водителей, которые в них виноваты, наказывают в соответствии с законом, сажают в тюрьму и т.п.
Теперь у нас есть разработчики беспилотных автомобилей, которые смогли их запустить и сделать так, что теперь погибает только 5 млн. человек.
Как быть с наказаниями в такой ситуации?
- Наказывать пассажиров/владельцев, очевидно, нерационально, так как они не управляют процессом, и это никак не скажется на результате.
- Наказывать разработчиков тоже как будто не за что: они спасли 50% потенциальных жертв.
- Не наказывать никого как-то странно: во-первых, у нас тут 5 млн. человек погибло, как это никто не виноват? Да и должны же у разработчиков быть стимулы делать хорошую систему, иначе можно и увеличить количество ДТП.
Во-вторых, в полупараноидальных сценариях можно себе представить, что понимающие безнаказанность разработчики могут понемногу этим пользовать и устранять нужных людей.
Какой правильный баланс? Если кто знает особенности регуляторики беспилотников, подсказывайте)
Вот у нас есть автомобили, из-за аварий с которыми ежегодно погибают условных 10 млн. человек. Водителей, которые в них виноваты, наказывают в соответствии с законом, сажают в тюрьму и т.п.
Теперь у нас есть разработчики беспилотных автомобилей, которые смогли их запустить и сделать так, что теперь погибает только 5 млн. человек.
Как быть с наказаниями в такой ситуации?
- Наказывать пассажиров/владельцев, очевидно, нерационально, так как они не управляют процессом, и это никак не скажется на результате.
- Наказывать разработчиков тоже как будто не за что: они спасли 50% потенциальных жертв.
- Не наказывать никого как-то странно: во-первых, у нас тут 5 млн. человек погибло, как это никто не виноват? Да и должны же у разработчиков быть стимулы делать хорошую систему, иначе можно и увеличить количество ДТП.
Во-вторых, в полупараноидальных сценариях можно себе представить, что понимающие безнаказанность разработчики могут понемногу этим пользовать и устранять нужных людей.
Какой правильный баланс? Если кто знает особенности регуляторики беспилотников, подсказывайте)
Пераслаў з:
Hi, AI | Новости технологий



03.02.202518:32
💻 OpenAI представили Deep Research — продвинутого агента для исследований
Сегодня OpenAI показали Deep Research — новую агентную систему, которая может самостоятельно проводить комплексные исследования в интернете.
Что умеет:
➡️ Один запрос Deep Research обрабатывает до получаса, но выдает полноценное исследование по теме со ссылкой на источники.
➡️ Сотрудник OpenAI рассказал, что за 10 минут агент проводит работу, которая заняла бы у него самого до трех часов.
➡️ Работает на специальной версии o3, оптимизированной для анализа разных источников, и использует Python.
➡️ Агент проходит сложнейший на сегодня бенчмарк «Последний экзамен человечества» на 26,6%. Презентованная в конце прошлой недели o3-mini — всего на 13%.
➡️ Deep Research уже работает в подписке Pro ($200/мес.) с лимитом 100 запросов в месяц. Вскоре доступ получат все платные подписчики с ограничением в 10 запросов в месяц.
Deep Research галлюцинирует гораздо меньше других моделей OpenAI, хотя и не лишена этого недостатка полностью. Модель не просто изучает контент, но и создает его, говорит главный исследователь OpenAI Марк Чен. «Наша конечная цель — это модель, которая может сама выявлять и открывать новые знания», — объясняет он.
Еще по теме:
➡️ Operator: первый агент OpenAI
➡️ OpenAI выпустили o3-mini
👋 Подпишитесь на Hi, AI!
#новости #агенты #OpenAI
Сегодня OpenAI показали Deep Research — новую агентную систему, которая может самостоятельно проводить комплексные исследования в интернете.
Что умеет:
➡️ Один запрос Deep Research обрабатывает до получаса, но выдает полноценное исследование по теме со ссылкой на источники.
➡️ Сотрудник OpenAI рассказал, что за 10 минут агент проводит работу, которая заняла бы у него самого до трех часов.
➡️ Работает на специальной версии o3, оптимизированной для анализа разных источников, и использует Python.
➡️ Агент проходит сложнейший на сегодня бенчмарк «Последний экзамен человечества» на 26,6%. Презентованная в конце прошлой недели o3-mini — всего на 13%.
➡️ Deep Research уже работает в подписке Pro ($200/мес.) с лимитом 100 запросов в месяц. Вскоре доступ получат все платные подписчики с ограничением в 10 запросов в месяц.
Deep Research галлюцинирует гораздо меньше других моделей OpenAI, хотя и не лишена этого недостатка полностью. Модель не просто изучает контент, но и создает его, говорит главный исследователь OpenAI Марк Чен. «Наша конечная цель — это модель, которая может сама выявлять и открывать новые знания», — объясняет он.
Еще по теме:
➡️ Operator: первый агент OpenAI
➡️ OpenAI выпустили o3-mini
👋 Подпишитесь на Hi, AI!
#новости #агенты #OpenAI
28.01.202510:12
Вчера был день технических и финансовых новостей про DeepSeek, сегодня день мемов про DeepSeek :)
11.02.202517:54
02.02.202511:41
А вот и интересные законопроекты по запрету китайского ИИ в США пошли 🔥
PROHIBITION ON IMPORTATION.—On and after the date that is 180 days after the date of the enactment of this Act, the importation into the United States of artificial intelligence or generative artificial intelligence technology or intellectual property developed or produced in the People’s Republic of China is prohibited.
PROHIBITION ON EXPORT.—On and after the date that is 180 days after the date of the enactment of this Act, the export, reexport, or in-country transfer of artificial intelligence or generative artificial intelligence technology or intellectual property to or within the Peo8 ple’s Republic of China is prohibited.
28.01.202509:38




11.02.202517:54
Очень забавный диалог Сэма Альтмана (основатель и CEO OpenAI) и Илона Маска (помимо прочего, еще и владельца конкурента OpenAI - X.AI) в социальных сетях, последовавший за предложением Маска о покупке OpenAI за $97B.
Swindler, scam - мошенник
Swindler, scam - мошенник
Пераслаў з:
эйай ньюз



06.02.202518:33
Имба для удалёнщиков — Pickle
Записываем 3 минуты своей говорящей головы. Затем ждём сутки, а то и двое, пока тренируется моделька — и вуаля, готово! Лежим на диване во время мита, пока ваш виртуальный клон с реалтайм липсинком отсиживается за вас перед веб-камерой.
Это молодой стартап с командой из 5–7 человек, так что технических деталей никаких. Есть только подписка, по которой за 24 бакса в месяц можно наговорить аж на 1000 минут (чего, надеюсь, хватит всем). Пока работает только на Mac — поддержка остальных устройств в разработке.
Пообещайте, что не будете пользоваться этой штукой 😗
getpickle.ai
@ai_newz
Записываем 3 минуты своей говорящей головы. Затем ждём сутки, а то и двое, пока тренируется моделька — и вуаля, готово! Лежим на диване во время мита, пока ваш виртуальный клон с реалтайм липсинком отсиживается за вас перед веб-камерой.
Это молодой стартап с командой из 5–7 человек, так что технических деталей никаких. Есть только подписка, по которой за 24 бакса в месяц можно наговорить аж на 1000 минут (чего, надеюсь, хватит всем). Пока работает только на Mac — поддержка остальных устройств в разработке.
Пообещайте, что не будете пользоваться этой штукой 😗
getpickle.ai
@ai_newz
01.02.202517:47
Когда хотел прокатиться на волне хайпа, но утонул)
Легкая и забавная оказия для субботнего вечера - СМИ массово репостят "новость" от ИА Панорама о том, что DeepSeek создан на основе разработок советских ученых 1980-х годов 😁
«Не буду лукавить, наш искусственный интеллект был создан на базе советских разработок, а именно – системы ОГАС академика Глушкова. Без неё мы бы никогда не догнали американцев с их ChatGPT», – сказал Вэньфэн.
P.S. Новость - шуточный фейк, если что) но серьезные издания стали его репостить
Легкая и забавная оказия для субботнего вечера - СМИ массово репостят "новость" от ИА Панорама о том, что DeepSeek создан на основе разработок советских ученых 1980-х годов 😁
«Не буду лукавить, наш искусственный интеллект был создан на базе советских разработок, а именно – системы ОГАС академика Глушкова. Без неё мы бы никогда не догнали американцев с их ChatGPT», – сказал Вэньфэн.
P.S. Новость - шуточный фейк, если что) но серьезные издания стали его репостить


09.02.202509:49
Рынок голосовых агентов - обзор от венчурных капиталистов из a16z
Документ полезен тем, что эксперты из a16z не только анализируют существующие голосовые агенты, но и делятся стратегиями отбора компаний для инвестиций. Итак:
1⃣ По мнению авторов, у голосовых агентов начинается переход по продуктовой кривой от инноваторов к ранним последователям.
В одном только акселераторе стартапов YCombinator 90 компаний из этой сферы, примерно половина из которых приходятся на Fintech, Edtech, Общие медицинские и Операционные сервисы.
2⃣ Всего в карте рынка - почти 200 компаний, которые делают голосовых агентов для разных сфер бизнеса, и более 50 ассистентов B2C, причем для людей преобладают агенты для обучения
3⃣ Критерии отборы компаний для инвестиций:
- Компания должна работать с отраслью, где телефон это предпочтительный канал коммуникации в силу экономики или регуляторики;
- Звонки ограничены по времени и содержанию;
- Голосовые агенты дают снижение издержек на 50%+ при том же результате, что у человека;
- Звонки очень важны для бизнеса клиента, и он будет готов много платить, чтобы не терять их. При этом звонки не критичны для звонящего потребителя, и ошибки приемлимы;
- Звонки будут генерировать дополнительную выручку клиенту, либо позволят радикально снизить издержки в отраслях с низкой маржинальностью;
- Простая (оптимально - самостоятельная и силами клиента) интеграция в ИТ-инфраструктуру клиента, особенно критично для среднего и малого бизнеса
4⃣ Интересно, что в октябре a16z уже публиковали похожие критерии оценки, но там не было последнего пункта про легкую интеграцию - видимо, один из последних инсайтов
В целом, для меня масштаб уже существующего рынка голосовых агентов это интересное открытие, интересно было бы посмотреть какие-то данные по метрикам и экономике/финансам всех этих компаний - возможно, тогда будет еще один пост по теме
#обзоры
Документ полезен тем, что эксперты из a16z не только анализируют существующие голосовые агенты, но и делятся стратегиями отбора компаний для инвестиций. Итак:
1⃣ По мнению авторов, у голосовых агентов начинается переход по продуктовой кривой от инноваторов к ранним последователям.
В одном только акселераторе стартапов YCombinator 90 компаний из этой сферы, примерно половина из которых приходятся на Fintech, Edtech, Общие медицинские и Операционные сервисы.
2⃣ Всего в карте рынка - почти 200 компаний, которые делают голосовых агентов для разных сфер бизнеса, и более 50 ассистентов B2C, причем для людей преобладают агенты для обучения
3⃣ Критерии отборы компаний для инвестиций:
- Компания должна работать с отраслью, где телефон это предпочтительный канал коммуникации в силу экономики или регуляторики;
- Звонки ограничены по времени и содержанию;
- Голосовые агенты дают снижение издержек на 50%+ при том же результате, что у человека;
- Звонки очень важны для бизнеса клиента, и он будет готов много платить, чтобы не терять их. При этом звонки не критичны для звонящего потребителя, и ошибки приемлимы;
- Звонки будут генерировать дополнительную выручку клиенту, либо позволят радикально снизить издержки в отраслях с низкой маржинальностью;
- Простая (оптимально - самостоятельная и силами клиента) интеграция в ИТ-инфраструктуру клиента, особенно критично для среднего и малого бизнеса
4⃣ Интересно, что в октябре a16z уже публиковали похожие критерии оценки, но там не было последнего пункта про легкую интеграцию - видимо, один из последних инсайтов
В целом, для меня масштаб уже существующего рынка голосовых агентов это интересное открытие, интересно было бы посмотреть какие-то данные по метрикам и экономике/финансам всех этих компаний - возможно, тогда будет еще один пост по теме
#обзоры
Пераслаў з:
Hi, AI | Новости технологий

31.01.202518:28
🔄 «Последний экзамен человечества» — самый сложный тест для ИИ
Для оценки способностей ИИ-моделей им дают специальные тесты — бенчмарки. Они проверяют нейросети в разных областях — от математики до переводов.
С помощью самых сложных бенчмарков специалисты отслеживают, как близки существующие модели к сильному ИИ и оценивают их безопасность.
Исследователи Центра безопасности ИИ и компании Scale AI создали «Последний экзамен человечества» — самый сложный тест, которому когда-либо подвергали искусственный интеллект.
Тест из 3 тыс. вопросов находится в открытом доступе. Его составляли около тысячи ученых (большинство — доктора наук) из 50 стран и разных областей — от аналитической философии до высшей математики и ракетостроения. Авторы 50 лучших вопросов получили по $5 тыс.
Экзамен решали шесть ведущих ИИ-моделей: Gemini 2.0 от Google, Claude 3.5 Sonnet от Anthropic, Grok-2 от xAI, GPT-4o и o1 от OpenAI и новая рассуждающая модель DeepSeek-R1 от китайского стартапа. Никто не набрал больше 10% ⤴️
Самые высокие баллы получили OpenAI-o1 (9,1%) и DeepSeek-R1 (9,4%), но китайская модель не решала часть задач, так как не умеет работать с картинками.
Создатели теста убеждены, что показатели будут быстро расти и к концу 2025 года могут превысить 50%. Возможно, тогда понадобится новый бенчмарк, где ИИ будут задавать вопросы, на которые у людей нет ответов.
Но даже такой мощный ИИ вряд ли станет угрозой ученым-людям, считает один из авторов теста, физик из Беркли Кевин Чжоу. «Есть огромная разница между тем, чтобы сдать тест и быть практикующим физиком или исследователем. Даже ИИ, способный ответить на эти вопросы, может быть не готов помочь в исследованиях, которые менее структурированы», — объясняет он.
Еще по теме:
🟠 Успех DeepSeek: как китайская open source модель бросает вызов ChatGPT
🟠 Инженеры Google хотят сделать нейросети эффективнее, научив их удивляться и забывать
👋 Подпишитесь на Hi, AI!
#бенчмарк #AGI #новости
Для оценки способностей ИИ-моделей им дают специальные тесты — бенчмарки. Они проверяют нейросети в разных областях — от математики до переводов.
С помощью самых сложных бенчмарков специалисты отслеживают, как близки существующие модели к сильному ИИ и оценивают их безопасность.
Исследователи Центра безопасности ИИ и компании Scale AI создали «Последний экзамен человечества» — самый сложный тест, которому когда-либо подвергали искусственный интеллект.
Тест из 3 тыс. вопросов находится в открытом доступе. Его составляли около тысячи ученых (большинство — доктора наук) из 50 стран и разных областей — от аналитической философии до высшей математики и ракетостроения. Авторы 50 лучших вопросов получили по $5 тыс.
❓ Пример вопроса:
У колибри, относящихся к отряду Apodiformes, есть уникальная двусторонняя парная овальная кость (сесамовидная кость), встроенная в каудолатеральную часть расширенного крестообразного апоневроза вставки m. depressor caudae. Сколько парных сухожилий поддерживается этой сесамовидной костью? Ответьте числом.
Экзамен решали шесть ведущих ИИ-моделей: Gemini 2.0 от Google, Claude 3.5 Sonnet от Anthropic, Grok-2 от xAI, GPT-4o и o1 от OpenAI и новая рассуждающая модель DeepSeek-R1 от китайского стартапа. Никто не набрал больше 10% ⤴️
Самые высокие баллы получили OpenAI-o1 (9,1%) и DeepSeek-R1 (9,4%), но китайская модель не решала часть задач, так как не умеет работать с картинками.
Создатели теста убеждены, что показатели будут быстро расти и к концу 2025 года могут превысить 50%. Возможно, тогда понадобится новый бенчмарк, где ИИ будут задавать вопросы, на которые у людей нет ответов.
Но даже такой мощный ИИ вряд ли станет угрозой ученым-людям, считает один из авторов теста, физик из Беркли Кевин Чжоу. «Есть огромная разница между тем, чтобы сдать тест и быть практикующим физиком или исследователем. Даже ИИ, способный ответить на эти вопросы, может быть не готов помочь в исследованиях, которые менее структурированы», — объясняет он.
Еще по теме:
🟠 Успех DeepSeek: как китайская open source модель бросает вызов ChatGPT
🟠 Инженеры Google хотят сделать нейросети эффективнее, научив их удивляться и забывать
👋 Подпишитесь на Hi, AI!
#бенчмарк #AGI #новости
Паказана 1 - 10 з 10
Увайдзіце, каб разблакаваць больш функцый.