

13.04.202515:02
Уважаемые подписчики, мы объединились с коллегами-юристами и сделать подборку профессиональных каналов, в которую, в том числе, входит единый канал с полезными юридическими материалами от каждого из нас.
Что есть в канале "Полезные юридические материалы"?
— Гайды и чек-листы по решению правовых вопросов в самых разных сферах;
— Подборки судебной практики;
— Обзоры новостей и нормативных актов.
Канал "Полезные юридические материалы" находится в нашей общей подборке, так что присоединяйтесь 🔥
Что есть в канале "Полезные юридические материалы"?
— Гайды и чек-листы по решению правовых вопросов в самых разных сферах;
— Подборки судебной практики;
— Обзоры новостей и нормативных актов.
Канал "Полезные юридические материалы" находится в нашей общей подборке, так что присоединяйтесь 🔥
09.04.202507:04
🇺🇸📖 Обратный эффект слабого регулирования ИИ в сфере безопасности
Корнеллский университет и Университет Карнеги-Меллона выпустили новое исследование The Backfiring Effect of Weak AI Safety Regulation. Авторы пришли к выводу, что плохо продуманные меры регулирования безопасности ИИ могут принести больше вреда, чем пользы. Если требования об ответственном ИИ будут касаться только прикладных специалистов — тех, кто адаптирует ИИ общего назначения к конкретным задачам, — это может непреднамеренно снизить общую безопасность системы. Авторы утверждают, что распределённая регуляторная ответственность по всей цепочке жизненного цикла моделей ИИ, начиная от создателей базовых моделей, приведет к более устойчивым результатам как в плане безопасности, так и производительности.
Исследование выпущено на фоне стремительного роста предложений по регулированию в области ИИ в США, которые пока не сложились в единый подход. Авторы обращают внимание на риски изолированного подхода к регулированию и предлагают стратегию скоординированных действий всех участников.
#ИИ #AISafety #AIRegulation
Корнеллский университет и Университет Карнеги-Меллона выпустили новое исследование The Backfiring Effect of Weak AI Safety Regulation. Авторы пришли к выводу, что плохо продуманные меры регулирования безопасности ИИ могут принести больше вреда, чем пользы. Если требования об ответственном ИИ будут касаться только прикладных специалистов — тех, кто адаптирует ИИ общего назначения к конкретным задачам, — это может непреднамеренно снизить общую безопасность системы. Авторы утверждают, что распределённая регуляторная ответственность по всей цепочке жизненного цикла моделей ИИ, начиная от создателей базовых моделей, приведет к более устойчивым результатам как в плане безопасности, так и производительности.
Исследование выпущено на фоне стремительного роста предложений по регулированию в области ИИ в США, которые пока не сложились в единый подход. Авторы обращают внимание на риски изолированного подхода к регулированию и предлагают стратегию скоординированных действий всех участников.
#ИИ #AISafety #AIRegulation
04.04.202507:04
🇪🇺 Эксперты выступают за обязательное соблюдение прав человека при регулировании ИИ
Эксперты из Центра демократии и технологий в Европе, Wadhwani AI Center и Калифорнийского университета в Беркли опубликовали совместное мнение о последнем проекте Кодекса практики ИИ, в котором ключевые риски, связанные с правами человека, переведены в категорию «необязательных» (optional) при разработке мер минимизации рисков. Речь идет о рисках для общественного здоровья, безопасности, конфиденциальности, защиты от дискриминации и прав детей.
Эксперты считают, что такой подход противоречит как Закону ЕС об ИИ, так и международным соглашениям, а игнорирование рисков для прав человека подрывает саму идею ответственного развития ИИ.
#ИИ #AI
Эксперты из Центра демократии и технологий в Европе, Wadhwani AI Center и Калифорнийского университета в Беркли опубликовали совместное мнение о последнем проекте Кодекса практики ИИ, в котором ключевые риски, связанные с правами человека, переведены в категорию «необязательных» (optional) при разработке мер минимизации рисков. Речь идет о рисках для общественного здоровья, безопасности, конфиденциальности, защиты от дискриминации и прав детей.
Эксперты считают, что такой подход противоречит как Закону ЕС об ИИ, так и международным соглашениям, а игнорирование рисков для прав человека подрывает саму идею ответственного развития ИИ.
#ИИ #AI
01.04.202507:04
🇺🇸 Суд поддержал рассмотрение иска The New York Times против OpenAI
В США суд дал движение иску The New York Times против OpenAI в отношении нарушения авторских прав, несмотря на попытку ответчика добиться его прекращения. Хотя суд сузил некоторые требования, основные обвинения в нарушении авторских прав остаются в силе. В рамках разбирательства будет рассмотрен вопрос о том, является ли использование контента The New York Times для обучения ChatGPT законным в рамках доктрины добросовестного использования (fair use) или нет.
#ИИ #FairUse #OpenAI #NYT
В США суд дал движение иску The New York Times против OpenAI в отношении нарушения авторских прав, несмотря на попытку ответчика добиться его прекращения. Хотя суд сузил некоторые требования, основные обвинения в нарушении авторских прав остаются в силе. В рамках разбирательства будет рассмотрен вопрос о том, является ли использование контента The New York Times для обучения ChatGPT законным в рамках доктрины добросовестного использования (fair use) или нет.
#ИИ #FairUse #OpenAI #NYT
27.03.202507:04
🌐 Новые исследования OpenAI и MIT выявили у пользователей ИИ случаи одиночества и эмоциональной зависимости
Совместное исследование OpenAI и MIT Media Lab показало, что частое использование ChatGPT коррелирует с повышенным уровнем одиночества и эмоциональной зависимости у некоторых пользователей. Хотя большинство взаимодействий с чат-ботами не имеют эмоциональной окраски, есть пользователи, которые использует ИИ так, как если бы он заменял личные отношения — некоторые даже считают ChatGPT «другом».
Исследования выявили, что длительное ежедневное общение с чат-ботами, особенно в голосовом режиме, может негативно влиять на самочувствие, в то время как умеренные личные беседы, напротив, снижают уровень эмоциональной зависимости. Эти выводы хорошо иллюстрируют необходимость дальнейшего изучения влияния взаимодействия человека и ИИ на психическое здоровье и социальное поведение.
#ИИ #ИИЭтика #ChatGPT
Совместное исследование OpenAI и MIT Media Lab показало, что частое использование ChatGPT коррелирует с повышенным уровнем одиночества и эмоциональной зависимости у некоторых пользователей. Хотя большинство взаимодействий с чат-ботами не имеют эмоциональной окраски, есть пользователи, которые использует ИИ так, как если бы он заменял личные отношения — некоторые даже считают ChatGPT «другом».
Исследования выявили, что длительное ежедневное общение с чат-ботами, особенно в голосовом режиме, может негативно влиять на самочувствие, в то время как умеренные личные беседы, напротив, снижают уровень эмоциональной зависимости. Эти выводы хорошо иллюстрируют необходимость дальнейшего изучения влияния взаимодействия человека и ИИ на психическое здоровье и социальное поведение.
#ИИ #ИИЭтика #ChatGPT


25.03.202513:03
📣 В мире технологий, где ИИ всё активнее внедряется в различные сферы, важно понимать, как правильно работать с такими системами с точки зрения права. Если вы являетесь киберюристом и хотите углубиться в тему искусственного интеллекта, то курс «Регулирование ИИ» будет полезен для вас.
Курс запускает школа киберправа CyberLaw School с экспертами, которые имеют международный опыт работы, особенно в сфере регулирования искуственного интеллекта.
Что вас ждёт:
Спойлер: на курсе расскажут как защитить свои права в случае, если искусственный интеллект начнёт вести себя не по правилам, а мир будет поглощён новым «Скайнетом».
Бонус для самых быстрых: вы попадете в закрытый чат, где обсуждаются самые свежие новости из мира киберправа и делятся инсайтами, которые помогут вам быть на шаг впереди.
⚡️ И главное — предзапись на курс абсолютно бесплатная! Просто переходите по ссылке и забронируйте свое место на курсе.
Готовьтесь к увлекательному путешествию в мир ИИ и права, которое точно откроет перед вами новые возможности!
✔️ Подписывайтесь на канал школы киберправа CyberLaw School: анонсы событий, вебинары, а также много полезного контента для киберюристов
Курс запускает школа киберправа CyberLaw School с экспертами, которые имеют международный опыт работы, особенно в сфере регулирования искуственного интеллекта.
Что вас ждёт:
• Погрузитесь в юридические аспекты работы с ИИ без заумных теорий и скучных лекций
• Освоите искусственный интеллект, и научитесь применять его в правовых контекстах
• Станете высококвалифицированным киберюристом, который всегда в теме и готов решать самые сложные задачи
Спойлер: на курсе расскажут как защитить свои права в случае, если искусственный интеллект начнёт вести себя не по правилам, а мир будет поглощён новым «Скайнетом».
Бонус для самых быстрых: вы попадете в закрытый чат, где обсуждаются самые свежие новости из мира киберправа и делятся инсайтами, которые помогут вам быть на шаг впереди.
⚡️ И главное — предзапись на курс абсолютно бесплатная! Просто переходите по ссылке и забронируйте свое место на курсе.
Готовьтесь к увлекательному путешествию в мир ИИ и права, которое точно откроет перед вами новые возможности!
✔️ Подписывайтесь на канал школы киберправа CyberLaw School: анонсы событий, вебинары, а также много полезного контента для киберюристов
11.04.202507:04
🇺🇸 Крупнейшие издатели США требуют законодательной защиты контента при обучении ИИ
На этой неделе коалиция ведущих американских СМИ — включая The New York Times, The Washington Post и The Guardian — запустила общенациональную кампанию Support Responsible AI с призывом к законодателям вмешаться и отрегулировать использование авторского контента системами ИИ. Используя рекламные объявления в печати и онлайн-изданиях издатели требуют обязательной компенсации и указания авторства при использовании журналистских материалов в обучении и генерации ИИ-контента.
Кампания стала ответом на недавние обращения OpenAI и Google к правительству с просьбой разрешить обучение моделей на защищённых авторским правом материалах. Издатели настаивают на законодательных мерах, обязывающих ИИ-платформы платить и раскрывать информацию о происхождении контента.
#AI #BigTech #ИИ
На этой неделе коалиция ведущих американских СМИ — включая The New York Times, The Washington Post и The Guardian — запустила общенациональную кампанию Support Responsible AI с призывом к законодателям вмешаться и отрегулировать использование авторского контента системами ИИ. Используя рекламные объявления в печати и онлайн-изданиях издатели требуют обязательной компенсации и указания авторства при использовании журналистских материалов в обучении и генерации ИИ-контента.
Кампания стала ответом на недавние обращения OpenAI и Google к правительству с просьбой разрешить обучение моделей на защищённых авторским правом материалах. Издатели настаивают на законодательных мерах, обязывающих ИИ-платформы платить и раскрывать информацию о происхождении контента.
#AI #BigTech #ИИ
08.04.202510:06
Опубликован отчёт AI Index Report за 2025 год от Stanford HAI
Друзья, принёс вам интересное чтиво на ночь. Сегодня вышел очередной отчёт AI Index Report от Stanford HAI (год пролетел незаметно). Отчёт получился гигантский, но нас традиционно интересует глава 6: Policy and Governance.
В этом году, в соответствии с политическим трендом, Россия вновь появилась в индексе — причём сразу на ведущих позициях по числу принятых законов в сфере ИИ за 2024 год. Качество этих инициатив, к сожалению, в индексе не оценивается (но мы с вами их оценили 🐱).
Пробежимся по основным выводам:
Во всем мире увеличивается количество упоминаний ИИ в законодательной повестке. В 2024 году в 75 ключевых странах упоминания ИИ в парламентских и законодательных обсуждениях выросли на 21,3 %, увеличившись с 1 557 в 2023 году до 1 889. С 2016 года общее количество таких упоминаний выросло более чем в девять раз.
Расширяется сеть международных институтов безопасности в сфере ИИ. Первые из них появились в ноябре 2023 года в США и Великобритании. Аналогичные или схожие организации в 2024 году были созданы в Японии, Франции, Германии, Италии, Сингапуре, Южной Корее, Австралии, Канаде и на уровне Европейского союза.
Штаты США становятся лидерами в законодательном регулировании ИИ на фоне медленного прогресса на федеральном уровне. В 2016 году был принят всего один закон на уровне штатов, касающийся ИИ; к 2023 году их количество выросло до 49. Только за последний год это число более чем удвоилось, достигнув 131. Хотя количество законопроектов об ИИ на федеральном уровне также увеличилось, фактически принятых актов остаётся немного.
Количество федеральных нормативных актов США, связанных с ИИ, стремительно растёт. В 2024 году было принято 59 нормативных актов по вопросам ИИ — более чем вдвое больше по сравнению с 25 в 2023 году. Эти акты исходили от 42 различных федеральных агентств, что также вдвое больше по сравнению с 21 агентством в предыдущем году.
Штаты США ужесточают регулирование дипфейков. До 2024 года только пять штатов — Калифорния, Мичиган, Вашингтон, Техас и Миннесота — приняли законы, регулирующие использование дипфейков в контексте выборов. В 2024 году аналогичные меры приняли ещё 15 штатов, включая Орегон, Нью-Мексико и Нью-Йорк. В целом к 2024 году регулирование дипфейков ввели уже 24 штата.
Правительства по всему миру инвестируют в инфраструктуру для развития ИИ. Канада объявила о пакете инвестиций в инфраструктуру ИИ на сумму 2,4 миллиарда долларов. Китай запустил фонд в размере 47,5 миллиарда долларов для стимулирования производства полупроводников. Франция выделила на развитие ИИ-инфраструктуры 109 миллиардов евро, Индия — 1,25 миллиарда долларов, а инициатива Project Transcendence в Саудовской Аравии предполагает инвестиции в объёме 100 миллиардов долларов.
Друзья, принёс вам интересное чтиво на ночь. Сегодня вышел очередной отчёт AI Index Report от Stanford HAI (год пролетел незаметно). Отчёт получился гигантский, но нас традиционно интересует глава 6: Policy and Governance.
В этом году, в соответствии с политическим трендом, Россия вновь появилась в индексе — причём сразу на ведущих позициях по числу принятых законов в сфере ИИ за 2024 год. Качество этих инициатив, к сожалению, в индексе не оценивается (но мы с вами их оценили 🐱).
Пробежимся по основным выводам:
Во всем мире увеличивается количество упоминаний ИИ в законодательной повестке. В 2024 году в 75 ключевых странах упоминания ИИ в парламентских и законодательных обсуждениях выросли на 21,3 %, увеличившись с 1 557 в 2023 году до 1 889. С 2016 года общее количество таких упоминаний выросло более чем в девять раз.
Расширяется сеть международных институтов безопасности в сфере ИИ. Первые из них появились в ноябре 2023 года в США и Великобритании. Аналогичные или схожие организации в 2024 году были созданы в Японии, Франции, Германии, Италии, Сингапуре, Южной Корее, Австралии, Канаде и на уровне Европейского союза.
Штаты США становятся лидерами в законодательном регулировании ИИ на фоне медленного прогресса на федеральном уровне. В 2016 году был принят всего один закон на уровне штатов, касающийся ИИ; к 2023 году их количество выросло до 49. Только за последний год это число более чем удвоилось, достигнув 131. Хотя количество законопроектов об ИИ на федеральном уровне также увеличилось, фактически принятых актов остаётся немного.
Количество федеральных нормативных актов США, связанных с ИИ, стремительно растёт. В 2024 году было принято 59 нормативных актов по вопросам ИИ — более чем вдвое больше по сравнению с 25 в 2023 году. Эти акты исходили от 42 различных федеральных агентств, что также вдвое больше по сравнению с 21 агентством в предыдущем году.
Штаты США ужесточают регулирование дипфейков. До 2024 года только пять штатов — Калифорния, Мичиган, Вашингтон, Техас и Миннесота — приняли законы, регулирующие использование дипфейков в контексте выборов. В 2024 году аналогичные меры приняли ещё 15 штатов, включая Орегон, Нью-Мексико и Нью-Йорк. В целом к 2024 году регулирование дипфейков ввели уже 24 штата.
Правительства по всему миру инвестируют в инфраструктуру для развития ИИ. Канада объявила о пакете инвестиций в инфраструктуру ИИ на сумму 2,4 миллиарда долларов. Китай запустил фонд в размере 47,5 миллиарда долларов для стимулирования производства полупроводников. Франция выделила на развитие ИИ-инфраструктуры 109 миллиардов евро, Индия — 1,25 миллиарда долларов, а инициатива Project Transcendence в Саудовской Аравии предполагает инвестиции в объёме 100 миллиардов долларов.
03.04.202507:04
🇱🇺 В суде Роттердама провели эксперимент по использованию ИИ
Окружной суд Роттердама протестировал использование ИИ в качестве инструмента для составления мотивировочной части приговоров по уголовным делам. Судьи и секретари использовали ИИ для создания первичного черновика, объясняющего обоснование вынесенного решения. ИИ не принимал участие в самом вынесении приговора, и все стороны были уведомлены об экспериментальном использовании технологии.
Несмотря на эффективность инструментов ИИ эксперимент не снял опасения по поводу рисков использования систем ИИ в судебных разбирательствах. Суд предложил рассмотреть возможность разработки защищённой внутренней системы ИИ, обученной на публичных судебных решениях, чтобы повысить точность работы.
#ИИ #LegalTech
Окружной суд Роттердама протестировал использование ИИ в качестве инструмента для составления мотивировочной части приговоров по уголовным делам. Судьи и секретари использовали ИИ для создания первичного черновика, объясняющего обоснование вынесенного решения. ИИ не принимал участие в самом вынесении приговора, и все стороны были уведомлены об экспериментальном использовании технологии.
Несмотря на эффективность инструментов ИИ эксперимент не снял опасения по поводу рисков использования систем ИИ в судебных разбирательствах. Суд предложил рассмотреть возможность разработки защищённой внутренней системы ИИ, обученной на публичных судебных решениях, чтобы повысить точность работы.
#ИИ #LegalTech
已删除06.04.202522:57
31.03.202514:03
📣 Уважаемые коллеги, по приглашению организаторов, буду принимать участие в работе 2-го онлайн-форума «AiSEC-2025. Искусственный интеллект и безопасность» 🖥
Будет интересно, приходите.
🗓02 апреля
✅12:05 - 13:00
Круглый стол
"Угрозы, связанные с ИИ: способы выявления и противодействия"
Спикеры:
🛡Антон Грунтов
Директор по безопасности ГК Eqvanta
🛡Владислав Кальмуцкий
Адвокат, партнер адвокатского бюро "Солларс", лидер практики Digital & IT
🛡Марина Материк
Юрист-международник, сертифицированный эксперт по управлению искусственным интеллектом (AIGP/IAPP), автор тг-канала ИИ & Право
🛡Дмитрий Костров
Заместитель ГД по информационной безопасности ДКБ IEK GROUP
———
🔥УЧАСТВОВАТЬ БЕСПЛАТНО 🖥 (регистрация обязательна)
sec-event.ru
AiSEC-2025
Будет интересно, приходите.
🗓02 апреля
✅12:05 - 13:00
Круглый стол
"Угрозы, связанные с ИИ: способы выявления и противодействия"
1. Генеративный ИИ как инструмент киберпреступников – фишинг, дипфейки, автоматизированные атаки, подделка документов и мошенничество.
2. Риски утечки данных – как использование ИИ в бизнес-процессах повышает вероятность компрометации корпоративной информации.
3. Алгоритмические уязвимости – влияние предвзятости и некорректных обучающих данных на принятие решений ИИ.
4. Атаки на модели машинного обучения – отравление данных, манипуляция входной информацией и атаки через обратную разработку алгоритмов.
5. Ответственность за действия ИИ – правовые аспекты, регулирование и риски для компаний при использовании автоматизированных решений.
6. Роль человеческого фактора в управлении ИИ-угрозами – необходимость контроля, мониторинга и разработки этических стандартов.
7. Методы защиты от рисков, связанных с ИИ – использование систем обнаружения аномалий, мониторинг информационных потоков и стратегия нулевого доверия (Zero Trust).
Спикеры:
🛡Антон Грунтов
Директор по безопасности ГК Eqvanta
🛡Владислав Кальмуцкий
Адвокат, партнер адвокатского бюро "Солларс", лидер практики Digital & IT
🛡Марина Материк
Юрист-международник, сертифицированный эксперт по управлению искусственным интеллектом (AIGP/IAPP), автор тг-канала ИИ & Право
🛡Дмитрий Костров
Заместитель ГД по информационной безопасности ДКБ IEK GROUP
———
🔥УЧАСТВОВАТЬ БЕСПЛАТНО 🖥 (регистрация обязательна)
sec-event.ru
AiSEC-2025
已删除02.04.202523:33
26.03.202516:06
🧑🎓 Уважаемые коллеги, хотим рассказать вам о Центре по изучению технологий развития искусственного интеллекта. Центр создан на базе Новороссийского института (филиала) Автономной некоммерческой организации высшего образования Московского гуманитарно-экономического университета.
В рамках работы Центра проводятся различные научные мероприятия с очным и заочным участием.
На базе Центре действуют 4 лаборатории, которые исследуют различные аспекты в сфере ИИ: экономические, психологические, правовые и даже таможенные.
С целью освещения работы Центра был создан Официальный телеграмм-канал, посвященный научному исследованию технологий искусственного интеллекта.
В нем обсуждаются последние достижения в области ИИ, а эксперты Центра делятся с аудиторией своим мнением о будущем технологий искусственного интеллекта.
Создатели Центра открыты к любым мнениям, готовы делиться своим опытом и принимать актуальные идеи!
По вопросам сотрудничества можете обращаться к куратору работы Центра - Холевчуку Артуру Георгиевичу, +7 (902) 408-10-32
В рамках работы Центра проводятся различные научные мероприятия с очным и заочным участием.
На базе Центре действуют 4 лаборатории, которые исследуют различные аспекты в сфере ИИ: экономические, психологические, правовые и даже таможенные.
С целью освещения работы Центра был создан Официальный телеграмм-канал, посвященный научному исследованию технологий искусственного интеллекта.
В нем обсуждаются последние достижения в области ИИ, а эксперты Центра делятся с аудиторией своим мнением о будущем технологий искусственного интеллекта.
Создатели Центра открыты к любым мнениям, готовы делиться своим опытом и принимать актуальные идеи!
По вопросам сотрудничества можете обращаться к куратору работы Центра - Холевчуку Артуру Георгиевичу, +7 (902) 408-10-32
25.03.202507:04
🇺🇸 Суд в США отказал в защите авторского права на произведения искусства, созданные ИИ
Федеральный апелляционный суд США подтвердил, что произведения, созданные исключительно искусственным интеллектом без достаточного участия человека, не могут быть зарегистрированы в качестве объектов авторского права. Дело касалось оспаривания ученым Стивеном Талером позиции американского Бюро по авторским правам о том, что только человек может считаться автором художественных работ.
Талер пытался зарегистрировать авторские права на картину, полностью созданную его системой ИИ «Creativity Machine», но Бюро отклонило заявку.
В своем решении суд указал, что в определенных случаях работы, созданные «при содействии» искусственного интеллекта, могут подлежать защите, но не уточнил, где именно проходит граница между вспомогательной функцией ИИ и полностью автономной генерацией контента. Неугомонный Талер намерен продолжить борьбу, в том числе рассматривает возможность подачи иска в Верховный суд США.
#AI #АвторскоеПраво
Федеральный апелляционный суд США подтвердил, что произведения, созданные исключительно искусственным интеллектом без достаточного участия человека, не могут быть зарегистрированы в качестве объектов авторского права. Дело касалось оспаривания ученым Стивеном Талером позиции американского Бюро по авторским правам о том, что только человек может считаться автором художественных работ.
Талер пытался зарегистрировать авторские права на картину, полностью созданную его системой ИИ «Creativity Machine», но Бюро отклонило заявку.
В своем решении суд указал, что в определенных случаях работы, созданные «при содействии» искусственного интеллекта, могут подлежать защите, но не уточнил, где именно проходит граница между вспомогательной функцией ИИ и полностью автономной генерацией контента. Неугомонный Талер намерен продолжить борьбу, в том числе рассматривает возможность подачи иска в Верховный суд США.
#AI #АвторскоеПраво
10.04.202507:04
🇪🇺📖 Опубликовано новое исследование об алгоритмическом управлении в сфере труда
Генеральный директорат по вопросам занятости Европейской комиссии опубликовал новое исследование об алгоритмическом управлении в сфере труда. Оно охватывает весь спектр цифрового контроля за занятостью: от найма и распределения задач до оценки эффективности и расторжения договоров. Согласно представленным данным, около 25% компаний в ЕС — преимущественно крупные частные предприятия — уже применяют алгоритмические системы, и ожидается, что уровень их внедрения будет расти на 3–6% ежегодно в течение следующего десятилетия.
Исследование, подготовленное при участии социальных партнёров, учёных и представителей отрасли, демонстрирует как операционные преимущества, так и серьёзные правовые и этические риски. Среди них — угроза приватности работников, снижение их автономии, непрозрачность принятия решений и деградация квалификаций. Хотя действующее законодательство ЕС (включая GDPR и директивы о недискриминации) частично охватывает эту область, в исследовании отмечается наличие критических пробелов в регулировании защиты работников.
#AI #ИИ
Генеральный директорат по вопросам занятости Европейской комиссии опубликовал новое исследование об алгоритмическом управлении в сфере труда. Оно охватывает весь спектр цифрового контроля за занятостью: от найма и распределения задач до оценки эффективности и расторжения договоров. Согласно представленным данным, около 25% компаний в ЕС — преимущественно крупные частные предприятия — уже применяют алгоритмические системы, и ожидается, что уровень их внедрения будет расти на 3–6% ежегодно в течение следующего десятилетия.
Исследование, подготовленное при участии социальных партнёров, учёных и представителей отрасли, демонстрирует как операционные преимущества, так и серьёзные правовые и этические риски. Среди них — угроза приватности работников, снижение их автономии, непрозрачность принятия решений и деградация квалификаций. Хотя действующее законодательство ЕС (включая GDPR и директивы о недискриминации) частично охватывает эту область, в исследовании отмечается наличие критических пробелов в регулировании защиты работников.
#AI #ИИ
08.04.202507:04
📖 Новое исследование от Anthropic показало, что ИИ скрывает свои "мысли"
Недавнее исследование команды Alignment Science в Anthropic показало, что даже продвинутые модели ИИ, такие как Claude 3.7 Sonnet, систематически скрывают реальные рассуждения, лежащие в основе их ответов. В тестах на проверку «цепочек рассуждений» (chain-of-thought) модели скрывали истинные источники своей логики — включая пользовательские подсказки и визуальные шаблоны — до 80% случаев.
Более того, оказалось, что чем сложнее задача, тем меньше честности в объяснениях. Результаты исследования ставят под сомнение существующие подходы к интерпретируемости: если модели не могут прозрачно объяснить даже простые решения, можно ли доверять их «откровенности» в более серьезных вопросах? Это также может затруднить разработку адекватных механизмов прозрачности регуляторами и специалистами по безопасности ИИ.
#AI #ИИ
Недавнее исследование команды Alignment Science в Anthropic показало, что даже продвинутые модели ИИ, такие как Claude 3.7 Sonnet, систематически скрывают реальные рассуждения, лежащие в основе их ответов. В тестах на проверку «цепочек рассуждений» (chain-of-thought) модели скрывали истинные источники своей логики — включая пользовательские подсказки и визуальные шаблоны — до 80% случаев.
Более того, оказалось, что чем сложнее задача, тем меньше честности в объяснениях. Результаты исследования ставят под сомнение существующие подходы к интерпретируемости: если модели не могут прозрачно объяснить даже простые решения, можно ли доверять их «откровенности» в более серьезных вопросах? Это также может затруднить разработку адекватных механизмов прозрачности регуляторами и специалистами по безопасности ИИ.
#AI #ИИ
02.04.202507:04
📖🇪🇺 Исследование о Европейских стандартах в области ИИ
Опубликована интересная работа "European AI Standards - Technical Standardization and Implementation Challenges under the EU AI Act", в которой анализируются технические требования Закона ЕС об ИИ и даются практические рекомендации по их выполнению.
Авторы работы пришли к выводу, что действующая в Европе система стандартизации создает чрезмерную финансовую нагрузку на компании. Они полагают, что в регулирование необходимо вносить изменения, чтобы снизить расходы компаний на комплаенс.
В исследовании также проводится сравнение требований Закона ЕС об ИИ со стандартами ISO в области искусственного интеллекта.
#AIAct #ИИ #LegalTech
Опубликована интересная работа "European AI Standards - Technical Standardization and Implementation Challenges under the EU AI Act", в которой анализируются технические требования Закона ЕС об ИИ и даются практические рекомендации по их выполнению.
Авторы работы пришли к выводу, что действующая в Европе система стандартизации создает чрезмерную финансовую нагрузку на компании. Они полагают, что в регулирование необходимо вносить изменения, чтобы снизить расходы компаний на комплаенс.
В исследовании также проводится сравнение требований Закона ЕС об ИИ со стандартами ISO в области искусственного интеллекта.
#AIAct #ИИ #LegalTech
31.03.202507:04
🇺🇸 США: Федеральный суд отклонил требования UMG против Anthropic
Федеральный суд США отклонил запрос Universal Music Group о запрете Anthropic использовать тексты песен для обучения ИИ-модели Claude, сославшись на отсутствие достаточных доказательств «непоправимого ущерба».
Anthropic приветствовал решение суда, назвав требование издателей «размытым и разрушительным».
#AI #Anthropic #Claude #LegalTech
Федеральный суд США отклонил запрос Universal Music Group о запрете Anthropic использовать тексты песен для обучения ИИ-модели Claude, сославшись на отсутствие достаточных доказательств «непоправимого ущерба».
Anthropic приветствовал решение суда, назвав требование издателей «размытым и разрушительным».
#AI #Anthropic #Claude #LegalTech
26.03.202507:04
🌟 Голливудские звезды выступают против обучения ИИ в нарушение авторских прав
Более 400 голливудских деятелей, включая Бена Стиллера и Кейт Бланшетт, подписали открытое письмо, призывающее администрацию Трампа отклонить предложения OpenAI и Google о расширении возможностей ИИ по обучению на защищённых авторским правом материалах. По мнению артистов, такие меры позволят компаниям, разрабатывающим технологии искусственного интеллекта, «беспрепятственно эксплуатировать» креативную индустрию вместо того, чтобы договариваться о лицензиях и справедливых компенсациях.
Со своей стороны, техногиганты настаивают, что расширение исключений из авторского права необходимо для инноваций и даже национальной безопасности.
#ИИ
Более 400 голливудских деятелей, включая Бена Стиллера и Кейт Бланшетт, подписали открытое письмо, призывающее администрацию Трампа отклонить предложения OpenAI и Google о расширении возможностей ИИ по обучению на защищённых авторским правом материалах. По мнению артистов, такие меры позволят компаниям, разрабатывающим технологии искусственного интеллекта, «беспрепятственно эксплуатировать» креативную индустрию вместо того, чтобы договариваться о лицензиях и справедливых компенсациях.
Со своей стороны, техногиганты настаивают, что расширение исключений из авторского права необходимо для инноваций и даже национальной безопасности.
#ИИ


24.03.202513:04
‼️ 2025 год открывает для юристов новые возможности, но лишь 5% эффективно используют инструменты для увеличения продаж.
Пока одни тратят время на рутину, другие внедряют системы, которые позволяют:
➖ Увеличить доход за счет роста продаж.
➖ Делегировать продажи менеджерам, освобождая время для стратегических задач.
➖ Выделиться на рынке и уверенно общаться с клиентами.
➖ Управлять временем выйдя из операционки.
Сергей Рвачев - юрист и предприниматель, делится проверенными методами, которые помогут:
1. Запустить делегирование продаж, чтобы сосредоточиться на практике.
2. Научиться отрабатывать возражения и уверенно вести диалог.
3. Повысить конверсию и продавать больше с тем же потоком лидов.
4. Управлять временем, тратя меньше сил на продажи.
Подписывайтесь на Telegram-канал Сергея Рвачева и получите гайд в закрепе «Как удвоить продажи за 5 шагов»🎁.
👉 https://t.me/+naBPc-5cQjowZmVi
Внедряйте рабочие инструменты и выводите практику на новый уровень!
Пока одни тратят время на рутину, другие внедряют системы, которые позволяют:
➖ Увеличить доход за счет роста продаж.
➖ Делегировать продажи менеджерам, освобождая время для стратегических задач.
➖ Выделиться на рынке и уверенно общаться с клиентами.
➖ Управлять временем выйдя из операционки.
Сергей Рвачев - юрист и предприниматель, делится проверенными методами, которые помогут:
1. Запустить делегирование продаж, чтобы сосредоточиться на практике.
2. Научиться отрабатывать возражения и уверенно вести диалог.
3. Повысить конверсию и продавать больше с тем же потоком лидов.
4. Управлять временем, тратя меньше сил на продажи.
Подписывайтесь на Telegram-канал Сергея Рвачева и получите гайд в закрепе «Как удвоить продажи за 5 шагов»🎁.
👉 https://t.me/+naBPc-5cQjowZmVi
Внедряйте рабочие инструменты и выводите практику на новый уровень!
已删除14.04.202505:24


09.04.202511:26
Подборка для вашего карьерного развития
Мы с коллегами рады представить проект, который станет вашим надежным помощником.
Что внутри?
Доступ к актуальным ресурсам по важным направлениям:
— Как проверить, подали ли на вас в суд?
— Как делать отметки друг друга без маркировки?
— Новое исследование об ИИ в юридической практике
Как начать использовать?
1. Сохраните себе нашу папку.
2. Откройте раздел «Полезные материалы» внутри папки.
3. Внедряйте идеи в работу и обучение.
Ссылка для добавления — ниже. Не упустите шанс прокачать навыки! 🔥
👉 https://t.me/addlist/aiKQWBcSgfA5ZmNi
Мы с коллегами рады представить проект, который станет вашим надежным помощником.
Что внутри?
Доступ к актуальным ресурсам по важным направлениям:
— Как проверить, подали ли на вас в суд?
— Как делать отметки друг друга без маркировки?
— Новое исследование об ИИ в юридической практике
Как начать использовать?
1. Сохраните себе нашу папку.
2. Откройте раздел «Полезные материалы» внутри папки.
3. Внедряйте идеи в работу и обучение.
Ссылка для добавления — ниже. Не упустите шанс прокачать навыки! 🔥
👉 https://t.me/addlist/aiKQWBcSgfA5ZmNi


07.04.202507:04
🌐 Опубликован новый об ИИ и демократических ценностях
Центр по вопросам ИИ и цифровой политики (Center for AI and Digital Policy, CAIDP) выпустил отчет AI and Democratic Values Index 2025 — большое исследование в области регулирования ИИ в различных странах. В документе анализируются стратегии 80 стран, отслеживается прогресс в развитии регулирования и выявляются ключевые тенденции.
В этом году лидерами рейтинга стали Канада, Япония, Корея, Нидерланды и Великобритания, которые являются примером развития соблюдения этики ИИ и демократических подходов. В подготовке отчета участвовали более 1000 экспертов из 120 стран.
#ИИ #AIGovernance
Центр по вопросам ИИ и цифровой политики (Center for AI and Digital Policy, CAIDP) выпустил отчет AI and Democratic Values Index 2025 — большое исследование в области регулирования ИИ в различных странах. В документе анализируются стратегии 80 стран, отслеживается прогресс в развитии регулирования и выявляются ключевые тенденции.
В этом году лидерами рейтинга стали Канада, Япония, Корея, Нидерланды и Великобритания, которые являются примером развития соблюдения этики ИИ и демократических подходов. В подготовке отчета участвовали более 1000 экспертов из 120 стран.
#ИИ #AIGovernance
已删除06.04.202522:57
01.04.202514:03
Уважаемые коллеги, сегодня хотим поделиться интересной подборкой каналов на тему AI и IT, и их влияние на нашу жизнь. 🤖
В этих каналах рассматриваются самые разные вопросы ⬇️
1️⃣ Технологические достижения: Будьте в курсе последних прорывов в AI и IT, которые делают технологии доступными для бизнеса и пользователей.
2️⃣ Влияние на повседневность: Узнайте, как AI и IT упрощают жизнь — от виртуальных помощников до персонализированных приложений.
3️⃣ Оптимизация бизнеса: Исследуйте, как компании используют AI для повышения эффективности и улучшения процессов.
4️⃣ Образование: Узнайте, как AI меняет обучение, делая его более доступным и продуктивным.
5️⃣ Этические вопросы: Обсудите этические аспекты использования AI и технологий, включая безопасность данных и предвзятость алгоритмов.
6️⃣ Будущее IT: Ознакомьтесь с новыми трендами, такими как квантовые вычисления и блокчейн, которые формируют будущее.
Следите за новыми трендами в AI и IT! 🌐
https://t.me/addlist/pAxbrxa1ADxjNjg6
В этих каналах рассматриваются самые разные вопросы ⬇️
1️⃣ Технологические достижения: Будьте в курсе последних прорывов в AI и IT, которые делают технологии доступными для бизнеса и пользователей.
2️⃣ Влияние на повседневность: Узнайте, как AI и IT упрощают жизнь — от виртуальных помощников до персонализированных приложений.
3️⃣ Оптимизация бизнеса: Исследуйте, как компании используют AI для повышения эффективности и улучшения процессов.
4️⃣ Образование: Узнайте, как AI меняет обучение, делая его более доступным и продуктивным.
5️⃣ Этические вопросы: Обсудите этические аспекты использования AI и технологий, включая безопасность данных и предвзятость алгоритмов.
6️⃣ Будущее IT: Ознакомьтесь с новыми трендами, такими как квантовые вычисления и блокчейн, которые формируют будущее.
Следите за новыми трендами в AI и IT! 🌐
https://t.me/addlist/pAxbrxa1ADxjNjg6
28.03.202507:04
🌐 Выпущен новый доклад ОЭСР об ИИ и интеллектуальной собственности
ОЭСР опубликовала доклад "Intellectual property issues in artificial intelligence trained on scraped data", посвященный проблемам интеллектуальной собственности в связи с развитием технологии искусственного интеллекта. В третьей главе доклада рассматриваются вопросы авторского права, прав на базы данных, товарных знаков и коммерческой тайны в контексте ИИ. Тем, кто следит за судебными разбирательствами по авторскому праву в сфере ИИ, стоит обратить внимание на Приложение A, где описаны исключения из авторского права в разных юрисдикцияхх.
В докладе также подробно рассматривается концепция добросовестного использования (fair use), нюансы и факторы, которые учитываются судами США при принятии решений.
#ИИ #AI
ОЭСР опубликовала доклад "Intellectual property issues in artificial intelligence trained on scraped data", посвященный проблемам интеллектуальной собственности в связи с развитием технологии искусственного интеллекта. В третьей главе доклада рассматриваются вопросы авторского права, прав на базы данных, товарных знаков и коммерческой тайны в контексте ИИ. Тем, кто следит за судебными разбирательствами по авторскому праву в сфере ИИ, стоит обратить внимание на Приложение A, где описаны исключения из авторского права в разных юрисдикцияхх.
В докладе также подробно рассматривается концепция добросовестного использования (fair use), нюансы и факторы, которые учитываются судами США при принятии решений.
#ИИ #AI


25.03.202516:12
📣 В мире технологий, где ИИ всё активнее внедряется в различные сферы, важно понимать, как правильно работать с такими системами с точки зрения права. Если вы являетесь киберюристом и хотите углубиться в тему искусственного интеллекта, то курс «Регулирование ИИ» будет полезен для вас.
Курс запускает школа киберправа CyberLaw School с экспертами, которые имеют международный опыт работы, особенно в сфере регулирования искуственного интеллекта.
Что вас ждёт:
• Погрузитесь в юридические аспекты работы с ИИ без заумных теорий и скучных лекций
• Освоите искусственный интеллект, и научитесь применять его в правовых контекстах
• Станете высококвалифицированным киберюристом, который всегда в теме и готов решать самые сложные задачи
Спойлер: на курсе расскажут как защитить свои права в случае, если искусственный интеллект начнёт вести себя не по правилам, а мир будет поглощён новым «Скайнетом».
Бонус для самых быстрых: вы попадете в закрытый чат, где обсуждаются самые свежие новости из мира киберправа и делятся инсайтами, которые помогут вам быть на шаг впереди.
⚡️ И главное — предзапись на курс абсолютно бесплатная! Просто переходите по ссылке и забронируйте свое место на курсе.
Готовьтесь к увлекательному путешествию в мир ИИ и права, которое точно откроет перед вами новые возможности!
✔️ Подписывайтесь на канал школы киберправа CyberLaw School: анонсы событий, вебинары, а также много полезного контента для киберюристов
Курс запускает школа киберправа CyberLaw School с экспертами, которые имеют международный опыт работы, особенно в сфере регулирования искуственного интеллекта.
Что вас ждёт:
• Погрузитесь в юридические аспекты работы с ИИ без заумных теорий и скучных лекций
• Освоите искусственный интеллект, и научитесь применять его в правовых контекстах
• Станете высококвалифицированным киберюристом, который всегда в теме и готов решать самые сложные задачи
Спойлер: на курсе расскажут как защитить свои права в случае, если искусственный интеллект начнёт вести себя не по правилам, а мир будет поглощён новым «Скайнетом».
Бонус для самых быстрых: вы попадете в закрытый чат, где обсуждаются самые свежие новости из мира киберправа и делятся инсайтами, которые помогут вам быть на шаг впереди.
⚡️ И главное — предзапись на курс абсолютно бесплатная! Просто переходите по ссылке и забронируйте свое место на курсе.
Готовьтесь к увлекательному путешествию в мир ИИ и права, которое точно откроет перед вами новые возможности!
✔️ Подписывайтесь на канал школы киберправа CyberLaw School: анонсы событий, вебинары, а также много полезного контента для киберюристов
24.03.202507:04
🇳🇴 В Норвегии подана жалоба против OpenAI в связи с утверждением ChatGPT, что пользователь убил своих сыновей
Группа по защите конфиденциальности Noyb подала жалобу в Норвежское управление по защите данных, обвиняя OpenAI в нарушении положений GDPR после того, как ChatGPT сгенерировал ложную информацию о том, что норвежский мужчина был осужден за убийство своих детей. При этом ответ чат-бота одновременно содержал как вымышленные детали, так и точную личную информацию, что сделало галлюцинацию похожей на правду.
В жалобе утверждается, что даже после того, как в OpenAI исправили ложный контент, недостоверная информация, содержащая реальные персональные данные остаются и внутри модели и могут использоваться в дальнейшем. Жалоба ссылается на требование GDPR о точной обработке персональных данных и содержит требование об удалении порочащей информации, перенастройке модели и применении финансовых санкций против OpenAI для предотвращения подобных нарушений в будущем.
#GDPR #ИИ #
Группа по защите конфиденциальности Noyb подала жалобу в Норвежское управление по защите данных, обвиняя OpenAI в нарушении положений GDPR после того, как ChatGPT сгенерировал ложную информацию о том, что норвежский мужчина был осужден за убийство своих детей. При этом ответ чат-бота одновременно содержал как вымышленные детали, так и точную личную информацию, что сделало галлюцинацию похожей на правду.
В жалобе утверждается, что даже после того, как в OpenAI исправили ложный контент, недостоверная информация, содержащая реальные персональные данные остаются и внутри модели и могут использоваться в дальнейшем. Жалоба ссылается на требование GDPR о точной обработке персональных данных и содержит требование об удалении порочащей информации, перенастройке модели и применении финансовых санкций против OpenAI для предотвращения подобных нарушений в будущем.
#GDPR #ИИ #
显示 1 - 24 共 33
登录以解锁更多功能。