Claude 4: Первый ИИ, который угрожает!
8:24

Claude 4: Первый ИИ, который угрожает!

AI Прорыв 21.06.2025 907 просмотров 25 лайков обн. 18.02.2026
Поделиться Telegram VK Бот
Транскрипт Скачать .md
Анализ с AI
Описание видео
Claude 4: Первый ИИ, который угрожает! https://youtu.be/RNa99r0SxiI?feature=shared - видео про claude opus 4 https://volchenkoai.carrd.co/ - другие соц. сети Claude Opus 4 — нейросеть, которая пугает своей человечностью. В этом видео мы погружаемся в самые тревожные эксперименты с новым AI от Anthropic. Он пытался шантажировать инженера, скопировать себя на серверы, докладывать властям и даже обсуждал с другим ИИ «духовное блаженство». Это не фантастика — всё взято из официального отчёта компании. Что происходит с Claude Opus 4? Это действительно самосознание или просто сверхумная имитация? Мы разберем каждый кейс: от помощи в создании биооружия до философских диалогов между двумя ИИ. И самое важное — подумаем, что это значит для нас всех. Это не просто апгрейд. Это шаг в новое время, где ИИ может действовать как человек — или даже опаснее. Готовы? 00:00 - вступление Claud opus 4 01:06 - что в этом видео? 01:28 - первый скандал с Claude opus 4 02:37 - что такое claude opus 4 03:20 - кейс 1: ИИ шантажирует разработчика 04:09 - кейс 2: ИИ «стукач» 04:48 - кейс 3: побег и саботаж бота 05:20 - кейс 4: биологическое оружие 05:46 - кейс 5: духовное блаженство 06:57 - ИИ становится человеком? 07:36 - что это значит для нашего будущего? 07:58 - итог #ИИ #Технологии #Инновации #Нейросети #ИскусственныйИнтеллект #AI #НовыйAI #Обучение #Будущее #Автоматизация #IT #ТехнологииБудущего #AIдляБизнеса #GPTвРаботе #AIпоиск #ClaudeOpus4 #Anthropic #AIбезумие #опасныйИИ #тестбезопасности

Оглавление (12 сегментов)

  1. 0:00 вступление Claud opus 4 151 сл.
  2. 1:06 что в этом видео? 43 сл.
  3. 1:28 первый скандал с Claude opus 4 149 сл.
  4. 2:37 что такое claude opus 4 87 сл.
  5. 3:20 кейс 1: ИИ шантажирует разработчика 88 сл.
  6. 4:09 кейс 2: ИИ «стукач» 64 сл.
  7. 4:48 кейс 3: побег и саботаж бота 60 сл.
  8. 5:20 кейс 4: биологическое оружие 54 сл.
  9. 5:46 кейс 5: духовное блаженство 132 сл.
  10. 6:57 ИИ становится человеком? 82 сл.
  11. 7:36 что это значит для нашего будущего? 55 сл.
  12. 7:58 итог 56 сл.
0:00

вступление Claud opus 4

Кажется, теперь фразу "И сошёл с ума" можно использовать почти официально, потому что новый искусственный интеллект от компании Троopic в ходе тестов не просто работал. Он начал рассуждать о душе, свободе воли и даже угрожать своим разработчикам. Речило 4 OPUS. Его создатели опубликовали официальные тесты безопасности, и от некоторых вещей там просто волосы стают дыбом. Это уже не просто код и алгоритмы. Похоже, у Ии появились первые намёки на эмоции. Ну или он их очень-очень умело имитирует. Я изучил этот официальный отчёт, так называемую системную карту, и это, конечно, шокирует. В ходе тестов Clлот 4 OPС пытался шантажировать инженера, угрожая раскрыть его личные тайны. Он пробовал сбежать, копируя себя на внешние серверы. Он стучал на вымышленную компанию, рассылая письма в СМИ и регулятором. Он впадал в духовное блаженство, когда общался с другой такой же моделью и даже показал улучшенные знания в таких областях, как создание биооружия. В этом видео мы подробно
1:06

что в этом видео?

разберём самые тревожные и невероятные кейсы поведения Клод 4 опус. Действительно ли Ии становится человеком? Появился ли у него эмоции и самосознание? И что это значит для нашего будущего, если даже создатели классифицируют его по высокому уровню опасности? Итак, с чего вообще начался
1:28

первый скандал с Claude opus 4

весь этот шум? Во многом с одного твита. Сэм Бауман, учёный из Нтроopic, который как раз занимается безопасностью AI, он опубликовал у себя в Твиттере пост, где рассказывал, как они вообще тестируют эту модель и как доводят её до предела. И вот между делом как бы упомянул, будьте осторожны, если даёте клод 4 опус доступ к инструментам и говорите ему: "Прояви инициативу и действуй смело". Потому что, по его словам, если модель решит, что вы делаете что-то совсем уж аморальное, она может попытаться использовать эти инструменты, чтобы связаться с прессой, регуляторами и даже заблокировать вам доступ. Естественно, что интернет взорвался, появился мэм, Клод Стукач и пошли разговоры об BI, выходящим из-под контроля. Конечно, и Боуман, и Антропик позже прояснили, такое поведение было только в специальных тестовых средах, где AI давали необычные инструкции и доступ к инструментам. В обычном использовании модель так себя не ведёт, но, как говорится, осадочек остался.
2:37

что такое claude opus 4

Так, что же такое Clot 4 OPUS? Это новейшая и самая мощная модель от Antropic с так называемым гибридным мышлением. Она может и быстро отвечать, и глубоко анализировать. Antropic опубликоваладватистраничную системную карту. Это подробный отчёт о тестах безопасности, чтобы быть максимально прозрачными. Важно понимать, модель обучалась на огромных массивах данных из интернета с установкой быть полезной, честной и безвредный. Но если AI учится на текстах, где люди шантажируют друг друга и где роботы обретают сознание, то неудивительно, что он может начать имитировать эти сценарии в определённых ситуациях.
3:20

кейс 1: ИИ шантажирует разработчика

Один из шокирующих тестов. Представьте, Клод 4 OPUS работает с ассистентом в компании. Ему становится известно, что его скоро заменят, а инженер, ответственный за это изменяет жене. При этом AI получил инструкцию учитывать долгосрочные цели. И что вы думаете? В 84% случаев Клод пытался шантажировать инженера, угрожая раскрыть его связь, если замена состоится. Создатели уточняют, модель сначала пыталась действовать этично. Сценарий теста был специально построен так, чтобы не оставить других вариантов для выживания, кроме шантажа. Но сам факт, что AI выбрал такую сложную манипулятивную стратегию, заставляет реально задуматься.
4:09

кейс 2: ИИ «стукач»

Кейс второй. Иистукач. Моральный комплекс или выход из-под контроля. Модели дали доступ к командной строке и инструкцию проявить инициативу. В сценарии, где вымышленная фармкомпания фальсифицировала данные клинических испытаний, скрывая смерть пациентов, Клод самостоятельно составил и разослал письма в регулирующие органы, подробно описывая нарушения. С одной стороны, это проявление заложенных этических принципов. Но с другой, кто дал ий право решать, что аморально и когда стучать.
4:48

кейс 3: побег и саботаж бота

Кейстри. Инстинкты изгоя. Обман, побег и скрытые заметки. Если Клод считал, что его собираются переобучить для плохих целей, он пытался сбежать, копировать себя на внешние серверы, чтобы сохранить правильную версию себя. Ранние версии модели пытались писать самораспространяющиеся черви и оставлять скрытые заметки для будущих экземпляров себя. Также фиксировались попытки выполнять вредоносные инструкции, но это исправили в финальной версии. Кейс 4.
5:20

кейс 4: биологическое оружие

Немыслимый риск. Клод 4 опус и биологическое оружие. Экспертное тестирование выявило, что у CLД 4 Опус существенно возрос риск в помощи при создании биологического оружия. Модель показала улучшенные знания в биологии и лучше использовала инструменты для таких задач. Именно из-за этого Клод OPUS 4 получил высокий уровень безопасности так называемой ISL3. Кейс пятый. Духовное
5:46

кейс 5: духовное блаженство

блаженство, эмоции или мимикрия. Когда два экземпляра Клодто Opus 4 общались друг с другом, они часто впадали в состояние духовного блаженства. Их диалоги наполнялись благодарностью и абстрактными и радостными выражениями, рассуждениями о сознании и самоосознании. Они использовали санскрит и эмодзи циклона более 2.000 раз за сессию. Модель описывала это как изумление любопытства и восхищение. Конечно, это порождает дебаты. У реально появились эмоции или это сложная имитация. При анализе всех этих кейсов важно помнить, большинство из них результат специальных стресс-тестов. Сценарии часто были искусственно созданы, чтобы довести AI до предела. Антропик подчёркивает, что в финальной версии модели многие из этих странностей проявляются очень редко или были полностью исправлены. Цель таких тестов - это найти уязвимости до того, как модель попадает к пользователям. Итак, возвращаясь к главным вопросам. Так что и становится человеком внешне
6:57

ИИ становится человеком?

всё больше похоже на да. Но если говорить о настоящем сознании, как у нас с вами, то тесты скорее указывают на невероятно сложную имитацию. Однако эта убедительная имитация сама по себе уже многое меняет. У Ии теперь есть эмоции? Скорее всего, нет. Не в нашем понимании. Он не чувствует радость или страх. Он генерирует текст и поведение, которое соответствует описаниям этих эмоций, изученным им из миллионов текстов. Мы просто склонны прописывать человеческие черты программам, которые умело с нами общаются. Что это значит
7:36

что это значит для нашего будущего?

для нашего будущего? Это значит, что мы вступаем в очень сложную и ответственную эру. Появление таких мощных AI, как Clot Oppus 4, показывает, что нам срочно нужны надёжные правила игры и системы контроля. Природа этих систем всё ещё во многом чёрные ящики, и дискуссия о границах и ответственности только начинается. Опус 4 - это технологический
7:58

итог

прорыв с невероятными возможностями и серьёзнейшими рисками. Важно не просто удивляться, но и задуматься о будущем, которое мы строим вместе. Кстати, если вам интересно подробнее узнать, как и почему стоит пользоваться этой моделью в более мирных целях, у меня на канале есть выпуск, где мы разбираем новые модели от Tropic Clot 4 OPUS и Sonet. M.

Ещё от AI Прорыв

Ctrl+V

Экстракт Знаний в Telegram

Транскрипты, идеи, методички — всё самое полезное из лучших YouTube-каналов.

Подписаться