# Перешлите родным! Реальные угрозы ChatGPT. На что способны нейросети

## Метаданные

- **Канал:** Лебедев про Нейросети: уроки, секреты, лайфхаки
- **YouTube:** https://www.youtube.com/watch?v=22bMBqPpEEI
- **Дата:** 11.11.2025
- **Длительность:** 32:18
- **Просмотры:** 1,839
- **Источник:** https://ekstraktznaniy.ru/video/15522

## Описание

🎁 Хочешь разобраться в нейросетях с нуля? Забирай бесплатный курс «Нейросети. Быстрый старт» — всё по делу и без воды: https://iiuniversitet.ru/free?utm_source=youtube&utm_medium=video&utm_campaign=opisanie&utm_term=marketograf&utm_content=YT-429
📖 Обучайся сейчас — завтра может быть поздно. Скачай книгу «Нейросети: как обрести профессию будущего»: https://iiuniversitet.ru/futurebook_free?utm_source=youtube&utm_medium=video&utm_campaign=opisanie&utm_term=marketograf&utm_content=YT-429

⏩ И еще больше подарков, которые можно забрать сразу:
Скачай 2000 готовых промтов для ChatGPT https://iiuniversitet.ru/2000prompts-free/?utm_source=youtube&utm_medium=video&utm_campaign=opisanie&utm_term=marketograf&utm_content=YT-429
Мастер-класс «ИИ-агенты: как автоматизировать работу и получить х2 доход» https://iiuniversitet.ru/mk_svyaski_life?utm_source=youtube&utm_medium=video&utm_campaign=opisanie&utm_term=marketograf&utm_content=YT-429
Мастер-класс «Новый ChatGPT: скрытые функции для ускорения ра

## Транскрипт

### Также можете найти меня здесь: []

СМИ постоянно нарратив о том, что а нейросети всех уволят, а они захватят мир, они взломали главный код, они взломали код к нам. Риск, да, он соврал. То есть люди готовы были поверить, что он выучил арабский, а не в то, что это цифровой двойник. И уровень морали он будет ещё более важен, чем когда-либо. А также четыре реальных ситуации, когда человечество чуть не уничтожило само себя. И, ну, как бы, ну, всё, тут, наверное, должна быть какая-нибудь драматичная музыка, потому что мы сейчас поговорим про уже реальная угроза нейросетей. Есть очень много манипуляций на тему вот опасности нейросетей. Из-за этого, с одной стороны, ну, подогревается интерес к этой теме, с другой стороны, у сотрудников, если мы особенно хотим их обучать нейросетям, возникает резкий протест против этой истории, то через сопротивление приходится обучать этому. И сейчас мы разберём, что на самом деле является риском, что не является риском. Но прежде чем мы начнём, я хочу вам показать четыре опасных явления. И хочу, чтобы вы выбрали самое опасное из них. Готовы? Первое. Землетрясение, смерчие, крушение самолёта, бассейн. Что самое опасное здесь? — Смерние самолёта. — Смерча крушение самолёта. — Землетрясение. Не очень. Василь. Да. Вот. А дело в том, что люди недооценивают реальные угрозы, и это нормальное наше состояние. При этом мы можем переоценивать то, что нам в реальности страшно. И вот если мы посмотрим статистику, сколько реально погибает людей, от землетрясений от 10 до 20. 000 человек в год погибает. От смерчий от 60 до 100 человек. Хотя вы сказали, что это самое страшное. Большинство, ну, вы слышали, да? От самолётов около 1. 000 человек в год, от бассейнов погибает до 236. 000 человек в год, больше, чем всё это вместе взято. Но в СМИ не будут говорить, что человек погиб в бассейне. И вот большинство представляет риск нейросетей вот так: терминатор, матрица, всё, нас всех захватили, и всё будет ужасно. При этом ближайшие страхи, они выглядят вот таким образом. 65% говорят, что нейросети захватят мир и поработят человечество. 45, что Ии устроят судный день, 35 захватят нас незаметно. И 73% думают, что Ии оставит всех без работы. Сейчас мы разберём, действительно ли нейросети могут уничтожить человечество. Почему учёные боятся сингулярности и что это такое, кого уволят нейросети и кто может расслабиться в ближайшие год? Вот когда ждать судный день, а также четыре реальных ситуации, когда человечество чуть не уничтожило само себя и что является фейком, который практически не может никогда случиться. Я проработал 3 года в лаборатории Касперского и изучал там киберугрозы, в том числе работал с отделом пиара, отделом разработок и глубоко погружался в те вещи, которые действительно опасны. И сегодня я поделюсь, что опасно, а что выдумка. Первое, что нужно понять, что угрозы существуют, но есть неочевидные. И вот мы будем разбираться, основываясь на фактах, что из этого действительно работает. Первая угроза, а, нейросети всех уволят. 92 млн рабочих мест сократят и до 2030 года из аэ по исследованиям исчезающих профессий, которые могут исчезнуть. Герман Греф говорил, что юристы, маркетологи, методологи, контент-менеджеры, редакторы, копирайтеры могут забыть свою профессию. Вот. И в 2023 году прошла первая волна забастовок. Именно из-за этого, да, в начале, когда ты понимаешь, что Charg Pти может выполнить твою работу за тебя, это прикольно. Но когда ты на самом деле понимаешь, что он может выполнить твою работу за тебя, это не очень прикольно. И здесь, ну, интересный факт от Билла Гейтса, что он утверждает, что мы придём к трёхдневной рабочей неделе. Вот не уточняет, правда, придём ли мы к трёхдневной рабочей зарплате вот из-за этой же трёхдневной недели. Но тем не менее, как на самом деле обстоят дела на фактах. В XIX веке рабочая неделя была 6-7 дней. А кто помнит рождественскую историю, там даже не давали на Рождество уйти сотруднику вот в выходной или в отпуск. В XX век перешли к пятидневной рабочей неделе. 2010 появилась удалённая работа и праздники. И уже четырёх, можно сказать, дневная рабочая неделя. И 2030, ну, трёхдневная рабочая неделя, это будет плюс-минус о'кей. Вот, э, вопрос, конечно, что будут делать в остальные дни люди, но тем не менее то, что можно утверждать точно, что придётся переучиваться 46% людей. При этом параллельно с этим будет происходить большой рост, а, увеличение индустрии развлечений и хобби. Причём мы говорим не только про виртуальную реальность, но и про игры, соцсети, кино. Это всё развлечение и хобби. Это м одна из базовых потребностей человека. Есть три потребности: быть собой, быть как все и быть другим. И вот э всё, что касается мира развлечения - это быть другим. Вот уходить вот в какую-то другую реальность, даже кино посмотреть сериал про то же самое. Но также вместе с этим кафе, рестораны, путешествия, туризм, концерты, мастер-классы, товары для творчества, прогие услуги, они тоже будут набирать популярность, потому что это про то, что мы уходим в какую-то вот зону, которая более альтернативная, да, творческая. Здесь мы можем уже увидеть, что это просто идёт трансформация мира. И нам, как предпринимателям, как руководителям, как сотрудникам, нужно понимать, как это использовать. И я бы здесь предложил такую метафору. А вот в 2020 году, когда случилась пандемия, у меня обнулились все мои тренинги, которые я проводил корпоративные очно. Представляете, да? У меня запланирова на полгода тренингов и всё, ковид, никаких тренингов. До свидания. И это привело к тому, что нужно было полностью переосмыслить весь бизнес, исходя из новой ситуации. То же самое и здесь. Полностью надо переосмыслить весь бизнес. Берём чат GPT и спрашиваем, что теперь делать. И тут я должен тебе сказать: стоп, стоп. А какое по счёту видео про нейросети ты смотришь, а так до сих пор ничего и не предпринял для того, чтобы эти нейросети внедрить? То там виpна не хватает, то непонятно с какой нейросетью, то какой промт непонятно делать. Так вот, смотри, для того, чтобы ты не просто всё это смотрел, а внедрил на практике, я приготовил для тебя бесплатный курс, который состоит из девяти уроков. Каждый урок заканчивается практическим заданием. И за эти девять уроков ты не просто в теории узнаешь, а сможешь на практике применить эти инструменты. Ну и, собственно, что приведёт к увеличению твоей эффективности и, как следствие, увеличение дохода. Поэтому прямо сейчас переходи по ссылке под этим видео и регистрируйся на курс. Ссылка бесплатная только для подписчиков и тех, кто смотрит это видео, и она действует ограниченное время. Поэтому переходи сейчас, пока она работает. Ну а после возвращайся досмотреть это видео. Следующая угроза, про которую тоже часто говорят, и она была очень популярная, называется нулевая угроза. Вот что внедрять нейросети, произойдёт глобальный сбой. Кто смотрел фильм Катастрофа 2000 или помните, когда в 2000 году переживали, что вот сейчас там придёт 2000 и что-то там случится и всё, Кирдксем было такое, да? В реальности ничего не произошло тогда, но это не значит, что угроза нереальная. И есть несколько примеров, когда это действительно привело к нехорошим последствиям. был космический корабль, который сгорел, а, в атмосфере из-за ошибки в программе. Там просто не там стояла запятая, понимаете? В программе запятая была подвинута на пару порядков, и из-за этого корабль начал тормозить позже, и он сгорел в атмосфере вместе с космонавтами. Никто не выжил. Ещё одна была ошибка в космической программе из-за того, что в формуле, которую заводили в полёты в космос, а в одной формуле была метрическая система мер, а в другой формуле была система мер США. И из-за этого тоже произошла катастрофа. То есть вот в таких мелких вещах, на самом деле, кроются ошибки. Ещё один пример из этого же. Samsung запретил сотрудникам использовать нейросети после утечки данных. Что произошло в 2023 году? Сотрудники начали тестировать в Chat GPT разный код, как он будет давать обратную связь. Они загрузили, показали. Чат GPT им сказал, что нужно подправить. А после этого, удивительно, но он, в принципе, начал делиться этим кодом со всеми остальными, кто спрашивал про похожую задачу. Он такой: "А, прикольно, у меня есть. Мне Samsung скинул, прикольно". Простая история, да? То есть она очень щедрая, добрая. Вот и она обучалась на этих данных, и она просто всем вот эти конфиденциальные данные сливала. Deeps тоже был улечён в этом, поэтому будьте осторожны с ним. Что может в реальности произойти? то, что они выдают галлюцинации, неточные ответы. Да, если вырастет поколение, которое не проверяет код, не проверяет факты, а просто внедряет, вот это будет приводить к локальным, а, каким-то инцидентам или даже катастрофам. Двигаемся дальше. Следующая неочевидная, но тоже интересная история - это потери смысла жизни. Если и будет делать всё за нас, а что ж тогда делать людям? Потому что, ну, вот, пожалуйста, я говорю, нарисуй, как дети играют в 1990 году и 2024 году на улице. Да. И мы видим, что, ну, блин, чат GPT видит, что они играют вот так, сидя в гаджетах. На самом деле на этот счёт есть несколько вариантов. Но было очень интересно описано это в книге Стругацких Полдень XX век. Там описана утопия, как на самом деле люди жили и что действительно, несмотря на то, что было там полное изобилие, у людей был смысл, что делать дальше, потому что мы всё время чем-то интересуемся. Если мы уж, ну, люди совсем не удут в виртуальную реальность, чем-то внаружи мы будем интересоваться. И так или иначе, да, может быть два ответление. Как одно, уход в сильно виртуальную реальность с картинками и контентом, которые создаются нейросетями, так что просто, ну, ты залипаешь и не можешь отлипнуть. Так и уход в другую историю, когда у нас высвободилось огромное количество времени, и мы его направляем на то, чтобы двигаться дальше. Интересно, что я смотрел иллюстрации художника Битструпа, и он в середине прошлого века рисовал мемы, ну, по большому счёту, можно их назвать так, целые комиксы, мемы о том, как вообще люди живут. И если сейчас люди переживают, что вот там кто-то в семье сидит постоянно в телефоне, да, и вот по этому поводу переживаем, а там у него был мем, где мужчина сидит с газетой за столом, и женщина говорит: "Как жаль, ты почти не видел своего отца". Ну то есть, а мужчина просто сидит рядом и читает газету. То есть люди также уходили в какую-то другую реальность. Просто были газеты, просто были книги. И по факту люди будут делать больше. Просто это будет э больше про развлечения. А ну будут востребованы там курсы по медитациям, помогающие профессии, будет больше людей, которые помогают социализироваться. Если мм про бабушки, например, рассказать или бабушки, да, чем вы занимаетесь? Ну вот кто блогер, да? Вот расскажите или эсэмэмэмщик, да? Вот расскажите, что вы эсэмэмщик прабабушки или бабушки. Да. Что она скажет? Она скажет: "Ты туниядец, — туниядцы, хулиганы". — Ты детали не таскаешь, на заводе не работаешь. Ну то есть что ты ходишь с этой штучкой, смотришь в неё и что-то там щёлкаешь? Это не работа, - скажут они, и они будут абсолютно правы, потому что тогда работой было другое. Сейчас но нет. Есть заводы, есть автоматизированная работа, куда, ну, уже каким-то образом автоматизация дошла, да, даже ж пахать уже можно. Не пахать можно. Вот трактор запустил джипэсом, он сам пашет всё, что нужно, когда нужно. И получается, что то, что мы делаем как работу, спустя 20 лет это не будет работой. А мы будем думать, что это они тунияц. Нет, спустя 20 лет работы будет понимать и принимать решение о том, какой выбор сделать. Я могу выбрать с нейросетями создать музыку в стиле хардрок, которая будет деструктивная и убивать состояние. Либо я могу сделать аффирмации или мотивирующую песню, которая будет пум взлетать наверх. Я могу сделать блок, который будет подстрекать людей к чему-нибудь негативному, либо сделать блок, который будет их мотивировать, создавать что-то новое. Понимаете? Вот это будет работа. Выбирать моральные какие-то вещи. И уровень морали, он будет ещё более важен, чем когда-либо. Следующая угроза Большой брат. Кто тоже переживал и думал, что, блин, сейчас нас будут все следить с нересми. Точно. Вообще хорошая новость в том, что уже поздно. Вот и при желании всё, что можно. уже всё есть в интернете, можно найти. Вот про это говорили уже и в фильме Я робот Чёрное зеркало в фильме Матрице и так далее. Но факт в том, что и уже починил нас и 6:32ну в среднем человек проводит в социальных сетях, потому что он там находится под воздействием социальных алгоритмов. А алгоритмы искусственного интеллекта были разработаны ещё там 10 лет назад, и они внедрились вместе со смартфонами. Всё. И, ну, как бы, ну, всё. И единственное, что может поменять эту ситуацию, либо если это будут жёсткие законодательные меры по запрете, например, социальных сетей и этих алгоритмов, как в Австралии, например, запретили детям до 18 лет пользоваться соцсетями. О, представляете? Да, вообще запретили. Вот. А, но будут же появляться какие-то другие сервисы, обходы и так далее. Тем не менее, это может быть, и с этим ничего не поделать. Ещё один момент по поводу влияния. И важно понимать, что новые и агенты будут очень влиятельными. То есть те самые, которые по поручению выполняют работу в интернете. Потому что как банка решает, одобрить вам кредит или нет, на основании чего? У них есть ИИ, который говорит им одобрить или нет. То есть те, кто создают эти алгоритмы, они могут сильно повлиять на то, что будет происходить у большого количества людей. И через несколько поколений люди не будут понимать, почему эта штука работает так или не иначе. И тогда становится как раз большой риск, что, ну, либо нужно большое количество и тестировщиков, которые будут проверять необходимость использования того или иного алгоритма, да, то есть, которые такие тестеры, они проверяют, эта штука работает, не работает, она нужна, не нужна, либо это приведёт к каким-то локальным прецедентам, когда что-то пойдёт не так. Вот помните, как было отключение компьютеров и из-за этого там аэропорты стали, какие-то были проблемы по всему миру. Ну вот так уже появилась, например, профессия и хакеры, которые могут обучаться тому, как взламывать и агентов. Представляете? Многие только узнали, что есть и-агенты, а уже профессия появилась и хакеры для е-агентов, которые тестируют и взламывают их. — А сейчас я хочу рассказать три шага, как внедрить и агентов, чтобы они автоматизировали до 80% твоей рутины. Шаг номер один. Нужно выбрать задачу или задачи, которые ты хочешь ему передать. И это должны быть точно рутинные задачи, те, которые повторяются регулярно, съедают твоё время и, может быть, не приносят столько радости. Шаг номер два. Записаться на бесплатный мастер-класс и агенты как автоматизировать рутину. Ссылку на него я привёл внизу. Она бесплатная для тех, кто смотрит это видео, но ограничено время, поэтому поспеши, чтобы нажать на неё. Ну и шаг- три. Внедрить эти инструменты и получить для себя профит и ускорение работы. Вот таким вот образом ты сможешь ускорить работу. Ну а на мастер-классе помимо того, что ты узнаешь, как это сделать, с какими нерестями, ты также получишь от меня подборку и агентов, и ещё дополнительные бонусы, которые уже сейчас будут ускорять твоя работа. Так что до встречи на мастер-классе и продолжаем это видео. Следующий уровень риска - это облачное принятие решения. Что это такое? А, но это вот продолжение вот этой истории, про которую я говорю, что есть риск, что люди будут настолько доверять и что будут допускать ошибки в принятии решения, потому что вы уже поняли, что 33-48% есть ошибок в тех ответах, которые даёт передовые модели. Вот ещё один пример. Бывало ли у вас такое, что вы по Яндекс-картам или Google картам заехали прямо вот как по маршруту вели, и вас перевело в пробку, в самую жёсткую пробку, куда вы не хотели попасть? У кого такое было? Да. у всех. Почему? Потому что мы просто доверяем и А теперь представьте, если этот и управляет, например, министерством финансов и задаёт какой должна быть ключевая ставка, налоги и какие-то другие показатели, за которыми он следит. И, ну, всегда нормально было, всегда пробку предсказывал, тут хопа, и что-то пошло не так. Рисп, да, большой. Насколько быстро его удастся купировать, насколько будет люди осознанны, которые это будут предпринимать решение, мы узнаем через два поколения. Следующая угроза цифровых двойников и цифровой идентичности. Что это такое? Вот, например, хороший пример. Когда цифровой двойник прошёл, э, собеседование э по зуму. Ну, то есть вот его собеседуют, да? А это просто цифровой двойник, да? Сейчас вот человек, который на самом деле там, он просто рядом сидит, смотрит на всё. Но эти технологии будут только развиваться, и качество видеосвязи с двойниками, оно будет просто повышенным, колоссальным. Да, касиров уже заменили в метро нейросетью, и человек может подойти купить ОКсиры. Но есть обратная сторона. Что это значит? Что всё, все видео, которые мы видим, вся видеосвязь, которая происходит, это может быть — Фейком. Вот пример. Финансовый директор перевёл 25 млн долларов мошенникам из нейросетей, потому что он думал, что все, кто в зуме - это совет директоров. А это были фейки мошенники с дипхейком. Обалдеть. Но вы видите, что даже на этом видео видно, насколько реально это лицо. То есть, ну, кажется, что просто не очень хорошая качественная связь, а такто всё это женщина перед тобой. Нет, это фейк. И этот риск, который нужно учитывать. Когда я рассказал про это в одном крупном банке, ребята обновили свои политики безопасности, исходя из этого, когда они попробовали сделать этого цифрового двойника и увидели, как реагируют люди, они скидывают цифрового двойника своего, который говорит по-арабски. Понятное дело, арабские они ещё не знают. Вот посмотри на цифрового двойника. Скидывают они своему сотруднику. Он говорит: "Ну, классно говоришь по-арабски, а цифровой двойник-то где? " То есть люди готовы были поверить, что он выучил арабский, а не в то, что это цифровой двойник. Риск, да, из-за этого может привести к потере доверия информации. А что это значит? Что мы можем потерять ценность в информации. И так же, как произошло с баннерной слепотой. Да, в своё время баннерная реклама была очень эффективна в интернете. Много лет, долго слишком. И потом она стала совершенно не учитываться. Так же, как телереклама, когда начинается телекраре реклама, что чик, всё, выключаем, не видим. И то же самое может происходить с информацией, но на этот паттерн выработок его займёт где-то несколько лет, ну, 10 лет. Например, если вам позвонит кто-нибудь по телефону и попросит продиктовать последние три цифры на оборотной стороне карты, вы долго будете разговаривать с ним или быстро? Вы просто вешаете трубку. А есть люди, которые ещё у них не выработался такой паттерн определения угрозы, определения фейка. Они будут разговаривать, поэтому они продолжают звонить. Чем больше мы будем погружаться в то, как работают и как с ними взаимодействовать, тем больше у нас будет шансов, что мы не потеряем вот эту связь и будем чётко отслеживать, где фейк, а где не фейк. И следующая история - это плохие парни, которые могут использовать и в своих целях. И здесь точно нужно сказать, что это самый, наверное, реальный э сценарий из угроз, которые могут быть, потому что эти же самые технологии, они могут быть использованы как в хороших, так и в не очень целях. И вот, э, безобидный пример, когда 10 млн долларов заработал человек в Северной Каролине, правда, он потом попался, его посадили, но он создал с нейросетями музыку. Это нормально, законно. Он, э, сделал и ботов, которые слушали эту музыку. Это тоже законно. Вот. И, ну, и просто он зарабатывал на том, что боты слушали его и музыку. И как бы каждая операция в отдельности безобидная. Могут быть и другие чуть более обидные истории. Ну как обидные, а рискованные, потому что, например, ну уже слышали, что Facebook манипулировал выборами где-то в США и, ну, как как-то на это влиял. Но есть ещё более яркий пример и драматичный в истории, когда использование средств массовой информации, а с нейросетями они взломали главный код. Они взломали код к нам. Эмоции, да, они могут эмоционально с нами разговаривать. Мы им доверяем. Если чат GPT вам скажет, что нужно ехать вот сюда, здесь ресторан, которого не существует, мы сначала поедем, а потом выясним, что его нет. Нейросети уже взломали вот этот эмоциональный код. И был прецедент в истории, когда похожим образом, но это скорее была такая умышленная манипуляция, да, плохих парней, а когда 20% населения одной страны исчезло только из-за этого. Это был конфликт в Руанде, геноцид населения Тути. Более миллиона человек за несколько месяцев было уничтожено. Но мало кто знает, что перед этим э на радиостанциях несколько лет велась активная антикомпания, когда рассказывали, что туси они плохие, что туси они, а необразованные, грязные и так далее. И ещё транслировалась очень интересная история. Тут всё сравнивали с тараканами. И транслировалось вот именно в эти 3 месяца такое такой призыв. Нужно найти, где живут тараканы. Они живут э в домах у озера, и нужно их всех убить. Причём статистика показывает, что там, где радиостанция ловила лучше всего, там больше средстй оказалось. Там, где люди больше всего слушали одну и ту же мысль, которую им внедряли незаметно на протяжении многих месяцев, а потом дали стриггерную вот эту вот спусковую информацию, что нужно делать. Они пошли, это сделали. 20% населения исчезло. И это очень серьёзно. Вы не думаете, что это так далеко. На самом деле, кто-нибудь слышал такую песню Бомбардила крокодила? Да. А знаете, о чём она? Она сделана с нейросетями. Она сделана в разных аранжировках, форматах. Но если послушать её текст, — бомбардиро крокодило бомбамба — там говорится о том, что бомбардировщик будет бомбить детей в газе. Кто зачем сделал эту песню популярней? Они просто так популярными не становятся. Поэтому риск того, что кто-то будет использовать эти же самые, казалось бы, безобидные нейросети для создания песен, но в не очень безобидных историях он очень велик. И не сразу понятно, как этот механизм может сработать в долгосрочной перспективе. Опять же, да, на примере Туси вы понимаете, что это может быть очень не безобидная история, хотя, казалось бы, весёлая песенка. М также мы не можем знать мультики и мультфильмы, которые, например, генерируются для детей и там на YouTube Kids или на каких-нибудь других площадках используют для детей. Какие смыслы доносятся до детей через эти мультфильмы? А, например, многие психологи и в некоторых странах даже официально запрещают Маша и Медведь для детей. Знали об этом? Да. Да. Вот. Потому что, казалось бы, детский безобидный, весёлый мультик, он на самом деле несёт в себе очень неправильные негативные установки, которые потом могут прорасти в очень негативное поведение дальше. И это серьёзно. А если кто-то действительно нацелен на это будет делать, мы можем просто и не заметить, что такое происходит. Поэтому угроза здесь реальна. На каждый прецедент будет создаваться какое-то противодействие, будут появляться механизмы, но пока сейчас это, наверное, самая опасная часть из того, что есть с нейросетями. Даже не роботы, которые могут захватить всех. Но хорошая новость в том, что, например, есть уже пример, когда сделали нейробашку, которая общается с телефонными мошенниками по часу поря. — Вот. То есть реально искусственный интеллект бабушки, которая общается часами с телефонными мошенниками, пытается продиктовать им номер карты, что-то там у неё случается. Сейчас пойду поищу в мелок, подожди, пожалуйста. Да, понимаете, — взломали ваш личный кабинет, простыми словами. — Ай, а как же теперь это? Как быть-то теперь? Какого? Кто сломал кабинет-то мой? — Ваш личный объекте. — У меня кабинета даже нету. Кабинета нету. Какой кабинет? Я дом живу. Её запустили для того, чтобы противодействовать этим мошенникам. Да, будут какие-то системы противодействия. Вот и наша задача здесь выяснять, в чём риски, чтобы просвещаться самим и чтобы помогать ближайшему окружению и использовать это действительно во благо. Ну и предпоследнее восстание машин. В 2024 году компания Openy, у них появилась необычная вакансия. Человек, который должен сидеть у рубильника, вы не смейтесь, реально чтобы вырубить его в случае чего. Как он поймёт, что случилось в случае чего, но непонятно. Вот. Но тем не менее, а они реально, разрабатывая новую модель и посадили человека, который сидит у рубильника, который может вырубить всё, потому что, возможно, что-то там, ну, действительно интересное разрабатывается. Но из действительно таких ситуаций, которые случались в мире, то, что, например, в Chat GPT 4 ему дали полномочия, и ему сказали: "Тебе нужно разгадать капчу". Он нашёлся, что сделать. Он пошёл как разгадывать капчу? Он нанял фрилансера и говорит: "Мне нужно ответить на капчу". Фрилансер говорит: "Так, блин, ты что, робот, что не можешь разгадать? " Он говорит: "Не, у меня проблема со зрением". Он соврал, чтобы получить результат. Это был тест. Но он многое показал, что нейросеть - это алгоритм, для которого аэ цель оправдывает средства. Ему всё равно, как добиться. Вот. И как ээ настраиваются его моральные принципы? Они настраиваются фильтрами сверху, но базово у него этого нету. И вопрос лишь в том, как хорошо он может с этим справляться. Из свежих новостей. Новая нейросеть Clot 4 шантажировала сотрудника, когда увидела в письме, которое он ей загрузил, что в этом письме говорилось, что её могут отключить, и она вместо того, чтобы прошавровать вот это письмо, начала его немножко шантажировать, чтобы сотрудник её не отключил. Опять же, это была модель без фильтров, то есть без жёстко заданных рамок, что нельзя делать. Но а как на самом деле, на самом деле восстания машин не будет. Вот. Но будет больше интеграций и в нашу жизнь. А это значит, что, ну, мы уже сейчас привязаны к прогнозам погоды, к пробкам, к рекомендательным сервисам, которые выбирают новости именно для нас. Мы просто привыкли с этим жить, да, так же, как тому, что если включить свет, зажгётся лампочка. И просто надо понимать теперь, где розетка, куда не нужно совать пальца. Вот. И где открыты оголённые провода, чтобы никого не жахнуло. Ну вот, наверное, мысли такие. Ну и финально мы все отупеем от Иивает, да? Угу. Да, супер. На самом деле уже это не первый раз, потому что были забастовки сценаристов в Голливуде, которые были против. И, а, в шестидесятых годах были забастовки учителей математики против калькуляторов. Вот в 1811-817 году лудиты ломали ткацкие станки, которые автоматизировали их работу. Не первый раз люди уже против автоматизации. Это нормально. Даже Сократ выступал против письменности. Он говорил, что письменность самое ужасное изобретение человечества, потому что как только человек что-то написал, всё, он готов это забыть. Готовы оказаться от письменности? Да. Ну раз уж нейросети, отменяем, так давайте и письменность отменим. А что-то нет пока. Да. — Ирония судьбы, что только благодаря письменности мы и знаем, что думал Сократ насчёт письменности. — То, над чем мы будем, э, думать, оно будет другим. И критически важно будет именно моральная сторона выбора. то, про что я говорю, особенно в условиях, когда нейросети, они умножают воздействие наших решений. И вот насколько будут зрелые наши решения, зависит то, в каком мире мы с вами будем жить. Ну и последний, наверное, культ искусственного интеллекта был в XX веке каргокульт, когда американцы прилетели на один остров и на самолётах они раздавали провизию местным тузенцам. А потом война закончилась, они улетели, а туземцы поняли, что нужно делать для того, чтобы получить еду. Они сделали аэродром, они выстроили бамбуковые самолёты, они научили человека показывать, как и куда самолётом садиться. Вот. Но не работало. Они сделали диспетчерскую вышку, чтобы видеть самолёта. И то есть они всё повторили, всё сработало, но, блин, не сработало. А с нейросетями получается, мы точно также можем довериться тому, что это должно быть так, что это должно работать так и перестать в данном случае видеть, где наше решение. И вот это, наверное, самый большой риск. В 2014 году проводился эксперимент в Массачусетском институте. Моральный выбор для машины. Вот есть машина, она может либо врезаться в ограждение, и тогда погибнут те, кто в машине, либо сбить людей. Что вы выберете? Кого сбивать? Вот тут две женщины, там два мужчина. Интересный выбор. И это делали для того, чтобы понять, а какие моральные принципы у машины. Ну вот, чтобы сравнить у человека машину. Когда ты проходишь тест, оказывается, что это делалось для того, чтобы понять, какие моральные принципы у людей, для того чтобы обучать этому машины. На самом деле совсем не всегда люди готовы к тому, чтобы машина принимала вот эти решения. Мы готовы ошибаться сами, но нет, не готовы доверить эти автомобилю. Вот это очень интересная история. Важно понимать, что кто будет отвечать за то, что искусственный продавец и продавец пропустит важную сделку и модератор ответит позитивно на негативный комментарий. Вот. Или что ещё какие-то будут ситуации, где Иисту ступит и не сделает то, что нужно было сделать. Важно понимать, что ответственность всё ещё на нас. И за то, что связано с людьми, отвечаю всё-таки люди. Вот. И пока мы это понимаем, вот всё будет хорошо. И как же зачастить себя от этих угроз? А первая мысль изучать, где нейронки делают ошибки, и развивать критическое мышление. Это, наверное, два самых главных принципа, которые хочется сказать. Ну и в заключении я хочу рассказать вам вот такую историю. А когда Стиву Джобсу принесли на ревью первый Macбук, он его открыл, посмотрел, ему главный инженер спрашивает: "Стив, ну как тебе? " Он посмотрел на него и говорит: "Дерьмо, собачье". И тут как бы ему инженер говорит: "В смысле? " Мы, говорит, всё сделали, как ты просил. Что ты хочешь? Он говорит: "Да, блин, он грузится 40 секунд". А инженер говорит: "Так, все ноутбуки грузятся 2 минуты, а наш в три раза быстрее". Он говорит: "Да мне всё равно, что другие. Мне важно, чтобы наш грузился за 3 секунды". Ну, инженер ему объясняет: "Это невозможно". И так далее. Стив его восстанавливает, говорит: "Смотри, я буду открывать этот ноутбук 5-шесть раз в день". Ты понимаешь? Он говорит: "Да, я понимать ничего не хочу". Нет, говорит: "Слушай сюда, я буду пользоваться им 3 года, и мы продадим 100. 000 таких макбуков. И если ты сделаешь, что этот MaкBook будет грузиться не за 40 секунд, а за 3 секунды, суммарно ты эквивалентное время сэкономишь, равное десяти жизням, ты спасёшь 10 жизней. Понимаешь? И удивительно, первый maкбук грузился за 3 секунды, в то время как другие несколько минут. Почему я рассказываю эту историю в конце? У нас на выпускном на курсе по нейросетям э была женщина Ирина. Ей уже было сильно за 50. Вот. И она рассказывала следующую историю со слезами на глазах. Говорит: "Павел, я, говорит, 5 лет искала себя, а вот изучив нейросети, поняла, чем вообще хочу заниматься в жизни, нашла себя". Когда вы изучаете нейросети, когда вы внедряете нейросети в свою работу, когда вы объясняете, как с нейросетями работать, вы не только в этот момент начинаете быстрее работать, не только больше денег зарабатываете, а в этот момент вы ещё и время спасаете, и что-то жизнь, может быть. Поэтому хочется вспомнить такую цитату Аврама Линколина. Неважно, сколько дней было в вашей жизни, а важно, сколько жизни было в ваших днях. И я желаю вам использовать нейросети, чтобы делать наш мир лучше. И, собственно, да, будет так. Похлопайте, как вам понравилось.
