Небоскребы - это величайшие символы амбиций человека, олицетворяющие его стремление к величию. Но знаете что? Небоскребы падают. Падают в прямом и в переносном смысле. Первая четверть XXI века подарила нам способность смотреть на этих исполинов с ракурса истории, социологии, психологии и даже антропологии. Теперь, глядя вниз из окна на 60-м этаже, ты по-прежнему видишь вместо людей - точки, ресурсы, показатели. Но вместе с этим ты видишь свое тусклое отражение в стекле и все чаще вспоминаешь десятки историй крушений и падений. Историй, которых накопились сотни, и все они...
Велика вероятность, что вы уделили гораздо больше внимания красивой девушке на картинке, чем невзрачной надписи рядом с ней и уж тем более введению к этой статье. Если так (но в особенности ели это не так), то эта статья точно окажется для вас полезной.
Русская рулетка - это уже приевшееся клише в мире науки об управления рисками. Как насчет вашего пробуждения и начала дня, в определенной степени - это целый ритуал. Можно начать утро с пяти чашек кофе и десяти сигарет, нырнув в работу, даже не почистив зубы и не обмолвившись ни словом с близкими. А можно начать утро с зарядки, пробежки, холодного душа и приятного, хорошего завтрака с семьей. Чувствуете к чему я клоню? Риск есть всегда и везде, просто в одних случаях он минимален, а в других он зашкаливает. Проснувшись утром, посмотрите в зеркало и вспомните, что тот факт, что куча атомов, которую вы видите в отражении, оказалась человеком - это невероятное чудо. Но напомните себе: величайшая опасность состоит в том, чтобы забыть, что ты человек.
Проблема управления рисками кроется не в том, что кто-то не умеет считать риски. Нет, с этим как раз все в порядке. Настоящая причина кроется в культуре, в особенности - в корпоративной культуре.
Может показаться, что для того, чтобы шагнуть из математики в корпоративную культуру, надо переобуться. Но - нет. Давайте в качестве примере возьмем одну огромную "синюю" компанию, которая производит процессоры для компьютеров. Далее мы так и будем называть эту компанию - Синие. В какой-то мере, Синие - это уже заезженный и банальный пример корпоративного краха, но этот пример до сих пор никто не рассматривал в математическом контексте.
Итак, хорошо известно, что у Синих есть всего два основных рынка процессоров: ноутбуки и серверы. Но почему не мобильные устройства?
С математической точки зрения, любая корпорация - это нелинейная динамическая система с множеством подсистем (R&D, производство, финансы, маркетинг), связанных петлями обратной связи. В "здоровой" системе негативная обратная связь стабилизирует поведение, например, если продажи падают, то она приводит к смене стратегии. В "больной" системе доминируют положительные обратные связи, которые только усиливают отклонения, например: "Продажи падают, но мы лидеры, а значит все, что мы делаем - абсолютно правильно, поэтому игнорируем шум (внешние сигналы) и работаем по плану".
Долгое доминирование на рынке и долгое доминирование лишь одной процессорной архитектуры создало у Синих сильный внутренний приоритет: "Мы создали архитектуру, которая позволила нам добиться масштабного успеха, это привело к огромной прибыли, значит, львиную часть нужно реинвестировать в архитектуру, которая привела к масштабному успеху."
Собственно так и возникает структурная инерция - штука, которая призвана сделать систему стабильной и устойчивой. И эта штука может показаться очень крутой, ведь, что нужно когда ты достиг головокружительного успеха? Правильно - закрепиться! Но проблема в том, что если закрепиться слишком сильно, то любое отклонение от генеральной стратегии (для Синих - это инвестиции в ARM или SoC), воспринимается как экзистенциальный риск для основного бизнеса, а не как разумное хеджирование будущего.
С точки зрения математики система оказалась в локальном максимуме функции прибыли, но перестала двигаться в сторону глобального максимума, потому что когда ты стоишь на максимуме, все градиенты указывают только в сторону спуска, а вниз двигаются только... безамбициозные неудачники.
Долгое пребывание в локальном максимуме не проходит бесследно, и количество ошибок первого рода в стратегическом прогнозировании начинает расти. Например, Синие решили, что пользователям нужно больше производительности. А что такое производительность? Производительность = тактовая частота + ядра. Потребители хотят сидеть дома и "жечь железо" либо на своих компьютерах, либо на серверах. Значит нужно вкладываться в свою архитектуру еще больше. Энергоэффективность? Кого она вообще волнует?!!
Разумеется, "синие" знали, что такое байесовское обновление, но какой от этого знания толк, если твой априор практически ничем неотличим от дельта-функции?
Это классический случай смещения подтверждения в неэргодической среде. В системе, где прошлое не предсказывает будущее, так или иначе возникает склонность изо всех сил защищать свои изначальные убеждения и гипотезы. В 2007-ом был представлен первый iPhone, но синие сочли его "игрушкой". Мобильный успех должен был быть в процессоре, а он оказался в SoC, программном обеспечении, батареях, сенсорных экранах, камерах, дизайне, исполнении и т.д. Синие восприняли производство низкомаржинальных ARM-ов как операционный риск, но полностью проигнорировали стратегический риск, связанный с утратой релевантности - миру был нужен лидер создания новой платформы, а не старый поставщик устаревающего железа. Синие думали, что они уменьшают дисперсию своего портфеля, но в системном кризисе от этого нет никакой пользы.
Топтание в области локального максимума создает впечатление стационарности среды, но благодаря оси времени система координат постоянно движется в прошлое. Мало кто воспринимал 2015 год как начало эпохи экспоненциальных изменений, но многие переходили на гибкие итеративные циклы: "строим - измеряем - изучаем", Синие же так и остались в парадигме: "планируем - выполняем - оптимизируем". Локальный оптимум - это тюрьма для глобального видения.
Если вы математик (но в особенности если вы не математик), то вы можете извлечь из всего вышеописанного следующие важные уроки:
Диверсификация стратегических гипотез - не ставьте все, что есть, лишь на один вариант развития будущего.
Антихрупкость - вы должны выигрывать от нестабильности и волатильности, а не просто выживать.
Минимизация времени обратной связи - чем быстрее вы узнаете, что ошибаетесь, тем дешевле ошибка.
Эпистемическая скромность - помните и признавайте, что любая модель мира, в том числе и ваша, может быть фундаментально неверна.
Так что, Синие сглупили? Нет, у Синих работали (и работают) одни из лучших инженеров мира и то, что случилось с Синими, вовсе не провал людей - это провал системы. Или нет?
"Рыба гниет с головы! Виновато руководство!!!" Серьезно? Если вы так думаете, то позвольте вас разочаровать. Это не так.
Руководство Синих - это группа крайне умных, опытных и мотивированных людей с доступом к самым качественным данным и аналитике. Как такая группа может принять целую серию катастрофических решений? Такое недоумение можно понять. Однако, первое, что нужно понять - интеллект не защищает от системных когнитивных искажений. Даже наоборот, в определенных условиях высоченные IQ и статус лишь усугубляют ошибки. Почему?
Умные люди лучше обосновывают свои убеждения, даже если они ошибочны.
Люди с высоким статусом редко сталкиваются с настоящим опровержением - их окружение фильтрует критику.
Наконец, руководство - это не "лаборатория" истины, а социальная система с иерархией, большими репутационными ставками/рисками, ну и, конечно же, с собственными нормами.
Допустим, генеральный директор склоняется к оптимистичному взгляду на будущее, а вы обладаете информацией, которая склоняет вас, наоборот, к более пессимистичной точке зрения. Но может вы просто теряете веру в компанию???* Данный феномен известен, как социальное сдерживание.
Что круче: коллективное мышление или мудрость толпы? Даже если вы знаете, что второе, то согласитесь, "мудрость толпы" - звучит как-то не очень. Ну, а вообще, да, это две крайности, к которым может скатиться сумма когнитивной деятельности N-го количества людей. Коллективное (групповое) мышление - это главный враг стратегического видения. Этот термин ввел Ирвинг Дженис, когда изучал провалы вроде вторжения на Кубу или Вьетнамской войны. Он описал 8 симптомов группового мышления, и почти все они наблюдались у синих.
"Мы 50 лет доминировали на рынке - значит мы знаем, как устроен рынок. Благодаря нам и существует рынок!" - это иллюзия непогрешимости, создающая неоправданный оптимизм и побуждающая к принятию высокого уровня риска.
"Эти телефонщики вместе с Джобсом - сборщики и позеры, а не инженеры" - это негативная стереотипизация оппонентов, как слабых, недалеких, предвзятых, злобных и глупых.
"Мы не просто верим в свою компанию и общее дело. У нас есть миссия, и мы верим именно в нее!" - так появляется симптом самоцензуры своих собственных идей, которые могут противоречить общему мнению группы.
"Все же понимают, что наши технологии и архетектуры - это будущее" - а вот это иллюзия единодушия, молчание становится знаком согласия.
"Нам нужны только эффективные сотрудники" - это прямое давление группы и обвинение в нелояльности любого члена группы, который подвергает сомнению её решения.
"Процессоры - это то, что делаем Мы. Недопроцессоры - это то, что делают все, кто не Мы." - сами собой появляются самоназначенные и инициативные "контролеры мышления", которые ограждают группу от информации, противоречащей общему мнению группы.
"Да, с некоторыми моделями есть проблемы, но случаи единичны" - игнорирование сигналов извне, которые могут поставить под сомнение заключения, сделанные группой.
"Вы, конечно, лучший инженер на планете, но мы не будем подстраиваться под ваши требования" - это не подвергающаяся сомнению вера в высокий, нет, эталонный интеллектуальный и морально-нравственный уровень группы, как следствие игнорирование членами группы последствий своих действий.
Хмммм, похоже, что у Синих наблюдались все эти симптомы. Плохо ли это? Да, но это точно не глупость, а самый древний и самый простой механизм социальной адаптации, которая происходит в условиях самоорганизации. Если вам доводилось быть в начале формирования коллектива из большого количества людей, то вам наверняка доводилось наблюдать такое своими глазами. Суть группового мышления - это стремление к консенсусу и гармонии, без которых конфликты могут перерастать в нечто поистине неприятное. Однако, в наше более-менее просвещенное время, групповое мышление подавляет мышление альтернативное. Ну, а в кризисных ситуациях групповое мышление становится "смертельным".
Ирония еще и в том, что коллективное мышление - это вполне себе парадигма. А чем лучше работает компания в текущей парадигме, тем меньше у нее стимулов ставить под сомнение основы. Синие жили в параллельной реальности, где главное - это GHz, но пользователи начали выбирать смартфоны, руководствуясь не только этим параметром. Реальный рынок в реальной Вселенной перешел к опыту пользователя. Вдруг оказалось, что поведенческие данные - это не просто данные, которые можно пропустить через ML-модель и получить на выходе профит. Чтобы получить профит от поведенческих данных, нужно обладать не только знанием математики, но еще и как минимум пониманием бихеоверизма.
"Нет, нет и нет! Рыба все равно гниет с головы!!!" - скажут самые упорные хейтеры. Ох, если бы все было так просто...
Нейробиология убедительно доказывает, что долгая и сильная причастность (приверженность, привязанность) к чему либо неминуемо приводит к изменениям мозга. Слышали о профессиональной деформации? Так вот управление - это тоже своего рода профессия (У Дэвида Оуэна есть интересные исследования по этому поводу). Причем профессия, которая переполнена не просто какими-то "несуществующими" опасностями в виде огромного количества когнитивных искажений, но и реальными опасностями. Сейчас, конечно, не средние века, но просчеты руководства крупных компаний приводят к тому, что налогоплательщикам приходится расплачиваться за них не только деньгами, и в конце-концов "разъяренные толпы начинают требовать крови".
Вот что еще любопытно, даже среди крайне образованных людей наблюдается явное снижение симпатии к неуверенным руководителям. Еще один занимательный парадокс состоит в том, что в условиях радикальной неопределенности, сомнение - это единственный путь к выживанию, но сомневающийся руководитель не ассоциируется с успехом. Общепринято считать, что настоящий ученый всегда имеет возможность изменить свое мнение, а настоящий руководитель - нет.
Если вы математик, то можете воспринимать корпоративную динамику как фазовый переход сложной системы в сложной среде. Пока внешняя среда стационарна, система оптимизируется. Но когда среда становится нестационарной, локальные оптимумы превращаются в ловушки. Чтобы переработать новый "хаос", нужна новая "топология".
Повторюсь еще раз, провал руководства Синих - это не провал людей. Это провал системы. Сейчас лучшие советы директоров намеренно включают в свой состав "некомпетентных чужаков" - людей без опыта в отрасли (индустрии), без лояльности к прошлому и коллективу, с правом задавать "глупые" вопросы. Зачем? Иногда, только глупый вопрос способен спасти умных людей от катастрофы.
Хотя, знаете, мне вот нравится воображать параллельные вселенные. Вполне может быть, что в одной из них люди звонят друг другу по Kodak-ам, а японцы ненавидят свой автопром и гоняют на наших "жигуарах".
Пример синих наглядно демонстрирует парадокс: даже в среде, насквозь пропитанной интеллектом, может выстроиться система, где принять катастрофическое решение становится проще, чем его избежать. Возникает законный вопрос: что же делать, если сам механизм принятия решений сломан?
Ответ лежит на поверхности: эта система работает как мощнейший искажающий фильтр. Пропуская через себя любую информацию, она выдает ее только в таком виде, в котором она удобна и безопасна для самой системы.
Давайте смоделируем, как это могло бы работать в случае с Синими.
Допустим, Синие все же осмелились заказать масштабное исследование у ведущего аналитического агентства или университета с целью получить объективный ответ на простой вопрос: "Должны ли мы уйти с рынка мобильных процессоров?"
Через несколько месяцев на стол руководства ложится отчет. 150 страниц. Графики, формулы, модели, прогнозы. Вывод однозначен: "Рынок мобильных процессоров - это стратегическое будущее. Отказ от него приведет к потере лидерства в долгосрочной перспективе".
Казалось бы, принять неверное решение теперь невозможно? Ошибаетесь. Система только начинает свою работу.
После получения исследования включается конвейер по производству альтернативной реальности. Исследование отправляется на изучение внутренним экспертам. Запускается процесс, который можно назвать "аналитической войной": "наша" внутренняя аналитика, против внешней, «чужой».
Представьте себя на месте внутреннего аналитика. Вы годами готовили отчеты, обосновывая фокус на высокомаржинальных серверных чипах. Ваша карьера, ваш авторитет построены на этой парадигме. И вдруг появляется "сторонний" документ, который ставит под сомнение всё, что вы делали.
Признать его правоту - это карьерный суицид. Но и просто проигнорировать его тоже слишком опасно.
Что делать? Есть изящный выход. Внутренний аналитик не отвергает отчет. Он его "взвешивает". В своем служебном отчете он представляет две "равновесные" гипотезы: одна - за мобильный рынок (выводы агентства или университета), другая - против (прошлые внутренние исследования и наработки). А затем добавляет ключевую фразу: «Наша компания обладает уникальными компетенциями, чтобы склонить чашу весов в выгодную сторону».
Этой фразы достаточно. Она превращает объективные данные в вопрос веры и лояльности. Она подменяет анализ - риторикой.
Далее, это "отфильтрованное" исследование идет вверх на следующий уровень, где его снова "взвешивают" и "интерпретируют". С каждым шагом вверх по иерархии первоначальный, объективный, но неудобный вывод теряет свою силу.
Но представим чудо: исследование без единой правки легло на стол генерального директора. Вы думаете, это гарантирует верное решение? Увы. Факты не говорят сами за себя. «Интерпретация фактов порой важнее самих фактов» - это не просто цитата. Любые, даже самые железобетонные данные, можно уложить в прокрустово ложе уже принятого решения.
Итак, любая информация, попадая в корпоративную среду, рискует быть искаженной до неузнаваемости. Можно ли создать для данных некий "защитный слой", который не только убережет их от вольной интерпретации, но и активирует такой мощный эффект, как "мудрости толпы"?
Ответ - ДА. И этот защитный слой - язык чисел, а именно - язык вероятностей.
Когда мы работаем в условиях неопределенности, вероятность - это не абстракция. Это количественная мера нашей уверенности. Превратив любое экспертное мнение в число, мы лишаем систему главного оружия - манипуляции.
Давайте разберем наш трюк с внешним отчетом по Синим.
Допустим, в отчете черным по белому написано: «Рынок мобильных процессоров будет стремительно расти, игнорировать его - стратегическая ошибка». Но это качественное утверждение. К тому же, с точки зрения теории вероятностей, это утверждение может быть как верным, так и нет. И вот я, внутренний аналитик, могу провести над ним простую, но разрушительную операцию. Авторы отчета, возможно, были уверены в своем выводе на 99%. Но они не вынесли эту цифру в итоговое заключение. А значит я, пользуясь своим "внутренним знанием", могу заявить: «Мы уважаем выводы коллег, однако, с учетом нашей внутренней информации, оцениваем уверенность в их прогнозе лишь в 60-65%».
И снова, одной фразы достаточно. Мощнейший, почти неизбежный прогноз превращен в нечто зыбкое и спорное. Поле для маневра открыто.
Защитный механизм - это принудительная оцифровка уверенности. Представьте, что в том самом отчете стояла бы не просто словесная констатация, а четкая метка: "Мы оцениваем вероятность стремительного роста рынка мобильных процессоров в 99%". Эта простая цифра меняет все.
Она - не может исчезнуть. Скрыть или не передать существующую "цифру" - это опаснее, чем карьерный суицид, потому что можно лишиться не только карьеры, но и репутации, и даже свободы.
Она - противовес манипуляции. С неудобной "цифрой" так или иначе придется считаться - написать рядом с оценкой 99% "Но мы думаем, что 65%" будет уже не так просто, потому что это уже прямой вызов, требующий веских (в том числе и численных) аргументов. Такой вызов опасен, ведь он фиксируется и становится частью "протокола". Теперь у любой ошибки будет конкретный "автор".
Она - противовес "диффузии ответственности". Любая, даже самая страшная ошибка не так страшна, если ответственность за нее можно разделить между большим количеством людей. Что ж, можно попросить всех внутренних экспертов и аналитиков дать свои численные оценки своей уверенности. Если все они окажутся очень далеки от 99% из исследования, то это автоматически становится указателем на коллективное мышление.
Она - основа для математики рисков. Цифры можно складывать, умножать и пропускать через вероятностные модели. Вероятность 99% может показаться необоснованно высокой, но даже если снизить ее до 80%, то вероятностная модель может рассчитать примерно следующее: "При вероятности в 80% и потенциальной выручке в 10 млрд, ожидаемая величина этой возможности составляет 8 млрд. Отказ от нее эквивалентен сжиганию этой суммы."
В мире, который перегружен данными, главный дефицит не в информации, а в измеримой уверенности. А своеобразный парадокс состоит в том, что на самом деле измерять уверенность в чем-либо довольно просто, если использовать метод рулетки.
Метод рулетки чрезвычайно прост: эксперту дается некоторое количество фишек, например, 50 и его задача состоит в том, чтобы он, опираясь на свои знания и убеждения, распределил эти фишки между интересующими нас исходами некоторого события - сделал ставку так, словно это происходит в казино. Например, Синие могли бы попросить такого эксперта распределить фишки между следующими возможными вариантами развития событий:
Рынок мобильных процессоров упадет на 5% в следующем году;
Рынок мобильных процессоров в следующем году не изменится (рост 0%);
Рынок покажет рост на 5%;
Покажет рост на 10%;
На 15%;
На 20%;
На 25%.
Результирующее распределение фишек, сделанное экспертом, может быть, например, таким, как на рисунке ниже.
Прелесть такой оценки состоит в том, что мы можем ее легко интерпретировать как гистограмму, а поскольку общее количество фишек известно и использовать необходимо все, то мы можем интерпретировать оценку как распределение вероятностей.
Метод рулетки - это не просто способ получения "топлива" для вероятностных моделей, это целый список огромных преимуществ:
Метод просто идеален для экспертов с небольшим опытом в статистике;
В результате появляется непротиворечивый набор вероятностей;
Эксперт может переставлять фишки в процессе оценивания, который так или иначе сопряжен с процессом исследования вопроса, что только добавляет ему уверенности в предоставляемом итоговом результате (можно изменить мнение).
Качественные ощущения, такие как "маловероятно" или "скорее всего" превращаются в целые числа.
Если какие-то предельные исходы также присутствуют в опросе, то эксперт вынужден оценить и их вероятность. Это, конечно же, не прогнозирует черных лебедей, но все же заставляет принимать их в расчет, как реальное явление. Недооценка "хвостовых" рисков, как правило, и приводит к эпическим катастрофам;
С эксперта снимается ответственность за точный ответ, т.е. эксперту нет необходимости говорить (клясться мамой), что вероятность какого-то исхода будет точно равна 15%-ам. Вместо этого он просто ставит на этот исход 15 фишек из 100. Это психологически проще и защищает от давления.
Когда оценка каждого эксперта - это явная ставка, зафиксированная в системе, очень сложно потом необоснованно ее изменить. Логика изменений даже на основе новых данных всегда будет отслеживаться.
Организация процесса оценивания и сбора оценок от большого количества экспертов невероятно проста - люди распечатывают пустые графики на обычных листах, а вместо реальных фишек закрашивают пустые кружочки маркерами. Это позволяет принимать не только судьбоносные решения для компании, но и постоянно следить за текущим представлением о реальности и процессах.
"Рисковики" просто в восторге от этого метода. Все, что не является данными, обычно выглядит как "говорильня" в стиле "Бла-бла-бла, это может быть плохо, бла-бла-бла, но если произойдет это, то будет хорошо". Оценивать риски на основе данных можно, но это даже не всегда 20% успеха. Более 80% успеха - это прямая работа с гипотезами и вероятностями.
Такие оценки открывают дорогу к использованию передовых методов Байесовского вывода и вероятностного моделирования.
Но несмотря на огромное количество преимуществ, метод рулетки еще идеально подходит для разыгрывания такого эффекта как мудрость толпы (если не нравится "мудрость толпы", то можно говорить "мудрость большинства" или "коллективная мудрость"). Допустим, Синие решили опросить 5 экспертов о возможном развитии рынка мобильных процессоров и, допустим, трое экспертов - это "свои", а двое - это "чужие". Тогда их оценки могут выглядеть следующим образом.
Видно, что оценки Синих очень отличаются от оценок "красных". Почему? Может быть потому, что красные - это какой-нибудь менеджер сети магазинов цифровой техники и разработчик ПО для мобильных приложений? Да, они не могут нарисовать кучу формул, провести всесторонний анализ ситуации и сделать наглядные графики с прогнозами. Ну, какие же это эксперты? Тем не менее, они своими глазами видят, как люди покупают мобильные устройства, и что им нужен для них хороший софт. Вполне возможно, что мнение таких "экспертов" является намного более ценным, чем мнение экспертов из аналитических агентств и университетов.
Если мы разместим оценки всех 5-ти экспертов на одном графике, то мы увидим, что они сильно различаются:
Но это замечательно, потому что если мы усредним эти оценки, то получим как раз то, что и называется эффектом "мудрости толпы":
Этот график говорит, что игнорировать рынок мобильных процессоров нельзя, однако, испытывать каких-то слишком позитивных настроений по поводу его роста тоже не стоит. Стоит ли ориентироваться на среднее значение такого графика? Ни - "да", ни - "нет". Но вот уточнить это значение, а лучше само распределение на основе опроса большего числа экспертов определенно стоит. Кстати, стоимость такого опроса, наверняка, будет гораздо дешевле, чем заказанное исследование у агентства или университета.
Крах Синих довольно занимателен. Но есть еще один пример недооценки "хвостовых" рисков. Одна крупная корпорация, которая практически всю первую четверть 21-го века специализируется на ИИ решениях в сфере B2B и B2G, недавно сама заявила, что полностью упустила возможности в гонке LLM и теперь переключается на технологии квантовых вычислений. Назовем эту компанию Трехбуквенные.
И снова, это компания, насквозь пропитанная интеллектом и снова - это крах системы а не людей. Когда я увидел первый ролик от компании, которая сейчас лидирует в LLM, то про сами LLM еще даже никто не думал. Ролик был посвящен тому, что ребята с помощью компьютерного зрения и обучения с подкреплением заставили антропоморфную, роботизированную руку очень реалистично и умело вертеть кубиком, не выпуская его из ладони. Тогда это казалось чем-то фантастическим. Но был в этом ролике еще один занимательный момент. Парень с зеленым ирокезом, который явно был не просто массовкой.
Скажите, может ли настоящий ученый или инженер носить на голове зеленый ирокез? Скорее всего - нет. Именно так решили Трехбуквенные, как и многие другие серьезные компании: "Мы ученые. А они - просто фрики". В итоге все, кто так думал, восприняли трансформеры (технология, лежащая в фундаменте LLM) как игрушку, не заслуживающую внимания серьезных ученых.
Сработал бы метод рулетки для Трехбуквенных? Думаю - да. Но метод рулетки не панацея, например, можно "взвешивать" экспертов, снижая вклад тех экспертов, которые нам не нравятся и увеличивая вклад тех экспертов, которым мы "доверяем". Точно также мудрость толпы - она не всегда работает. "Держите свои галстуки распущенными" - гласит одно из правил, направленных на поддержание работы этого эффекта. Видимо, парень из того ролика решил усилить это правило по максимуму. И, впрочем, его можно понять. Однако сбор оценок методом рулетки и условия для мудрости толпы могут быть легко запротоколированы и регламентированы. Аудит таких протоколов и регламентов гораздо проще, а их нарушение можно расценивать ничем иным, как вредительством.
А вот еще одно интересное наблюдение. Как только LLM начали показывать первые серьезные успехи, появился прогноз (предсказание, я бы даже сказал "пророчество") о том, что в не столь отдаленном будущем могут появиться "единороги", состоящие всего из одного человека. Как бы вы теперь оценили такую возможность? А какова вероятность того, что они будут создавать новые ниши, а не отбирать существующие?.. добро пожаловать в эпоху экспоненциальных изменений!
Итак, мы "крутнули рулетку", что дальше? Пожалуй, самое сложное в Байесовском выводе - это постоянно держать в уме то, что ты работаешь с гипотезами и неопределенностью.
Давайте придумаем какой-нибудь простой и наглядный пример. Допустим, у нас есть какое-то предприятие по производству некоторой продукции из некоторого сырья. Предположим, что нам необходимо во что бы то ни стало выполнить важную поставку для крупного клиента. Мы знаем, что иногда что-то может идти не так, и это приводит к срыву графика работы. Но поскольку речь идет о важной поставке, мы очень заинтересованы в том, чтобы никаких фейлов не произошло. Мы немного пораскинули мозгами и пришли к выводу, что есть всего три основные причины таких фейлов:
качество сырья;
исправность производственной линии (оборудования);
квалификация рабочей смены.
Далее мы просим зайти к нам трех экспертов нашего предприятия, которые лучше всего разбираются в этих трех аспектах производства и просим их сделать ставки на то, что график будет сорван. В итоге имеем следующее:
Сырье может оказаться плохого качества с вероятностью 10% и хорошего - 90%;
Линия может выйти из строя с вероятностью 5% и оказаться исправной с вероятностью 95%;
Ну, а квалификация персонала может оказаться достаточной с вероятностью лишь 70% и недостаточной с вероятностью 30%.
Да-да, знаю, это похоже на "душный" пример из "душного" учебника по терверу. Да и вообще, все и так понятно: в первую очередь надо решать проблему с квалификацией. Тем не менее, давайте все равно пропустим этот пример через теорему Байеса.
Мы своими глазами видим, что оценки вероятностей, говорящие о том, что для нас самая опасная опасность - это недостаточная квалификация. Зачем вообще что-то пересчитывать?
Вероятность гипотезы и вероятность события - это не одно и тоже. В самом общем случае мы играем против природы (Вселенной, если хотите) и причину срыва графика выбирает именно она. Есть ли у нас какие-то основания считать, что она их выбирает каким-то специальным образом? Может быть качество сырья на нашем заводе интересует Вселенную намного меньше чем исправность оборудования? У нас таких знаний нет. Поэтому мы выбираем индифферентный подход к оценке вероятностей гипотез и присваиваем каждой из них значение 1/3. Это означает, что природа выбирает причины срыва графика с равной вероятностью. Данных, указывающих на то, что это не так - вообще нет.
Но вот произошел срыв графика, гипотетический, конечно же. Но это не просто срыв графика - это информация! А раз так, то благодаря теореме Байеса мы можем узнать, как устроена Вселенная и оказывается, что в качестве причины срыва графика она больше всего предпочтет выбрать квалификацию смены. Далее по предпочтительности идет качество сырья, ну а исправность оборудования окажется на последнем месте.
Вроде бы все просто, но что если мы решим зайти в производственный цех, чтобы увидеть все своими глазами, а там совсем не та шикарная производственная линия, которую мы покупали 10 лет назад: висящие провода, брякающие шарниры, раздолбанные кнопки и куча изоленты. Повод ли это отказаться от индифферентного подхода и оценок соответствующего эксперта? Но что если эксперт действительно прав, ведь, например, в Индии бывает еще и не такое, но работает! Находясь под впечатлением, мы действительно можем переоценить гипотезу о том, что наиболее вероятной причиной срыва графика будет именно неисправность и начнем первым делом устранять наименее вероятную угрозу.
Если мы изначально неверно оцениваем вероятность гипотез, то теорема Байеса и в особенности сценарный анализ покажет, в чем именно мы заблуждаемся и чего не замечаем. К тому же, обратите внимание, что у нас всего три гипотезы, но им соответствует очень большое пространство возможных действий. Например, мы можем ничего не делать. А можем сначала заняться проблемой повышения квалификации (короткий ликбез о том, как не уничтожить цех вместе с собой), потом решить проблему с тем, чтобы сырье было гарантированно качественным, ну и намотать побольше изоленты там, где ее поменьше. А можем решить только проблему с сырьем и линией. Конечно, посчитать количественные значения рисков - это круто, но куда важнее понять, что надо делать. А еще лучше проранжировать необходимые действия в порядке значимости для оптимального снижения риска. Именно для этого, как раз и нужна теорема Байеса.
Представленная выше задача полностью аналогична пресловутым задачам из старых учебников по терверу. Помните? "Есть три урны, в первой урне 9 белых шаров и 1 черный, во второй..."" или такая: "50 студентов сдают экзамен трем преподавателям, вероятность сдать экзамен первому преподавателю равна..." Однако за такими задачами скрывается серьезная и более чем практичная философия. Эти задачки, конечно же, моделируют реальность, но реальная реальность, а в особенности бизнес-реальность куда сложнее. Можем ли мы сразу взять и смастерить идеальную модель? Нет, нужно что-то, от чего можно отталкиваться. Что-то, к чему можно вернуться.
Например, представленный выше пример со срывом графика может быть переосмыслен немного по-другому. Если мы пришли к выводу, что квалификация рабочей смены - это самая вероятная угроза, то давайте задумаемся, из чего именно состоит эта угроза:
Если смена не блещет квалификацией, то какова вероятность того, что они могут допустить ошибки на ровном месте (банальная криворукость при качественном сырье и исправном оборудовании)?
Если сырье пришло не таким качественным, как хотелось бы, то с какой вероятностью им удастся перенастроить процесс производства так, чтобы срыва графика не произошло?
А если производственная линия или оборудование сломаются, то с какой вероятностью им удастся решить и эту проблему?
А что если подведут и сырье и оборудование, то какова вероятность, что им удастся справиться одновременно с двумя проблемами?
Если у нас есть оценки экспертов для всех вышеуказанных четырех исходов, то даже несмотря на то, что вероятности плохого сырья и неисправности линии остались прежними, картина будет несколько иной:
Судя по расчетам, уповать на то, что квалификация смены окажется достаточной, по-прежнему не стоит. Но теперь мы видим, что вероятности срыва графика из-за качества сырья и неисправности оборудования практически сравнялись. Фактически, модель говорит о том, что решить проблему какими-то "полумерами" не удастся. Нет, как бы понятно, что проблему с квалификацией надо решать в первую очередь, но непонятно по какими угрозам нужно в первую очередь "просветить" рабочую смену.
Может быть реальная причина в том, что на предприятие поступило много "зеленых" новичков, а программа для составления графиков рабочих смен просто не учитывает этот фактор, и мы впервые обратили на это внимание. Возможно, на предприятии появилось много новичков из-за усилившейся "текучки". Возможно, "текучка" связана с плохими условиями труда и его оплаты. Что рискованнее, попросить (заставить) опытных работников трудиться несколько смен подряд и потерять на сверхурочных (а может и самих опытных работников) или оставить все, как есть, и возможно сорвать важную поставку?
От огромного числа всех этих "возможных возможностей" может заболеть голова. Но причина этого лишь в том, что управление рисками - это работа. А риск-менеджер - это профессия, причем очень важная профессия. Если все это не вызывает у вас головной боли, то вы либо уже риск-менеджер, либо идеально подходите для этой роли. А может вы врач? Или следователь? Программист? Ученый? Маркетолог? Нам всем приходится делать и проверять множество гипотез, потому что именно от этого во многом и зависит, как личный, так и профессиональный успех.
Вот бы была какая-нибудь формула успеха. Но она есть - это теорема Байеса.
Рассмотренный выше пример невероятно прост. По сути для него даже не нужен какой-то специализированный софт. Давайте рассмотрим пример посложнее.
Это модель устойчивости поставщика, представленная в виде Байесовской сети. Хоть эта модель и представлена в виде графа, но концептуально это невероятно большая таблица условных вероятностей. А раз есть такая таблица, то значит мы можем применить к ней теорему Байеса. Мы можем "прогнать" эту модель в прямом направлении (сверху-вниз) и посмотреть, каким, вероятнее всего, будет будущее. Но самое замечательное в том, что мы можем "прокрутить фарш в обратном направлении и понять, что именно больше всего влияет на вкус котлет". Это очень круто, если ты продаешь котлеты, но это справедливо абсолютно для любого продукта (или лекарства, Байес набрал обороты именно в фарме). Благодаря таким моделям, мы можем увидеть не только возможные сценарии будущего, но и наиболее вероятные причины для реализации каждого из сценариев.
По сути мы получаем идеального цифрового двойника объекта или процесса, который "живет" в аналогичных условиях неопределенности. Что лучше, прокручивать разные сценарии для такого двойника или испытывать все на своей шкуре? Байесовская сеть - это самая идеальная DSS (система поддержки принятия решений), которую только можно придумать, потому что она может быть идеально "заточена" под конкретную задачу.
В чем конкретный профит? Однажды я узнал, что у моего знакомого ДМС гораздо (я бы даже сказал - в разы) круче, чем у меня и при этом ненамного дороже. Когда я решил разузнать о "его" страховой компании, то первым делом посмотрел вакансии. И знаете что? Цифровой двойник моего знакомого в этой компании наверняка был гораздо релевантнее. Мой знакомый получил персональный продукт, а я - нет.
Или вот еще. Авиаперелет и очень ценный багаж. Естественно, я хочу его застраховать. Нет проблем! Плати 600 рублей, которые покроют 50 тысяч убытка. А других вариантов нет. Разумеется, можно обратиться к другим страховщикам. Но в спешке, на это нет времени. Потом я полтора часа стоял около ленты выдачи багажа и за это время свой багаж успели забрать люди с 6 или 8 рейсов. И ни у одного не было никаких проблем с багажом. Может быть, у моего чемодана и был цифровой двойник. Может быть, даже очень хороший двойник. Но есть ли такой двойник у продукта?
Мой сын участвовал в соревнованиях по каратэ, и правила участия требуют обязательной страховки. Я знаю, что иногда (пусть и очень редко) детей уносят с этих соревнований на носилках, и готов был заплатить за страховку куда больше. Но ничего подобного мне не предложили. Почему?
Потому, что на самом деле все устроено гораздо сложнее. Однако, я так не считаю. И я уверен, что в одном большом зеленом банке считают точно так же. Я даже поставил бы на то, что в ближайшие 5 лет этот банк "оттяпает" себе значительную часть страхового рынка. И вовсе не потому что он большой (хотя и поэтому тоже), а потому что они умеют выдвигать и тестировать большое количество гипотез. Причем умеют тестировать их еще до того, как появляются данные.
Я затронул тему страховых компаний и банков потому, что их деятельность больше всего связана с рисками. Мы знаем - чтобы заработать больше, придется и рисковать тоже - больше. Именно поэтому эти сферы регулируются центробанками. Есть ГОСТ по управлению рисками, есть международные стандарты, есть рекомендации и даже требования. И это замечательно. Ведь все эти требования появляются не на пустом месте - значит есть кто-то, кто может или не прочь их нарушить. Значит, есть кто-то, для кого и это тоже замечательно: пока кто-то считает, что "надо танцевать, пока играет музыка", кто-то другой озадачен тем, как отобрать у этого танцора абсолютно все. Кто-то строит стратегию, которая учитывает такие цели.
Я специализируюсь на ценообразовании и недавно выяснил, что в теории игр есть небольшой раздел, посвященный выявлению стратегии соперника. Опять же, концептуально со стратегиями все просто - по сути это просто таблички с двумя столбцами: в первом столбце указываются возможные ситуации, а во втором соответствующие действия. Если вы хоть раз рисовали параболу, то знаете, что функции тоже можно табулировать. Фактически, стратегии - это просто функции (надеюсь, теперь фразы типа "стратегические риски" или "стратегическое планирование" вам не будут казаться чем-то абстрактным и безосновательным). А если мы видим какое-то количество "точек" этой функции, то мы можем построить и проверить целую массу гипотез относительно ее возможного вида и параметров. Так вот, оказывается, что благодаря теореме Байеса и в особенности Байесовским сетям, выяснить стратегию соперника вполне себе возможно. Лично для меня, тот факт, что можно узнать, по какому принципу ваши конкуренты скупают рекламные места, или как они продают, скажем, какие-нибудь экскаваторы, стало не просто большим открытием, а мощнейшим "ВАУ!!!" - эффектом (похоже, что у меня есть какая-то нездоровая зависимость от таких эффектов и, судя по всему, все мои будущие статьи будут создаваться ради того, чтобы поделиться именно этим "ВАУ!!!").
Теорема Байеса и Байесовские сети - это не просто идеальная DSS, это еще и самый настоящий троянский конь, написанный на языке математики!
Я не математик - я просто пользуюсь математикой. Я не программист - я просто пользуюсь программированием. А в последние годы мои решения становятся все менее IT-шными - приходится все больше "говорить" с бизнесом. Тем не менее, именно благодаря всем этим трем причинам, я могу с полной уверенностью сказать: теорема Байеса - это серебряная пуля, а Байесовские сети - это самая настоящая КИЛЛЕР-ФИЧА.
Управление рисками - это принятие решений. И на самом деле в принятии решений не так много чистой математики, как хотелось бы. Иногда надо иметь недюжинную смелость, чтобы назвать дерьмо - дерьмом. Взгляните на нижеследующий график.
Этот график "стоит" жизни семерых астронавтов челнока "Челленджер", который взорвался 28 января 1986 года. Взорвался из-за пустякового уплотнительного кольца возле одного из стыков ускорителя. На графике же четко показано, что эти кольца - дерьмо! И полеты смертельно опасны!
Культура завтракает стратегиями, обедает компаниями, но НА УЖИН ОНА ЕСТ ЛЮДЕЙ.
Что дальше? Я рекомендую задуматься над идеей - математика внедряется не в компании и не в бизнес, она внедряется в культуру компании и в культуру бизнеса.
Декарт сказал: "Все подвергай сомнению". Теорема Байеса - это самый четкий и естественный язык для обоснованных сомнений. Сомнений, которые никто не сможет проигнорировать.