Глава 3. Неслучайная случайность

Так многое в жизни, похоже, определяется чистой случайностью.

Сидни Пуатье

Многое из происходящего вокруг кажется нам совершенно непредсказуемым. Мы объясняем это “иронией судьбы”, виним в происшедшем “неудачное стечение обстоятельств” или списываем на то, что “просто повезло”. Как же много всего в этом мире, похоже, зависит от капризов удачи, везения или невезения! Но математика поможет нам развеять туман и в путанице и неразберихе случайности разглядеть некое подобие порядка.

Тщательно перетасуйте колоду карт. Готово? Поздравляю – скорее всего, вы только что совершили нечто уникальное. Почти наверняка еще ни у кого за всю историю человечества ни разу не получилось перемешать карты так, чтобы они расположились в колоде именно в такой последовательности. Причина проста: 52 карты дают нам 52 × 51 × 50 × 49 × … × 3 × 2 × 1 вариантов их расположения в колоде. Это в общей сложности примерно 8 × 1067, или 80 миллионов триллионов триллионов триллионов триллионов триллионов, вариантов различных последовательностей карт. Если бы все живущие на свете люди тасовали по колоде карт в секунду с момента возникновения Вселенной, то на сегодняшний день они перетасовали бы их всего 3 × 1027 раз, что в сравнении с теоретически возможным количеством вариантов просто ничтожно мало.

И тем не менее утверждают, что бывали случаи, когда после тасовки новой колоды карты оказывались в том же порядке, в каком они были сложены в коробке. По правде говоря, шансы в этом случае гораздо выше, чем 1 к 8 × 1067, то есть чем вероятность получить любую другую последовательность. В новой, только что распакованной колоде карты обычно рассортированы по мастям – червы, трефы, бубны и пики, – а каждая масть уложена в возрастающем порядке, начиная с туза, двойки и тройки и кончая валетом, дамой и королем. Если сдающий – мастер “американской” тасовки и может раз за разом точно делить колоду пополам, а затем, пролистывая половинки, соединять их вместе, перемежая ровно по одной карте из каждой стопки, то исходный порядок карт восстановится всего через восемь таких идеальных тасовок. Вот почему в казино новую колоду часто тасуют “по-детски”, раскладывая карты на столе и перемешивая их круговыми движениями ладоней (такой способ еще называют “мытьем” колоды). Чтобы так же хорошо перемешать карты предыдущим методом, потребуется не меньше семи тщательных, но не идеальных тасовок. “Мытье” дает порядок, который можно уверенно назвать случайным; другими словами, шансы того, что, посмотрев одну карту в перетасованной таким образом колоде, вы сможете угадать следующую, равны примерно 1 к 51. Но будет ли такой порядок истинно случайным? Что есть случайность и бывает ли вообще что-то абсолютно случайным?

Понятие случайности, или полной непредсказуемости, существует столько же, сколько сама цивилизация, а может быть, и дольше. Когда нам нужно сделать “случайный” выбор, первое, что приходит в голову, – бросить монетку или игральные кости. Древние греки для азартных игр использовали таранные кости коз и овец. Позже они стали применять и игральные кости правильной формы, хотя где именно те появились впервые, точно неизвестно. Египтяне пользовались игральными костями еще пять тысяч лет назад при игре в сенет. В Ригведе, древнем тексте на ведийском санскрите, написанном около 1500 года до нашей эры, также упоминаются кости, а в одной из месопотамских гробниц, относящейся к XXIV веку до нашей эры, обнаружены целые наборы для игр с костями. Греческие кости – тессеры – имели кубическую форму и нанесенные на гранях цифры от 1 до 6; но в том виде, как они существуют сегодня (то есть с очками на противоположных сторонах, дающими в сумме семь), кости появились только во времена Римской империи.


Таранные кости животных, использовавшиеся для игр (например, для игры в бабки).


Математики довольно долго обходили вниманием вопросы случайности, традиционно считавшиеся прерогативой религии. Как восточные, так и западные философии в исходе многих событий видели божий промысел или волю иных высших сил. Из Китая пришла “И Цзин” (“Книга перемен”), система гадания, основанная на толковании 64 различных гексаграмм. Некоторые христиане пользовались для принятия решения более простым методом – вытягиванием соломинок, заложенных между страниц Библии. Эти и множество других интереснейших методик прогнозирования, к сожалению, имели один отрицательный эффект – слишком долго никто не предпринимал попыток рационально объяснить природу случайности. В конце концов, если исход событий предопределен силами, недоступными пониманию человека, зачем суетиться и пытаться логически анализировать, почему все происходит так, а не иначе? К чему выяснять, нет ли каких-то законов, которым подчиняется вероятность того или иного исхода?

Как-то не верится, что, бросая кости, древние греки или римляне не имели хотя бы интуитивного представления о вероятности выпадения того или иного варианта. Когда речь идет о деньгах или иной материальной выгоде, и игроки, и другие заинтересованные стороны очень быстро схватывают все нюансы игры. Так что, скорее всего, какое-то внутреннее чутье, понимание шансов благоприятного исхода сформировалось не одно тысячелетие назад. Ну а наука всерьез взялась за изучение случайности и вероятности только в период позднего Возрождения и в XVII веке. В авангарде научных открытий в области случайности и вероятности в то время шли французский математик и философ (и к тому же ревностный янсенист) Блез Паскаль и его соотечественник Пьер де Ферма. Эти двое великих мыслителей взялись решить задачу, которую упрощенно можно сформулировать так: предположим, два игрока подбрасывают монету и денежный выигрыш достается тому, кто первым наберет три очка. Однако игра прерывается, скажем, в тот момент, когда один из игроков ведет со счетом 2:1. Как тогда разделить выигрыш между игроками наиболее справедливым образом? Еще до Паскаля и Ферма было предложено немало решений этой задачи. Возможно, ставку следует разделить поровну, раз игра не закончилась и определить победителя невозможно. Но это несправедливо по отношению к игроку, набравшему два очка, – надо же как-то учесть его преимущество. С другой стороны, вариант решения, в котором предлагалось отдать все деньги лидеру, несправедлив по отношению к его сопернику, у которого тоже был шанс выиграть, если бы игра продолжилась. В третьем варианте решения предлагалось разделить ставку с учетом набранных очков, то есть две трети отдать игроку с двумя очками и одну треть – игроку с одним очком. На первый взгляд, справедливо – но есть проблема. Предположим, игра прервалась бы при счете 1:0. В этом случае, если применять то же правило, игрок, набравший одно очко, получает все деньги, второй же (который мог бы выиграть, если бы игру довели до конца) остается ни с чем.

Паскаль и Ферма нашли более удачное решение, а заодно открыли новый раздел математики. Они вычислили вероятность победы каждого из игроков. Игроку с одним очком, чтобы выиграть, нужно набрать еще два очка подряд. Вероятность этого равна S, помноженной на S, то есть j. Таким образом, он должен получить четверть суммы выигрыша, а остальное идет сопернику. Этим же методом можно решить любую задачу такого рода, только вычисления могут оказаться посложнее.

Работая над этой задачей, Паскаль и Ферма пришли к понятию так называемого математического ожидания. В азартных играх или любой другой ситуации, когда успех зависит от случая, математическим ожиданием называют среднее значение выигрыша, на который вы можете резонно рассчитывать. Предположим, например, что вы играете в кости и выигрываете по шесть фунтов каждый раз, когда выпадает три очка. Ожидаемое значение выигрыша в этом случае – один фунт, поскольку шансы, что выпадет три очка, составляют один к шести, а одна шестая выигрыша – это и есть один фунт. Если играть много раз, за каждый бросок кости вы заработаете в среднем по одному фунту. После 1000 бросков ваш средний заработок составит 1000 фунтов, так что если каждый раз ставить по фунту, то вы как раз выйдете в ноль. Обратите внимание, что, хотя ожидаемое значение и составляет один фунт, выиграть ровно столько в этой игре невозможно. Не во всякой азартной игре возможно получить за одну партию точную ожидаемую сумму выигрыша; ожидаемое значение – это тот средний размер выигрыша за партию, на который вы можете рассчитывать при многократном повторении игры.

В лотерее ожидаемое значение, как правило, отрицательное, поэтому с рациональной точки зрения это не лучший способ заработать. (В некоторых лотереях при переносе джекпота иногда возникают ситуации, когда ожидаемое значение выигрыша становится положительным.) То же касается и игр в казино, по очевидной причине: казино – предприятие коммерческое, его задача – получать прибыль. Случаются, правда, и сбои из-за ошибки в расчетах. Известен случай, когда казино увеличило сумму выигрыша всего лишь по одному из исходов игры в блек-джек. В результате математическое ожидание выигрыша стало положительным и заведение за несколько часов потеряло огромную сумму. Заработок казино напрямую зависит от досконального знания математики теории вероятностей.

Случаются совпадения настолько маловероятные, что люди начинают подозревать неладное: один и тот же человек дважды выигрывает главный приз в лотерее или в двух розыгрышах выпадают одинаковые номера. Журналисты часто слетаются на такие истории как пчелы на мед, раздувая из кажущегося фантастическим совпадения настоящую сенсацию. А все из-за того, что мы в большинстве своем просто не умеем объективно оценивать вероятность подобных событий, поскольку исходим из ложных предпосылок. Взять хотя бы случай со счастливчиком, которому главный приз достался два раза: мы пытаемся решить эту задачу применительно к себе и рассуждаем – а у меня какие шансы выиграть дважды? И тут же отвечаем себе: да почти никаких. Но ведь те редкие люди, которым это удается, как правило, регулярно играют в лотерею много лет подряд. Два выигрыша за много лет игры – это уже совсем не так удивительно. Еще важнее помнить, какое огромное количество людей участвует в лотерее. Большинство из них никогда не выиграет джекпот даже один раз, не говоря уже о двух. Но при таком количестве играющих тот факт, что кто-то где-то выигрывает дважды, уже не выглядит таким уж невероятным.

Это может показаться парадоксальным и нелогичным, но причина в том, что мы пытаемся примерить задачу на себя. Естественно, крайне маловероятно, что именно вы выиграете джекпот два раза. Но если оценивать шансы того, что кому-либо из играющих так повезет, то вероятность такого выигрыша нужно умножить на количество участников лотереи (что значительно увеличивает шансы), а также на число способов, которыми можно выиграть лотерею дважды (оно приблизительно равно количеству раз, что участники сыграли в лотерею, возведенному в квадрат и деленному пополам). Если учесть все эти факторы, шансы того, что фортуна улыбнется кому-то дважды, начинают выглядеть довольно неплохо.

Наша ошибка при оценке вероятности какого-либо события заключается в том, что мы учитываем не все возможности его наступления. Именно она лежит в основе так называемого “парадокса дней рождения” (который, строго говоря, и парадоксом-то не является): если собрать в одной комнате 23 человека, то вероятность того, что у двух из них совпадут дни рождения, превысит 50 %. Казалось бы, она должна быть гораздо ниже. Кто-то даже поспорит: ведь если для такого совпадения достаточно всего 23 человек, то у каждого из нас должно быть как минимум несколько знакомых, родившихся в тот же день, что и мы, – а на деле такое всегда вызывает удивление. Но ведь в парадоксе речь идет не о вероятности того, что кто-то конкретный из этих людей (например, вы) обнаружит в комнате еще кого-то с тем же днем рождения, а о шансах того, что дни рождения совпадут у любых двоих из группы. Другими словами, нас интересует не вероятность того, что у двух конкретных членов группы один и тот же день рождения, а шансы того, что хотя бы два любых человека из группы родились в один день. Вероятность такого совпадения составляет 1 – (365/365 × 364/365 × 363/365 × … × × 343/365) = 0,507, или 50,7 %. В группе из 60 человек эта вероятность превышает 99 %. А вот чтобы получить 50-процентную вероятность того, что у кого-то в группе день рождения совпадает с вашим, нужно уже 253 человека.

Одна из причин, по которой это кажется парадоксальным, заключается в том, что мы смешиваем два разных вопроса. У большинства из нас просто нет 253 достаточно близких знакомых, у которых мы бы знали день рождения, поэтому нам и кажутся маловероятными подобные случайные совпадения. Но это вовсе не значит, что вероятность совпадения дней рождения у двух других людей так же мала.

Контринтуитивными могут казаться не только положения, относящиеся к вероятности, но и понятие случайности. Какая из двух последовательностей орлов (О) и решек (Р) ниже кажется вам более случайной?

О, Р, О, О, Р, О, Р, Р, О, О, Р, Р, О, Р, О, Р, Р, О, О, Р

или

Р, О, Р, О, Р, Р, О, Р, Р, Р, О, Р, Р, Р, Р, О, О, Р, О, Р

Подозреваю, что многие выберут первую, поскольку в ней поровну орлов и решек, расположенных без видимого порядка. Во второй решек явно больше, к тому же бросаются в глаза более длинные серии повторяющихся букв. На самом деле вторую цепочку один из нас (Агниджо) образовал с помощью генератора случайных чисел, а первую специально составил таким образом, чтобы она напоминала результат работы человека, которого попросили написать случайную последовательность букв О и Р. Человек в таком случае обычно избегает длинных серий повторяющихся букв, обе использует примерно поровну и переключается с О на Р и обратно чаще, чем когда это происходит случайно.

А как насчет вот такой последовательности?

О, Р, О, О, О, Р, Р, О, О, О, Р, О, О, О, О, Р, О, Р, Р, Р

Она выглядит вполне случайной, даже статистические методы анализа не заподозрят в ней дело рук человека. В действительности же она построена из десятичных знаков числа пи (без начальной тройки): О обозначает нечетные знаки, а Р – четные. Так являются ли знаки числа пи случайными? Формально нет, так как первый десятичный знак всегда 1, второй – всегда 4 и так далее, сколько бы раз вы ни пытались сгенерировать эту последовательность. Если нечто имеет постоянное место и неизменную величину (когда бы нам ни вздумалось на это нечто посмотреть), какая уж тут случайность? И все же математики задаются вопросом, можно ли считать десятичные знаки числа пи случайными статистически, то есть распределенными равномерно: другими словами, с одинаковой ли вероятностью в его записи встречаются все цифры по отдельности и все сочетания цифр (пары, тройки и так далее). Если да, то про пи можно сказать, что оно “нормально по основанию 10”. Именно так думает подавляющее большинство математиков. Считается также, что число пи “абсолютно нормально”, то есть не только его десятичные знаки статистически случайны, но и двоичные знаки (если его записать в двоичной системе, используя только нули и единицы), и троичные (если оно записано нулями, единицами и двойками) и так далее. Доказано, что почти все иррациональные числа абсолютно нормальны, но вот найти доказательство для конкретных случаев оказывается невероятно трудным делом.

Первый пример известного нормального числа по основанию 10 – постоянная Чемперноуна, названная так в честь английского экономиста и математика Дэвида Чемперноуна, который еще студентом в Кембридже опубликовал работу о ее значении. Чемперноун изобрел эту константу специально для того, чтобы доказать, что нормальные числа существуют, а заодно продемонстрировать, как легко такое число сконструировать. Его постоянная представляет собой просто-напросто цепочку, составленную из следующих друг за другом чисел натурального ряда: 0,1234567891011121314…, а потому содержит все возможные последовательности цифр в равных пропорциях. Десятую часть всех цифр константы составляют единицы, сотую часть всех пар цифр – пара 12 и так далее. Вот только, несмотря на нормальность этого числа по основанию 10, входящие в него цепочки цифр совсем не выглядят случайными (то есть неупорядоченными и непредсказуемыми), особенно в начале. Кроме того, нам неизвестно, является ли это число нормальным по какому-либо иному основанию, кроме 10. Существуют и другие константы, нормальность которых доказана, но все они, как и постоянная Чемперноуна, сконструированы нормальными искусственно. До сих пор не доказано, является ли число пи нормальным хотя бы по какому-то основанию.


Первые двести с небольшим знаков числа пи.


На момент написания этой книги известно 22 459 157 718 361, или чуть больше 22 триллионов, знаков числа пи. В будущем мы, конечно, сможем вычислить и больше знаков[11], но те, что нам известны, уже не изменятся никогда, сколько бы раз мы ни производили вычисление. Известные знаки числа пи – часть застывшей реальности математической вселенной, а потому не могут быть случайными. А что насчет остальных его знаков, тех, которые еще не вычислены? Если исходить из того, что пи нормально по основанию 10, они пока остаются для нас, по сути, статистически случайными. Другими словами, если вас попросят написать случайную цепочку из тысячи цифр, вы можете, предварительно собрав компьютер, способный вычислить на 1000 знаков числа пи больше, чем известно сейчас, использовать полученные новые знаки в качестве случайной цепочки. Еще одну случайную цепочку? Пожалуйста – вычисляем еще тысячу (ранее неизвестных) знаков. В связи с этим возникает любопытный философский вопрос о природе математических явлений: насколько реальны те десятичные знаки числа пи, до которых мы еще не добрались? Трудно ведь утверждать, что, скажем, септиллионный[12] знак числа пи не существует или что у него нет конкретного постоянного значения, даже если мы не знаем, что это за знак. Но в каком смысле и в каком виде он существует до того, как появится в памяти трудяги-компьютера в результате невероятно долгого вычисления – вычисления, которое пока еще не производилось?

Кстати, стоит упомянуть любопытное открытие, сделанное в 1996 году исследователями Дэвидом Бэйли, Питером Боруэйном и Саймоном Плаффом. Им удалось найти довольно простую формулу – сумму бесконечного ряда членов, – с помощью которой можно вычислить любой знак числа пи, не зная ни одного предыдущего знака. (Строго говоря, вычисляемые по формуле Бэйли – Боруэйна – Плаффа знаки не десятичные, а шестнадцатеричные, то есть представлены по основанию 16.) На первый взгляд это кажется невозможным, да и для других математиков стало полным сюрпризом. Но еще больше поражает другое: для того чтобы вычислить с помощью этого метода, к примеру, миллиардный знак числа пи, достаточно обычного ноутбука и совсем немного времени – меньше, чем на обед в ресторане. Разные варианты формулы Бэйли – Боруэйна – Плаффа могут использоваться для поиска других “иррациональных” чисел, подобных пи, с десятичными знаками, что убегают вдаль бесконечной цепочкой, нигде не повторяясь.

Есть ли в чистой математике вообще хоть что-нибудь истинно случайное – вопрос не праздный. Случайность предполагает полное отсутствие упорядоченности и предсказуемости. Непредсказуемым можно назвать только то, что неизвестно, и только при условии, что нет никаких оснований считать один из возможных исходов вероятнее другого. Математика, по сути дела, существует вне времени; другими словами, она не меняется, не эволюционирует от одного момента к другому. Единственное, что меняется, – это наши знания о ней. Физический же мир изменяется непрерывно, причем эти изменения часто кажутся нам непредсказуемыми. Вращение подброшенной монеты мы считаем достаточно непредсказуемым, чтобы использовать этот метод для выбора одного из двух существующих решений. На деле же степень случайности зависит от того, какой информацией мы располагаем. Если бы нам были известны сила и угол броска, скорость вращения монеты, сопротивление воздуха и так далее, мы сумели бы (теоретически) точно предсказать, какой стороной вверх она упадет. То же касается и падения бутерброда с маслом, разве что в этом случае у нас имеются еще и научные данные, подтверждающие точку зрения пессимистов – чаще он падает маслом вниз. Эксперименты показали, что если бутерброд подбросить вверх (такое, конечно, может произойти только в лаборатории или в школьной столовой), то вероятность его приземления маслом вниз составляет 50 %. Но вот если его смахивают со стола или он соскальзывает с тарелки, тогда он действительно чаще падает намазанной стороной вниз. Причина проста: случайное падение обычно происходит с высоты примерно уровня пояса плюс-минус сантиметров тридцать и у бутерброда как раз достаточно времени, чтобы сделать пол-оборота, поэтому если полет начинается из традиционного положения “маслом вверх”, то закончится он, скорее всего, жирным пятном на полу.

Большинство физических систем гораздо сложнее падающего бутерброда. К тому же некоторые еще и хаотичны, а это значит, что даже незначительное вмешательство в начальные условия может привести к последствиям огромного масштаба на более позднем этапе. Одна из таких систем – погода. До появления современных метеопрогнозов оставалось лишь гадать, что день грядущий нам готовит. Метеоспутники, чувствительные наземные приборы и мощные компьютеры совершили настоящую революцию в метеорологии, позволив давать точный прогноз на период до 7–10 дней. Но при попытке заглянуть дальше даже самые передовые методики и высокотехнологичное оборудование наталкиваются на непреодолимый барьер – сложность и хаотичность системы, включая так называемый эффект бабочки: представление о том, что ничтожное колебание воздуха, вызванное взмахом крыльев бабочки, способно, постепенно усиливаясь, превратиться в страшный ураган.


Ураган “Феликс”, сфотографированный с Международной космической станции 3 сентября 2007 года.


Даже при всей сложности системы может показаться, что любым явлением, будь то вращение подброшенной монеты или климат на планете, руководят одни и те же законы природы, и законы эти детерминированы. Когда-то считалось, что вселенная устроена наподобие гигантского часового механизма – фантастически сложного, но совершенно предсказуемого. Такое представление неверно по двум причинам. Первая связана опять-таки со сложностью. Даже внутри детерминированной системы – то есть такой, в которой исход зависит от ряда событий, а каждое из событий можно предсказать, точно зная предыдущее состояние системы, – задача может быть настолько сложной, что узнать заранее, чем все закончится, просто нереально. В таких системах даже самая совершенная и быстродействующая модель (например, компьютерная) не способна “обогнать” само явление. Это касается систем не только физических, но и чисто математических – таких, например, как клеточные автоматы. О самой известной из таких моделей – игре “Жизнь”, придуманной Джоном Конвеем, – мы еще поговорим подробнее в пятой главе.

Эволюция любой фигуры в игре “Жизнь” полностью детерминирована, но непредсказуема: исход игры можно узнать только после того, как был рассчитан последовательно каждый ее этап. (Есть, конечно, фигуры, которые изменяются циклично – например “пульсируют” или после нескольких этапов начинают передвигаться, не меняя формы. Такие можно рассчитать заранее, зная их поведение. Но наблюдая за игрой первый раз, мы еще не знаем, как они себя поведут.) В математике даже неслучайное может быть непредсказуемым. Но до начала XX века большинство физиков считало, что, пусть мы и не можем знать всех деталей происходящего в физической вселенной, мы в принципе способны познать ее настолько, насколько захотим. Имея достаточно информации, верили они, мы можем с помощью уравнений Ньютона и Максвелла рассчитать ход любых событий с необходимым нам уровнем точности. Но появление квантовой механики положило конец этим представлениям.

Неопределенность, как выяснилось, лежит в самой основе квантовой теории: случайность в субатомном мире – неизбежная объективная реальность. И нигде прихоти случайности не проявляются более очевидно, чем в процессе распада радиоактивных ядер. Да, действительно, с помощью наблюдений можно определить период полураспада радиоактивного вещества – то среднее время, за которое распадается половина исходных ядер во взятом образце. Но это лишь статистическая мера. Период полураспада радия-226, например, составляет 1620 лет – именно столько придется ждать, чтобы от кусочка радия массой в один грамм осталось полграмма, а остальное превратилось в газ радон или в свинец и углерод. Но если наблюдать за одним конкретным ядром радия-226 во взятом образце, абсолютно невозможно предсказать, то ли оно вместе с 37 миллиардами других ядер в том же кусочке распадется через секунду, то ли через 5000 лет. Наверняка нам известно только то, что вероятность его распада в ближайшие 1620 лет – S, то есть та же, с какой при подбрасывании монеты выпадает орел или же, наоборот, решка. И эта непредсказуемость никак не связана с точностью наших приборов или быстродействием компьютеров. На таком глубинном уровне структуры вещества случайность заложена в самой ткани реальности, а значит, может влиять и на процессы, происходящие на более высоких уровнях, внося в них элемент случайности. Крайним проявлением эффекта бабочки стало бы, например, влияние распада одного-единственного атома радия на климат нашей планеты.

Вполне возможно, что квантовая теория с ее случайностью – это всерьез и надолго. Были, однако, физики (к их числу принадлежал и Эйнштейн), которые не могли смириться с тем, что Бог, перефразируем Эйнштейна, играет в кости со вселенной. Критики ортодоксальной квантовой теории считают, что за капризным поведением объектов в сверхмалом мире стоят некие “скрытые параметры” – факторы, определяющие, когда частицам пора распадаться и тому подобное, и нам бы только узнать, что это за параметры, да научиться их измерять. Если теория скрытых параметров окажется справедливой, вселенная снова станет неслучайной, а истинная случайность будет существовать только как некий математический идеал. Ну а пока все имеющиеся данные указывают на то, что в вопросе квантовой неопределенности Эйнштейн ошибался.

Похоже, нет ничего определенного в зазеркальном мире сверхмалого. То, что мы считали крохотными твердыми частицами, – электроны и им подобные – растворились, превратившись в волны, причем даже не в материальные, а в волны вероятности. Про электрон уже нельзя сказать точно, здесь он или там, а только что он скорее здесь, чем там, – ведь его движением руководит математическая конструкция под названием “волновая функция”.

Все, что нам осталось, – это вероятность, да и с той нет полной ясности. Существует несколько интерпретаций. Самое распространенное толкование – частотное. Согласно ему, вероятность наступления события – это предел (то есть значение, к которому нечто стремится) относительной частоты наступления события. Чтобы определить вероятность события, “фреквентист[13]” должен многократно повторять эксперимент и смотреть, сколько раз произошло нужное событие. Например, если оно происходит в 70 % случаев, значит, его вероятность 70 %. В случае с идеализированной математической монетой вероятность выпадения орла составляет ровно S, поскольку чем больше монету подбрасываешь, тем больше частота выпадения орла стремится к S. У реальной, физической монеты эта вероятность будет другой, не ровно S. Причин тому несколько. Частично влияет на результат аэродинамика броска и то, что “орел” у большинства монет тяжелее, чем выбитый на другой стороне рисунок. Имеет значение также, какой стороной вверх монету подбрасывают: вероятность, что она упадет той же стороной вверх, равна примерно 51 %, поскольку при обычном броске шансы перевернуться в воздухе четное количество раз у нее чуть выше. Но, рассматривая математическую, идеальную монету, все эти факторы можно смело игнорировать.

Говоря о вероятности какого-либо события, “фреквентисты” имеют в виду шансы его наступления при многократном повторении одного и того же эксперимента. Но бывают случаи, когда такая стратегия бесполезна, например когда речь идет о событии, которое может произойти только один раз. Альтернативой тогда служит байесовский метод, названный так в честь английского ученого-статистика XVIII века Томаса Байеса. Расчет вероятности этим методом основан на степени нашей уверенности в определенном результате, то есть вероятность рассматривается как субъективное понятие. Например, если синоптик в прогнозе погоды говорит о “70-процентной вероятности осадков”, по сути это означает, что он на 70 % уверен, что пойдет дождь. Основная разница между частотной и байесовской вероятностью в том, что синоптик не может “повторить” погодный эксперимент – ему нужно оценить вероятность дождя в одном конкретном случае, а не выдать результаты многократно поставленных опытов. Для прогнозирования могут использоваться гигантские массивы данных, в том числе информация о похожих ситуациях, но ни в одной из них условия не будут абсолютно идентичными, так что синоптики вынуждены строить прогнозы исходя из байесовской вероятности, а не из частотной.

Особенно интересно различия между байесовским и частотным подходами проявляются, когда их применяют к математическим понятиям. К примеру, спросим себя, является ли септиллионным знаком числа пи (на сегодня неизвестным) пятерка? Заранее знать ответ невозможно, но после того, как он будет вычислен, он уже никогда не изменится: сколько ни повторяй расчет числа пи, ответ будет всегда один и тот же. Если следовать частотной интерпретации, вероятность того, что септиллионный знак будет пятеркой, равна либо 1 (достоверное событие), либо 0 (невозможное) – другими словами, это или пятерка, или нет. Допустим, доказано, что число пи нормально, то есть мы точно знаем, что в составляющей его бесконечной цепочке знаков каждая из десяти цифр имеет одинаковую плотность распределения. Согласно байесовской интерпретации, отражающей нашу степень уверенности в том, что септиллионным знаком является именно пятерка, вероятность этого – 0,1 (ведь если число пи нормально, то любой его знак, пока он не вычислен, может с одинаковой вероятностью быть любой цифрой от 0 до 9). Но вот после того, как мы этот знак вычислим (если такое когда-нибудь произойдет), вероятность уже точно будет либо 1, либо 0. Фактическое значение септиллионного знака пи нисколько не поменяется, но вероятность того, что это пятерка, изменится – именно потому, что у нас будет больше информации. Информация играет определяющую роль в байесовском подходе: по мере повышения собственной информированности мы можем корректировать значение вероятности, делая его точнее. А при наличии полной информации (скажем, когда определенный знак числа пи вычислен) значения частотной и байесовской вероятности становятся одинаковыми – если мы возьмемся заново рассчитать уже вычисленный знак пи, ответ нам будет известен заранее. Зная все нюансы физической системы (в том числе некоторый элемент случайности, как, например, при распаде атомов радия), мы можем в точности повторить эксперимент и получить частотную вероятность, идеально совпадающую с байесовской.

И хотя байесовский подход кажется субъективным, он может быть строгим в абстрактном смысле. Предположим, у вас есть несимметричная монета: вероятность выпадения орла при ее подбрасывании может равняться какому угодно значению от 0 до 100 %, причем любое из них равновозможно. Бросаем ее первый раз – выпадает орел. Используя байесовскую интерпретацию, можно доказать, что вероятность выпадения орла при втором броске составляет ⅔. Но ведь начальная вероятность выпадения орла была ½, а монету мы не меняли. Байесовский подход позволяет рассуждать так: выпадение первого орла, конечно, не влияет напрямую на вероятность его выпадения при втором броске, но этот факт дает нам дополнительную информацию о монете, а с помощью этой информации мы уточняем свою оценку. Если монета сильно несимметрична в пользу решки, вероятность выпадения орла очень мала, а если сильно несимметрична в пользу орла, то вероятность его выпадения гораздо выше.

Байесовский подход также помогает избежать парадокса, впервые сформулированного в 1940-х годах немецким ученым-логиком Карлом Гемпелем. Когда люди видят, что один и тот же принцип (скажем, закон гравитации) исправно действует в течение долгого времени, они склонны делать вывод, что он с очень высокой вероятностью верен. Это так называемое индуктивное умозаключение, которое можно коротко сформулировать так: если наблюдаемое соответствует теории, то вероятность того, что эта теория верна, увеличивается. С помощью описанного им парадокса воронов Гемпель продемонстрировал, в чем слабое место индуктивной логики.

Все во́роны черные, гласит теория. Каждый раз, когда мы видим ворона черного, а не какого-нибудь другого цвета (существование воронов-альбиносов при этом игнорируем!), наша уверенность в верности теории “все вороны черные” растет. Но вот в чем загвоздка: утверждение “все вороны черные” логически эквивалентно утверждению “все, что не черное, – не вороны”. Поэтому, увидев желтый банан – нечерный объект, не являющийся к тому же вороном, – мы должны были бы еще больше укрепиться в своем убеждении, что все вороны черные. Пытаясь обойти этот в высшей степени контринтуитивный результат, некоторые философы настаивают на том, что нельзя считать оба утверждения имеющими равную силу. Другими словами, желтизна бананов должна убеждать нас только в верности теории, что все нечерное – не вороны (второе утверждение), но никак не в том, что все вороны черные (первое утверждение). Это вполне соответствует здравому смыслу: банан – не ворон, поэтому, смотря на него, мы можем узнать что-то о том, что вороном не является, но никак не о самих воронах. Однако это предложение подвергли критике на том основании, что нельзя быть в разной степени уверенным в верности двух логически эквивалентных утверждений, если совершенно ясно, что они либо оба истинны, либо оба ложны. Возможно, просто наша интуиция в этом вопросе нас подводит и вид желтого банана действительно должен еще больше убеждать нас в черноте всех воронов. А вот если рассматривать проблему с байесовской точки зрения, никакого парадокса не возникает. Согласно Байесу, вероятность гипотезы Г следует умножить на следующее отношение:



где X – это нечерный объект, не являющийся вороном, а Г – гипотеза, что все вороны черные.

Если попросить кого-нибудь выбрать любой случайный банан и показать его вам, то вероятность, что увиденный вами банан будет желтым, никак не зависит от окраса оперения воронов. Вы уже заранее знаете, что увидите нечто, что вороном не является. Числитель дроби (то, что поверх черты) будет равен знаменателю (тому, что под чертой), отношение будет равно единице, а вероятность останется неизменной. Желтизна увиденного банана никак не повлияет на вашу уверенность в том, что все вороны черные. Если попросить кого-нибудь взять любой случайный нечерный предмет и вам покажут желтый банан, то числитель станет больше знаменателя на какую-то ничтожную величину. Вид желтого банана очень незначительно увеличит вашу уверенность в том, что все вороны черные. Чтобы всерьез укрепиться в верности этого утверждения, вам нужно будет увидеть почти все нечерные объекты, существующие во вселенной, плюс убедиться, что все они – не вороны. И в том и в другом случае результат будет соответствовать тому, что говорит ваша интуиция.

Может показаться странным, что информация имеет какое-то отношение к случайности, но на самом деле они очень тесно связаны. Представьте себе цепочку цифр, составленную только из нулей и единиц. Цепочка 1111111111 абсолютно упорядоченна, а потому не содержит практически никакой информации (разве что “десятикратное повторение цифры 1”), так же как чистый холст, на котором все точки имеют белый цвет, почти ни о чем нам не говорит. С другой стороны, сгенерированная случайно последовательность 0001100110 содержит максимальный объем информации, возможный для цепочки такой длины. Дело в том, что один из способов дать количественную оценку информации – это определить, насколько сильно можно сжать данные. Истинно случайный набор цифр невозможно укоротить, сохранив при этом всю содержащуюся в нем информацию. А вот длинную цепочку, состоящую, например, из одних единиц, можно сжать во много раз – просто указав, сколько в ней единиц. Информация и беспорядок теснейшим образом связаны друг с другом. Чем более беспорядочна и случайна цепочка, тем больше информации она содержит.

Можно посмотреть на это по-другому: открывая каждую последующую цифру случайной цепочки, мы получаем максимум возможной информации. С другой стороны, если мы видим цепочку 1111111111, ничего не стоит догадаться, какой будет следующая цифра. (Это касается только законченных цепочек, а не кусочков более длинных последовательностей. Произвольно длинная случайная цепочка цифр будет содержать сочетание 1111111111 бесконечное количество раз.) Объем информации, который можно считать полезным, – всегда компромисс между этими двумя крайностями. Например, фотография с минимумом информации – это просто одноцветный фон, а содержащая минимум информации книга – это листы, заполненные строчками из одной-единственной буквы. Ни то ни другое не представляет никакого интереса с точки зрения объема информации. Фотография же с максимумом информации будет беспорядочным, хаотичным скоплением пикселей, а книга – бессмысленным нагромождением случайных букв. Такое нас тоже вряд ли заинтересует. Самая полезная и нужная нам информация находится где-то посередине. Обычное фото содержит информацию, но в понятном нам виде и объеме. Если один из пикселей изображения окрашен в какой-то цвет, то непосредственные его соседи, скорее всего, будут похожего цвета. Мы это знаем и можем использовать для того, чтобы сжать изображение без потери информации. Книга, которую вы сейчас читаете, по большей части представляет собой лишь цепочки букв и пробелов, перемежающиеся знаками пунктуации. В отличие от описанных выше крайностей – абракадабры из символов либо бесконечных повторений одной буквы – в этой книге буквы структурированы в цепочки, называемые словами. Одни слова встречаются редко; другие, как, например, “и”, повторяются очень часто. Кроме того, слова объединены в предложения в соответствии со сводом правил, именуемым грамматикой, и так далее – а все для того, чтобы в итоге читатель сумел понять представленную ему информацию. С мешаниной из случайных знаков такое просто невозможно.

В своем рассказе “Вавилонская библиотека” аргентинский писатель Хорхе Луис Борхес рассказывает о библиотеке огромного, возможно бесконечного, размера с невообразимым количеством книг. Все книги имеют одинаковый формат: “в каждой книге четыреста страниц, на каждой странице сорок строчек, в каждой строке около восьмидесяти букв черного цвета”[14]. Все тексты написаны на экзотическом языке, использующем только 22 буквенных символа, запятую, точку и пробел, но в книгах на полках библиотеки можно обнаружить все возможные комбинации этих знаков. Большинство книг содержат лишь бессмысленный набор букв; в других сочетания упорядоченны, но все равно лишены какого-либо смысла. Например, одна из книг целиком состоит из повторяющейся буквы M. В другой – все то же самое, кроме второй буквы, вместо которой стоит N. Есть книги со словами, предложениями и целыми абзацами, построенными по правилам грамматики того или иного языка, но абсолютно нелогичными. Есть исторические труды. Есть такие, в которых утверждается, что они содержат подлинную историю, но на деле они являются вымыслом. В некоторых даны описания еще не изобретенных машин и не сделанных открытий. Где-то на полках есть книга, содержащая все сочетания используемых 25 знаков, которые только можно себе представить или записать. И однако же все это гигантское хранилище книг совершенно бесполезно, поскольку, не зная заранее, что правда, а что ложь, что истина, а что вымысел, какая информация значима, а какая бессмысленна, невозможно извлечь из этого всеобъемлющего собрания символов никакой пользы. То же касается и старой идеи о том, что армия обезьян, беспорядочно стучащих по клавишам пишущих машинок, способна в конце концов произвести на свет собрание сочинений Шекспира. Они напечатают и решения всех научных проблем современности (хоть на это и потребуются триллионы лет). Проблема лишь в том, что они также напечатают и все неправильные решения, а вместе с ними убедительные опровержения всех правильных решений – и все это не считая умопомрачительных объемов абсолютной белиберды. Нет никакого смысла иметь перед глазами ответ на вопрос, если в одну кучу с ним свалены все возможные комбинации символов, из которых он состоит, а вы не имеете представления, какая из них верная.

В каком-то смысле интернет с его громадным объемом полезной информации, затерянной в многократно превышающем его объеме сплетен, полуправды и полной галиматьи, становится все более похожим на библиотеку Борхеса – вместилище всего на свете от глубокого научного знания до совершеннейшего бреда. Есть даже сайты, имитирующие Вавилонскую библиотеку: за долю секунды они выдают полотно случайных цепочек из букв, где иногда могут содержаться реально существующие слова или даже осмысленные обрывки информации. Когда у нас под рукой такой объем информации, кому или чему можно доверить роль третейского судьи, объективно оценивающего, что подлинно и достоверно? В конечном итоге, поскольку информация существует в виде наборов цифр, хранящихся в недрах электронных процессоров и носителей данных, ответ должен лежать где-то в области математики.

Что касается ближайшего будущего, математики уже сейчас разрабатывают всеобъемлющую теорию случайности, которая может объединить на первый взгляд очень далекие друг от друга научные феномены и концепции – от броуновского движения до теории струн. Двое исследователей, Скотт Шеффилд из Массачусетского технологического института и Джейсон Миллер из Кембриджского университета, обнаружили, что многие из двумерных фигур и траекторий, генерируемых случайными процессами, разделяются на четко различимые категории, каждая из которых обладает собственным набором характеристик. Их классификация привела к открытию неожиданных связей между разнородными случайными объектами, не имеющими, казалось бы, никакого отношения друг к другу.

Первый изученный математиками тип случайной траектории – так называемое случайное блуждание. Представьте себе пьяного, начинающего свой путь от фонарного столба. Он идет, пошатываясь, от одной точки к следующей, с каждым шагом (предполагается, что все шаги равной длины) случайно выбирая направление. Вопрос: как далеко от столба он окажется через определенное количество шагов? Можно для простоты свести задачу к одномерному виду: пусть человек движется только по прямой в одну или другую сторону, а перед каждым шагом как будто подбрасывает монетку, чтобы решить, куда идти – направо или налево. Впервые задача воплотилась на практике в 1827 году, когда английский ботаник Роберт Броун привлек внимание к явлению, позднее названному броуновским движением, – беспорядочному танцу зерен пыльцы в воде, который он разглядел в микроскоп. Позже этот феномен объяснили тем, что частицы пыльцы хаотично бомбардируются молекулами воды, которые всякий раз толкают крохотные зернышки в случайном направлении (так что каждое ведет себя словно пьяный из нашей задачи). Но только в 1920-х годах американский математик и философ Норберт Винер детально исследовал все математические аспекты броуновского движения. Для этого нужно было понять, что происходит в задаче о случайном блуждании, когда длина шагов и временной интервал между ними постепенно сокращаются. Получившиеся случайные траектории очень напоминают путь, проделываемый частицами при броуновском движении.

Позднее физики заинтересовались случайным движением иного рода. Теперь уже действующими лицами были не частицы, передвигающиеся по искривленным одномерным траекториям, а мельчайшие трепыхающиеся “нити”, колебания которых могут быть представлены как двумерные поверхности. Это те самые струны из теории струн – самой передовой, но пока не доказанной теории элементарных частиц, составляющих всю материю. Скотт Шеффилд сформулировал это таким образом: “Чтобы понять квантовую физику для струн, нужно нечто вроде броуновского движения для поверхностей”. Начало такой теории положил в 1980-х годах физик Александр Поляков, сейчас работающий в Принстонском университете. Он придумал способ описания подобных поверхностей, который сейчас именуется квантовой гравитацией Лиувилля. Параллельно была разработана еще одна модель, названная броуновской, которая также описывала случайные двумерные поверхности, но давала о них иную, дополнительную информацию. Прорыв, совершенный Шеффилдом и Миллером, заключался в том, что им удалось доказать: эти два теоретических подхода, квантовая гравитация Лиувилля и броуновская модель, эквивалентны. И пусть предстоит еще немало работы, прежде чем теорию можно будет применять непосредственно для решения физических задач, но со временем она может стать мощным объединяющим принципом, действующим на самых различных уровнях – от фантастически миниатюрных струн до таких повседневных явлений, как рост снежинок или образование минеральных отложений. Уже сегодня абсолютно ясно: случайность лежит в основе физической вселенной, а в основе случайности лежит математика.

То, что истинно случайно, непредсказуемо. Нельзя заранее знать, каким окажется следующий элемент случайной цепочки. В физике невозможно предугадать, когда наступит случайное событие, такое как распад радиоактивного ядра. Если событие случайно, о нем говорят, что оно недетерминировано, поскольку даже в принципе невозможно, зная то, что уже произошло, спрогнозировать, что будет дальше. В быту мы часто случайное называем хаотичным. “Случайность” и “хаос” в повседневном языке стали практически полными синонимами. Но в математике между этими двумя понятиями есть огромная разница – разница, которую мы сможем лучше почувствовать, окунувшись в странный мир дробных размерностей.

Загрузка...