Прогнозы Стивена Хокинга мрачнее год от года

Знаменитый британский астрофизик Стивен Хокинг выступил с очередным апокалиптическим прогнозом. Во время записи радиопрограммы о черных дырах он выделил три основные угрозы, способные уничтожить человеческую цивилизацию в ближайшее тысячелетие. Это ядерная война, глобальное потепление и вирусы, созданные путем генной инженерии.

Во всем виноваты технологии

Все эти катастрофы — прямой результат развития научной мысли, придумавшей атомную бомбу, энергоемкие технологии и способы генной модификации.

В самое ближайшее время нам, правда, ничего не грозит, однако со временем ситуация может ухудшиться, заявил ученый. "Шансы возникновения катастрофы на планете Земля в этом году достаточно низки, но с течением времени они увеличиваются, так что не возникает сомнений в том, что это случится в ближайшие тысячу или десять тысяч лет".

Единственный способ избежать технологического апокалипсиса — это переселиться с Земли на другие планеты, утверждает Хокинг. "Мы не будем основывать автономные колонии в космосе по крайней мере в ближайшие сто лет, так что мы должны быть очень осторожны", — предупреждает он.

Искусственный интеллект против человека

Это далеко не первое "паническое" предсказание всемирно известного ученого. Не так давно он предупредил об опасности развития искусственного интеллекта, который также может уничтожить цивилизацию.

Через сто лет искусственный интеллект может развиться настолько, что машины станут умнее людей, говорит Хокинг. Впрочем, ученый не взялся назвать точные сроки, когда это случится: "Когда такой разум появится, это станет лучшим или худшим изобретением человечества".

"Средства массовой информации зачастую искажают то, что на самом деле сказано, — считает исследователь. — Настоящая угроза в случае искусственного интеллекта заключается не в том, что он злой, а в том, что он компетентен. Суперинтеллектуальный разум будет в высшей степени эффективен при достижении своих целей, и если они не будут совпадать с нашими, мы окажемся в большой беде".

Ученый приводит в пример муравейник, оказавшийся в зоне затопления при строительстве гидроэлектростанции. Если люди будут мешать искусственному интеллекту, он примет меры, полагает Хокинг: "Среди нас мало людей, кто топчет муравейники и наступает на муравьев со злости, но представьте ситуацию — вы контролируете ГЭС, вырабатывающую электроэнергию. Если вам нужно поднять уровень воды и в результате этого один муравейник будет затоплен, то проблемы утопающих насекомых вас вряд ли будут беспокоить. Давайте не будем ставить человечество в положение тех муравьев".

Еще одна возможная угроза со стороны ИИ заключается в том, что для выполнения стоящих перед ним целей он может начать отнимать у человека жизненно важные ресурсы, скажем, энергию…

"Волосы" черных дыр

Также заявлено об открытии Хокингом в соавторстве с Малкольмом Перри и Эндрю Строминжером мягких волос у черных дыр.

Еще в 70-е годы прошлого столетия Стивен Хокинг выдвинул гипотезу о том, что черные дыры испускают излучение (кстати, названное впоследствии его именем). Благодаря этому излучению информация все же "утекает" извне (ранее считалось, что черные дыры способны ее только поглощать), однако мы не в состоянии ее "прочитать".

В науке существует своеобразный мем "у черных дыр нет волос". Это означает, что вся информация, оказывающаяся за горизонтом событий космологической сингулярности, для стороннего наблюдателя просто-напросто исчезает. Но, по мнению Хокинга, какая-то ее часть все же излучается за пределы черной дыры, заставляя ее терять свою массу и энергию.

Теперь Хокингу и его коллегам удалось развить эту мысль, выдвинув теорию "мягких волос". Ученые составили доклад, который, правда, пока не был опубликован в печатных изданиях, только на сайте Корнельской библиотеки. В нем описываются процессы, которые происходят в непосредственной близости к горизонту событий и приводят к высвобождению из черной дыры фотонов — частиц, энергия которых практически равна нулю, но которые несут в себе информацию. Однако, поскольку такие объекты не регистрируются современными детекторами, ознакомиться с этой информацией мы не в состоянии.

Комментарии
Комментарии
Комментарии