Искусственный интеллект делает выбор без сомнений: почему это может быть гораздо опаснее, чем кажется

ИИ представляет собой набор алгоритмов, а не интеллект — Евгений Касперский

Говорят, в будущем "искусственный интеллект" проникнет буквально всюду. Начиная с бытовых приборов в наших домах и заканчивая управлением сложными производствами, технологиями и даже социальными структурами. Многие с нетерпением ждут новой эры в истории человечества. Поскольку на примерах личного взаимодействия с генеративными сетями видят, насколько "искусственный интеллект" помогает в работе и даже личной жизни.

Подмена понятий искажает представление об ИИ

Генеративные сети моделируют работу человеческого мозга. И на этом основании их называют "искусственным интеллектом." Фундаментальная проблема заключается в подмене понятий. У настоящего интеллекта есть мораль, понимание добра и зла. А то, о чем мы говорим, является компьютерной программой, пусть и очень сложной. Когда мы называем такой программу интеллектом, хоть бы и искусственным, мы подсознательно начинаем наделять её человеческими свойствами, например, пониманием контекста и гибкостью мышления, умением что называется "заглянуть за край" — то есть интуицией. Иначе говоря, способностью постичь истину непосредственно, без научного анализа. На это способен человек, и то не всегда. Иногда голос интуиции почти не слышен или человек слышит не себя, а своих демонов. Но у машинного "интеллекта" интуиции точно нет.

Об этом недавно говорил глава "Лаборатории Касперского" Евгений Касперский, который уже много лет выступает против самого термина "Искусственный интеллект". Он согласен с тем, что речь идёт о сложных алгоритмах.

"Интеллект — это инструмент, который может решать неожиданные задачи без тренировки. Если говорить строго, то ИИ не существует, есть машинное обучение", - Евгений Касперский

ИИ — самый серьезный вызов человечеству

Несомненно, стремительное развитие искусственного интеллекта представляет собой антропологический сдвиг. Этот процесс сопоставим с изобретением письменности или печатного станка, но является принципиально новым явлением. Несоизмеримо выросли и риски, обусловленные неопределенностью в принципиальном вопросе конечной ответственности за принимаемые решения.

У всех на слуху так называемая "проблема вагонетки". В 1967 году британский философ Филиппа Фут, занимающаяся вопросами морали, предложила мысленный эксперимент, который стал революционным в области анализа принятия решений, когда речь идёт о выборе между двумя неудачными вариантами. По сути, объект исследования должен оценить, какое из двух предложенных зол является меньшим. При этом представление "меньшего" и "большего" зла чрезвычайно субъективно и зависит от личного опыта и мировоззрения испытуемого.

В оригинале "проблема вагонетки" звучит так: на пути тяжёлой неуправляемой вагонетки пятеро человек привязаны к рельсам. К счастью, вы можете переключить стрелку — и тогда вагонетка поедет по соседнему пути. Там находится один человек, также привязанный к рельсам. К несчастью — это ваша бабушка.

В дальнейшем были предложены другие версии эксперимента — "Толстяк", "Ответвление", "Человек на лужайке", "Толстый злодей" и пр. Так или иначе, проблема сводится к непростому выбору между смертью пяти незнакомцев или смертью бабушки (как в оригинале) или, к примеру, милого улыбающегося толстяка, стоящего рядом с вами, которого надо столкнуть на рельсы, чтобы пустить вагонетку под откос и спасти тех пятерых.

Применительно к теме ИИ "проблема вагонетки" означает, что бывают такие сложные выборы, что ответственность за окончательное решение должна лежать исключительно на человеке, как на единственном носителе хоть какой-то морали, сейчас неважно какой. Человек может убить свою бабушку и спасти пять незнакомцев, а потом всю жизнь испытывать нравственные мучения. Он может поступить наоборот, а потом, с умилением глядя в добрые бабушкины глаза, почти прощать себя, но по ночам всё равно плакать на кухне.

И в этом вся суть: человек будет страдать или нет, но он тысячу раз подумает и передумает, и всё равно до конца не будет уверен в своей правоте. А "искусственный интеллект" — другое дело. Он просто поступит технически самым оптимальным образом, перебрав множество статистических, научных и юридических факторов.

Нирвана ИИ

В буддизме отсутствие страданий называется нирваной. В некотором смысле ИИ постоянно пребывает в этом состоянии. Он не страдает сам и ему нет никакого дела до страданий каждого конкретного человека. ИИ не несёт ответственности за то, что в результате его деятельности мера человеческого горя возрастёт. Впрочем, ИИ не потребует и поощрения, если поможет это горе уменьшить.

Возможно, создание настоящего ИИ задача и вовсе невыполнимая. Поскольку для любой нормативной этической системы всегда есть ситуация, в которой она не даёт однозначного решения. Если интеллект — это то, чем обладает человек как биологический вид, то "искусственный интеллект", чтобы называться таковым, должен включать в себя все человеческие качества. К примеру, знать и понимать, что такое "любовь" и "милость к павшим". Такой ИИ невозможен по определению.

По мнению оптимистов, рано или поздно ИИ осознает сам себя, у него появится сознание. Но ведь мы сами плохо понимаем, что это такое. Философы говорят, что именно сознание придаёт смысл событиям, происходящим вокруг нас. "Искусственный интеллект" этого смысла не видит. Это "всего лишь" подбирает приемлемый ответ. Но человеческая судьба не сводится к простому перебору аргументов "за" и "против", который с нашей точки зрения выглядит как игра в "орла и решку". Совершенно точно, что ИИ — это не античный "бог из машины".

Возможности ИИ не сравнимы с возможностями человеческого мозга

Объем памяти у человека, из которой он черпает примеры и формирует жизненный опыт, составляет примерно 2-3 гигабайта. Это, конечно, ничтожно мало даже по сравнению с иными флэшками, не говоря уж о топовых бытовых компьютерах, свободно продающихся в магазинах. С каждым годом процессоры становятся всё мощнее. И при этом всё дешевле.

Специалисты оценивают вычислительные способности нашего мозга в 10*14 степени или 100 триллионов операций в секунду. Понятно, что эта цифра довольно приблизительна. Её получили путём умножения числа нейронов, принимаемого за сто миллиардов, на максимальную частоту операций в мозге — 100 Гц, добавив один порядок, как говориться, в качестве бонуса. Оценка завышенная, поскольку в нашем мозгу просто нет такого количества информации, чтобы загрузить его таким количеством операций. Современные же суперкомпьютеры выполняют миллион триллионов операций в секунду — это 10*18 степени.

Человечество сильно заблуждается, полагая, что контролирует алгоритм

С точки зрения рисков, наиболее опасной представляется ситуация, когда мощность ИИ начнёт лавинообразно расти. Это может происходить не только за счет усилий самих людей, но и в том случае, когда алгоритм сам начнёт прямо или косвенно способствовать своему развитию. В этом случае он так или иначе получит возможность решать нестандартные задачи нетипичными методами. При этом принципиально невозможно предсказать, какой будет его логика, на много порядков сложнее человеческой.

ИИ остаётся безопасным для человека только до тех пор, пока ему задана правильная с нашей точки зрения система целей и ограничений. Но ограничивать развитие ИИ — это спорить с прогрессом. Это бессмысленное и даже вредное занятие. Сегодня ИИ задействован в большинстве отраслей. Например, созданная на нейросетях интеллектуальная система предсказывает, когда совокупность определенных факторов превысит пороговое значение и приведет к поломке агрегата АЭС. Без ИИ уже невозможно представить, к примеру, IT-индустрию.

Человечеству придется сосуществовать с искусственным разумом. Возможно, когда-нибудь ему поручат отвечать на этические вопросы и даже будут прислушиваться к ответам. Было бы лучше, если к этому моменту человек и машинный разум станут друзьями.

 

Автор Сергей Ивaнов
Сергей Иванов — журналист, автор Правды.Ру
Редактор Юлиана Погосова
Юлиана Погосова