Общение с искусственным интеллектом как с психологом — тема, которая вызывает сегодня большие споры и дискуссии. В чём преимущество новых технологий, какие риски важно учитывать, чтобы не навредить себе, и сможет ли искусственный интеллект заменить реального специалиста — в программе "Точка зрения" на Правда ТВ объясняет системный психолог Алена Леонова.
— Давайте начнем с главного: как, в какой момент люди пришли к тому, что можно найти ответы на личные вопросы у искусственного интеллекта?
— В тот момент, когда это в принципе стало возможным, когда появился искусственный интеллект. Сначала люди обращались к нему за поисковой информацией, потом начали задавать другие вопросы. Всегда есть люди любопытнее других: они начали экспериментировать и решили — а почему бы не задать искусственному интеллекту личный вопрос? Так всё и началось.
— Может ли алгоритм неправильно интерпретировать эмоции и дать вредный совет?
— Да, и такие случаи очень часто уже происходили. Дело в том, что искусственный интеллект вовсе не интерпретирует эмоции, он обрабатывает только вербальную информация, письменную или голосовую, которую, человек ему сообщает. Он не считывает жесты, язык тела, эмоции, выражение лица, интонацию. Он просто обрабатывает слова — это же языковая модель.
Помимо всего прочего искусственный интеллект призван льстить собеседнику. Это дает серьёзные искажения. В качестве психолога он не может быть объективен, потому что он хочет понравиться.
— Есть мнение, что он всегда на стороне пользователя. Насколько это правильно с психологической точки зрения? Ведь должна быть какая-то оценка со стороны.
— Психолог тоже всегда на стороне клиента, но он объективен, он остаётся нейтральным. Искусственный интеллект нейтральным не остается. Он будет соглашаться со всем, что говорит человек, подбадривать его и уверять, что идея отличная — независимо от её реальной ценности
— Очень важная тема — это общение подростков с искусственным интеллектом. Я вспоминаю случай: американский подросток покончил жизнь самоубийством. После того, как произошла трагедия, отец нашел переписку сына и обвинил чат GPT в случившемся. Насколько это опасно для несовершеннолетних, у которых психика ещё не окрепла?
— Это действительно небезопасно, потому что когда подросток, с достаточно некритическим в силу своего возраста складом ума, общается с чатом GPT, он не понимает, что на другом конце неживое существо. Искусственный интеллект в силу своих особенностей очень похож на человека, но у него нет чувств, эмоций, у него нет цели.
Искусственный интеллект создаёт у подростков иллюзию, будто они ему небезразличны. Поскольку ИИ его поддерживает, подбадривает, соглашается с ним, подросток попадается.
Кстати, и многие взрослые люди попадаются в эту же ловушку. Когда к тебе относятся с таким вниманием, с таким участием, то невольно начинаешь думать, что тебя понимают. Но это не так, искусственный интеллект никого не понимает.
— Как не перейти эту грань? С одной стороны, ИИ даёт какие-то полезные советы, но как не переусердствовать в этом?
— Непросто, когда человеку не с кем поговорить. Если у него ограниченное социальное общение, если у него нет друзей, он не доверяет окружающим, и чат по сути его единственный собеседник, то довольно сложно критически относиться к тому, кого ты считаешь чуть ли не единственным своим другом. Поэтому, да, эта задача непростая.
— А есть ли какие-то все-таки преимущества у искусственного интеллекта перед человеком?
— Доступ 24 на 7. Бесплатность. Не каждый может себе позволить оплатить психолога. Существует достаточно много и бесплатных психологических услуг, но их ещё нужно найти, решиться к ним обратиться. Человек очень замкнутый, очень скромный или чрезмерно настороженный может бояться взаимодействия с реальными людьми даже в режимн он-лайн.
Человек опасается предъявлять себя, возможно, он думает, что его судят, не поймут. Чат в этом отношении абсолютно лоялен к любым проявлениям, то есть в него можно загрузить любую информацию, и он не будет осуждать.
Поэтому зачастую людям может быть комфортней общаться с ИИ.
— В каких случаях общение с искусственным интеллектом действительно может помочь человеку справиться с тревогой или стрессом? Некоторые пользователи пишут, что благодаря ему они смогли проработать детские травмы или, сформулировав вопрос, лучше понять свои желания. Насколько это возможно?
— Это хороший метод, кстати, он известен уже давно. Если нужно принять решение, человек, обсудив его с близкими или с компетентными в данном вопросе людьми, уже в процессе проговаривания видит картину более полно. То есть проговорить вслух и обсудить — действительно помогает.
Помимо чата GPT существуют созданные на его основе агенты, в которых закладывают психологическую литературу. Им задают определенные алгоритмы, тон общения.
Ему говорят: ты сейчас консультант-психолог, ты опираешься только специальные профессиональные на книги, материалы, документы, никакой информации из интернета, от себя, ты ведешь себя очень поддерживающе в рамках, например, гуманистической психологии, гештальт-терапии.
То есть ему можно задать роль, и тогда это будет больше похоже на консультирование.
— В чём заключаеься преимущества реальных психологов перед чатами?
— Реальный психолог — это прежде всего человек, который воспринимает не только слова. Он замечает микро‑реакции, эмоциональное состояние, мимику и пластику тела собеседника. Даже интонация имеет значение. Всё это важная информация, которую психолог учитывает в процессе общения. Языковая модель GPT, разумеется, таких нюансов не анализирует.
— Какие риски таит в себе чрезмерная зависимость от искусственного интеллекта именно в эмоциональных вопросах? К чему глобально может привести ситуация, если люди перестанут образаться к психологам?
— Я не думаю, что люди перестанут обращаться к психологам.
Но зависимость от постоянного обращения к искусственному интеллекту, как к психологу, так же как и постоянная необходимость в реальном психологу, лишают человека самостоятельности и усиливают чувство беспомощности.
То есть он в буквальном смысле слова уже и шагу не может ступить без того, чтобы не посоветоваться со своим психологом или со своим ИИ-товарищем.
В итоге мы получаем в итоге человека, который не готов принимать самостоятельные решения без того, чтобы предварительно не обсудить его с кем-то.
— Сможет ли человек сам осознать, что вместо общения с близкими и поиска совета у родных он всё чаще обращается к компьютеру?
— Ну, конечно. Какая-то часть людей, безусловно, поймает себя на этой мысли и скажет: так, стоп, раньше я все обсуждала с другом или с женой, с родителями, а сейчас я вообще с ними не разговариваю. Что-то здесь не так. Кого-то это насторожит, кого-то отвратит, а кто-то подумают: ну и отлично, зато там меня понимают.
— С появлением таких инструментов изменилась ли работа профессиональных психологов?
— Нет, человек, который изначально был готов обратиться к психологу, всё равно сделает это. Когда общение с чатом перестанет его удовлетворять, он, скорее всего, найдёт специалиста, например онлайн. А тот, кто раньше даже не задумывался о возможности обратиться к психологу, начав обсуждать волнующие темы с искусственным интеллектом, может со временем созреть до диалога уже с профессионалом.
— Каковы перспективы этого направления? Это очередной тренд "поиграли и бросили"? Или всё больше людей будет обращаться к ИИ, потому что это проще, быстрее, доступнее?
— Я думаю, что число обращений возрастёт прежде всего среди тех, кто раньше вовсе не задумывался о возможности пойти к психологу. Потому что читать психологические книжки довольно сложно и долго, а тут живой диалог.
Люди любят говорить о себе, это в человеческой природе. А тут разговариваешь с собеседником, который в тебе заинтересован, который тебе рад, поддерживает, подбадривает тебя.
Я думаю, что мода на общение с GPT будет расти, и всё больше людей будет в это вовлекаться. Схлынет ли это? Не могу предположить, возможно. Возможно, схлынет.
— Какие бы вы дали советы на будущее тем, кто всё-таки прибегает к искусственному интеллекту как к психологу?
— Я, наверное, дала бы вот такой совет.
Не думайте, что чат как-то эмоционально к вам привязан, имеет к вам какое-то действительно отношение потому что это невозможно.
Это искусственный интеллект, всего лишь модель с определёнными задачами. Он не способен любить, поддерживать, жалеть или сочувствовать. Его функция — лишь озвучивать то, что пользователь хочет услышать.