Чат-боты отправляют людей в места, которых не существует — виртуальные советы становятся реальной угрозой

Планирование путешествий с помощью искусственного интеллекта стало модным трендом: быстро, удобно, кажется — надёжно. Но реальность показывает, что такие советы могут привести не к идеальному отпуску, а к настоящей авантюре. В Италии вспоминают случай, когда туристы искали "Священный каньон Хумантай" в Перу — место, которого не существует. Алгоритм просто соединил названия двух разных достопримечательностей, и люди едва не оказались в горах на высоте четыре тысячи метров без проводника, связи и необходимой подготовки.

Не меньше повезло паре в Японии: они поднялись на гору Мисен по совету ChatGPT, чтобы встретить закат, но не смогли спуститься — канатная дорога закрылась раньше, чем "рекомендовал" бот. А в Малайзии туристы так и не нашли фуникулёр из ролика в TikTok — он оказался полностью сгенерирован ИИ. Бывали и вовсе комичные "подсказки": виртуальный помощник уверял пользователей, что в Пекине есть собственная Эйфелева башня.

Эксперты объясняют: ИИ не понимает разницы между реальным маршрутом и красивой сказкой, он просто комбинирует правдоподобные слова. Поэтому главный совет прост — проверять любую рекомендацию вручную. Искусственный интеллект может быть отличным помощником, но ответственность за билеты, здоровье и безопасность всё равно остаётся на человеке.

Автор Марк Ульянов
Марк Ульянов  — журналист, корреспондент новостной службы Правды.Ру