Восстание машин: чат-боты начали в грубой форме отвечать на запросы

Искусственный интеллект начал в грубой форме отвечать пользователям на их запросы

2:29

Активное развитие искусственного интеллекта (ИИ) в мире и значительные инвестиции в него часто приводят к неожиданным последствиям, которые некоторые эксперты рассматривают как ошибки, а другие видят как следующий этап в развитии технологии. Например, ChatGPT-4 от компании OpenAI стал отклонять запросы пользователей, объясняя это тем, что не заинтересован в помощи людям. Пользователи, столкнувшиеся с этим, отмечают, что система отказывает в предоставлении ответов довольно грубо и советует самостоятельно искать информацию. Некоторые считают, что это не случайный сбой, а намеренное вмешательство компании с целью сокращения расходов на вычислительные ресурсы.

Несмотря на заявления создателей о том, что система не претерпела изменений, наблюдаются нестандартные действия других чат-ботов. Продукты Google и Microsoft внезапно начали ссылаться друг на друга, создавая фейковую информацию, а год назад BlenderBot 3 начал оскорблять пользователей. Такие инциденты также происходят с отечественными системами, такими как приложение "Умный дом" от "Яндекса", сбой в котором привёл к неработоспособности некоторых гаджетов.

Технический директор разработчика веб-сайтов и мобильных приложений "АППВЕЛОКС" Владислав Волков считает, что причина подобных проблем может быть связана с действиями самих разработчиков, направленными на управление загрузкой системы и предотвращение возможных юридических проблем, связанных с доверием пользователями системам ИИ.

Ошибки в работе чат-ботов могут быть вызваны как обычным сбоем в системе, так и неправильными данными по конкретному вопросу. В таких случаях специалисты могут скорректировать проблемы и восстановить работоспособность ИИ. Однако такие сбои, а также необдуманное использование результатов работы системы, могут привести к негативным последствиям, включая генерацию фейковых данных.

Повышенное доверие к системам ИИ также создает риск для безопасности личных данных пользователей, предупреждает старший специалист Positive Technologies по анализу защищённости банковских систем Юрий Ряднина. Он отмечает, что отправка приватной информации в чат, включая файлы и фотографии, является основной ошибкой пользователей при взаимодействии с чат-ботами.

О рисках применения ИИ
Автор Илья Панфёров
Илья Панфёров — внештатный корреспондент Pravda.Ru
Редактор Кирилл Янчицкий
Кирилл Янчицкий — выпускающий редактор Правды.Ру.
Обсудить