Исследование предполагает, что использование искусственного интеллекта для отправки сообщений друзьям может привести к снижению удовлетворенности и большей неопределенности

Использование приложений искусственного интеллекта для составления сообщения другу не является хорошей идеей — по крайней мере, если ваш друг узнает об использовании искусственного интеллекта, предполагает новое исследование.

Исследователи обнаружили, что люди, участвовавшие в исследовании, воспринимали, что вымышленный друг, который использовал помощь искусственного интеллекта, чтобы написать им сообщение, не прилагал столько усилий, сколько друг, который написал сообщение сам.

Такое восприятие может быть понятным, но эффект выходит за рамки самого сообщения, сказал Бинцзе Лю, ведущий автор исследования и доцент кафедры коммуникации в Университете штата Огайо.

“После того, как они получают сообщение с помощью искусственного интеллекта, люди чувствуют себя менее удовлетворенными своими отношениями со своим другом и чувствуют большую неуверенность в том, где они находятся”, – сказал Лю.

Но, чтобы быть справедливым к ИИ, людей отталкивало не только использование технологий. Исследование также выявило негативные последствия, когда люди узнавали, что их друг получил помощь от другого человека в написании сообщения.

“Люди хотят, чтобы их партнеры или друзья приложили усилия для того, чтобы сформулировать свое собственное сообщение без помощи искусственного интеллекта или других людей”, — сказал Лю.

Исследование было недавно опубликовано онлайн в журнале социальных и личных отношений.

По мере того как чат-боты с искусственным интеллектом, такие как ChatGPT, становятся все более популярными, вопросы о том, как их использовать, будут становиться все более актуальными и сложными, сказал Лю.

В исследовании приняли участие 208 взрослых, которые приняли участие онлайн. Участникам сказали, что они были хорошими друзьями с человеком по имени Тейлор в течение многих лет. Им был предложен один из трех сценариев: они испытывали эмоциональное выгорание и нуждались в поддержке, у них был конфликт с коллегой и им требовался совет, или приближался их день рождения.

Затем участникам было предложено написать короткое сообщение Тейлору, описывающее их текущую ситуацию, в текстовом поле на экране их компьютера.

Всем участникам сказали, что Тейлор прислал им ответ. Что касается сценариев, Тейлор написал первоначальный набросок. Некоторым участникам сказали, что у Тейлора есть система искусственного интеллекта, которая помогает пересмотреть сообщение, чтобы добиться надлежащего тона, другим сказали, что член сообщества писателей помог внести изменения, а третьей группе сказали, что Тейлор внес все правки в сообщение.

В каждом случае участникам исследования говорили одно и то же об ответе Тейлора, в том числе о том, что он был “вдумчивым”.

Тем не менее, у участников исследования были разные взгляды на сообщение, которое они предположительно получили от Тейлора. Те, кто получил ответ с помощью искусственного интеллекта, оценили действия Тейлора как менее уместные и более неподобающие, чем те, кто получил ответ, написанный только Тейлором.

Ответы искусственного интеллекта также привели к тому, что участники выразили меньшую удовлетворенность своими отношениями, например, понизили оценку Тейлора за то, что он удовлетворяет “мои потребности как близкого друга”.

Кроме того, участники исследования были более неуверенны в своих отношениях с Тейлором, если получали ответ с помощью искусственного интеллекта, и были менее уверены в утверждении “Тейлор любит меня как близкого друга”.

Одной из возможных причин, по которой людям может не понравиться реакция с помощью искусственного интеллекта, может быть то, что люди считают использование технологий неуместным и уступающим людям в создании подобных личных сообщений.

Но результаты показали, что люди столь же негативно реагировали на ответы, в которых Тейлор просил другого человека — члена онлайн—сообщества писателей – помочь с сообщением.

“Что мы обнаружили, так это то, что люди не считают, что друг должен использовать какую—либо третью сторону — искусственный интеллект или другого человека – для поддержания своих отношений”, – сказал Лю.

Исследование показало, что причина заключалась в том, что участники чувствовали, что Тейлор тратит меньше усилий на их отношения, полагаясь на искусственный интеллект или другого человека, помогающего составить сообщение.

Чем ниже участники оценивали усилия Тейлора по использованию искусственного интеллекта или другого человека, тем менее они были удовлетворены своими отношениями и тем большую неуверенность они испытывали по поводу дружбы.

“Усилия очень важны в отношениях”, – сказал Лю.

“Люди хотят знать, сколько вы готовы вложить в свою дружбу, и если они чувствуют, что вы сокращаете путь, используя искусственный интеллект, чтобы помочь, это нехорошо”.

Конечно, большинство людей не скажут другу, что они использовали искусственный интеллект для создания сообщения, сказал Лю. Но она отметила, что по мере того, как ChatGPT и другие сервисы становятся все более популярными, люди могут начать мысленно выполнять тест Тьюринга, читая сообщения от друзей и других людей.

Фраза “Тест Тьюринга” иногда используется для обозначения людей, задающихся вопросом, могут ли они определить, было ли то или иное действие предпринято компьютером или человеком.

“Возможно, люди тайно проведут этот тест Тьюринга в своем уме, пытаясь выяснить, есть ли в сообщениях какой-то компонент искусственного интеллекта”, – сказал Лю. “Это может навредить отношениям”.

Ответ заключается в том, чтобы делать свою собственную работу в отношениях, сказала она.

“Не используйте технологии только потому, что это удобно. Искренность и подлинность по-прежнему имеют большое значение в отношениях”.

Лю проводил исследование совместно с Цзинь Каном из Карлтонского университета в Канаде и Левеном Вэем из Университета Нового Южного Уэльса в Австралии.