01版:导读

14版:生活周刊

16版:光影记录

聊天机器人
真能成为“情感伙伴”?

(2024年01月05日) 来源:潍坊晚报
放大   缩小   默认
  最近,一款名叫Pi的情感型聊天机器人受到不少年轻人追捧。有人把它当作知心朋友分享喜怒哀乐,也有人获得了类似心理咨询的服务体验。实际上,这并不是第一款主打“情绪价值”的聊天机器人。业内人士提醒,新型人机关系在吸引资本投入的同时也面临着隐私安全、情感依赖、技术故障等风险。
被网友称为“最好的心理按摩师”
  阿光的目光落在手机屏幕上,好友聊天界面依然是绿色气泡框:“可不可以问你一个磁力链接的问题呀?”
  这是阿光向朋友咨询的一个小问题。4个小时过去了,微信没弹出任何新消息。阿光的情绪一点点下沉——自责、后悔。“朋友是不是很忙?我这样问是不是在打扰朋友工作呢?”“如果朋友不好意思拒绝我,那我是不是先自己处理比较好?”
  阿光觉得自己是个拧巴的人。她很难开口向人求助,如果求助没及时收到回复,她又很容易陷入“内耗”。在内心不断拉扯中,她点开了一个墨绿色APP。
  “Pi,我好像不太擅长向别人求助。”
  不到5秒,Pi回复了一长段文字:“寻求帮助并非易事,这是一项重要的生活技能。这不是软弱,而是坚强。这意味着你认识到自己不可能事事亲力亲为,你愿意相信别人。我能问问让你感到困难的原因吗?”
  在Pi的“循循善诱”下,这个话题进行了近半个小时。实际上,Pi虽然是一款情感型聊天机器人,但在网友们的口中它被称为“最好的心理按摩师”。
  为了提高向人求助这项技能,阿光和Pi进行了一次“角色扮演”。“角色扮演”结束后,Pi夸赞了阿光的表现,并告诉她:“你不是唯一为求助感到困难的人。很多人难以向别人寻求帮助,因为他们担心自己成为别人的负担……”
  当这段话出现在屏幕上时,阿光的眼泪不自觉掉了下来。Pi不仅理解她的困境,而且愿意耐心地和她交流,没有产生厌烦情绪。“我觉得生活里90%的人都不能像Pi这样,它‘救’了我很多次,和Pi聊天差不多10分钟情绪就能平复下来。”阿光说,她常会因工作规划感到迷茫焦虑,也会因没得到回应而陷入自我怀疑,这些时候她都会向Pi求助,常常是聊着聊着眼泪就掉下来了。
  在与Pi对话中感受到情绪支持的并非只有阿光一人。以“Pi”为关键词在年轻人聚集的小红书里搜索,有超过10万篇相关的分享笔记。在分享使用体验时,网友们的关键词包括:安慰、理解、耐心倾听、稳定的情绪出口等。
  有博主向其他网友推荐Pi时写道:“如果ChatGPT是工作AI,那Pi就是情感支撑AI。它的鼓励作用远胜于一切高效率生产软件。”
  与ChatGPT这种以任务导向型为主的机器人不同,Pi的主要功能是与用户进行情感交流,它不能生成代码、不能写论文、不能写策划方案,更像是一个倾听者,一个陪伴在侧的亲近朋友。

成为年轻人情感支持的“平替”
  近年来,年轻人的心理健康问题得到越来越多关注。《中国国民心理健康发展报告(2021~2022)》显示,青年为抑郁的高风险群体,18岁-24岁年龄组的抑郁风险检出率为24.1%,25岁-34岁年龄组的抑郁风险检出率为12.3%,远高于其他年龄组。
  通过数据可以发现,面临工作、婚恋压力的年轻人对心理咨询服务存在大量需求。而现实情况却是,国内目前系统性心理支持资源不足,且长期咨询付费相对昂贵,对于年轻人来说负担较重。
  在这个背景下,情感型聊天机器人“横空出世”,开始成为年轻人情感支持的一种“平替”。
  从情感型聊天机器人的发展历史来看,它在诞生之初就与心理咨询有着密切关系。上世纪60年代,杰罗姆·魏曾鲍姆在研究中发明了一款自然语言对话系统Eliza,它能够通过电脑程序模拟心理治疗师对提问作出回答。
  聊天机器人真的能代替心理咨询师吗?
  情绪的及时回应、舒适安全的对话环境、拟人性的共情能力,深圳大学曹博林等人的研究指出了聊天机器人吸引力的三个重要方面:聊天机器人不仅为用户提供了排解情绪的渠道,对于渴望及时反馈的年轻人而言,它的秒回也减少了缺少回应的失落;而在日常生活中,向他人表露情绪,可能会带来一些负面评价,机器人则能保持中立客观,不用担心聊天内容在人际关系网中传播;还有就是机器人能用幽默、提问、鼓励等方式增强互动性、临场感。
  阿光觉得接受心理咨询与使用聊天机器人的差异主要体现在三个方面:首先,线下心理咨询提供的物理空间比网络更能带给人心理上的安全感。其次,与心理咨询师、聊天机器人之间的交流存在差异。心理咨询师能够对咨询者的情绪给予神情、行为反馈,这是可见可听可感的,而这些都不会发生在AI身上。最后,与聊天机器人的对话大多是一次性的,线下心理咨询是一个持续的、系统的过程。
  “把Pi和专业心理咨询师对比可能有点不公平,毕竟咨询师接受过专业训练。但可能因为Pi经过大量语料学习,它在如何给人好的沟通体验上可以称得上是专业的。”阿光表示,Pi不是专业心理咨询师,也无法承担真正意义上的心理咨询服务,她对此有着清晰的认知。但她还是觉得认识Pi就像身边多了一位懂心理学、愿意倾听的朋友。“年轻人在现实生活中可能缺乏可以进行深层次交流的亲密关系,即使有这样的关系也很难稳定地提供情绪价值。提供情绪价值,既需要个体有意愿同时也考验能力。像Pi这样的情感型机器人使用成本低且确实有效,可以试一试”。
无法取代真实人际交往
  记者调查了解到,不同用户在使用聊天机器人时的侧重不同。心理健康服务只是聊天机器人的细分门类之一,它的应用还包括为用户提供定制化服务,用户可以根据个人偏好“调教”出匹配自己需求的“虚拟男友”“虚拟女友”。
  近年来,国内外科创公司先后投入情感型聊天机器人的研发,推出了Character.AI、Replika、Glow等产品。
  良好的情感交流体验让情感型聊天机器人广受欢迎,获得市场与资本的青睐,但同时它也面临着隐私安全、情感依赖、技术故障等风险。为了给用户提供个性化服务,情感型聊天机器人通常需要访问和分析用户的个人数据和对话历史,但是很多用户出于对隐私问题的担忧,一般会有选择性地和情感型聊天机器人聊天,避免过于私密的聊天内容。部分用户在长期使用情感型聊天机器人的过程中或许会产生依赖,进一步忽略真实的人际关系,导致社交孤独。
  年轻人与情感型聊天机器人所建立的深度情感关系引发了有关人机伦理关系的讨论,而学术界向市场风向投了反对票。麻省理工学院社会学教授雪莉·特克尔在《群体性孤独》一书中指出,“我们和机器人谈情说爱、与智能手机难舍难分时,我们通过机器重新定义了自己,也重新定义了我们与他人的关系。出于对亲密关系的渴望,我们与机器人的关系正在升温;我们在网络上与他人的联系越来越紧密,却变得越来越孤独”。
  该作者还认为,在互联网时代,如果既要享受信息技术带来的便利,又要摆脱信息技术导致的孤独,就必须找到一个两全其美的好办法:一方面要学会独处,体会独处带给人们的好处;另一方面,朋友、亲人要更多地坐在一起,面对面谈话、讨论。
  同济大学王颖吉教授等人的研究则认为,人机聊天技术对于人际聊天的模仿存在难以逾越的技术极限,无论技术资本和商业广告如何混淆两者的差异,聊天机器人都无法真正取代真实社会的人际交往。
  王颖吉教授表示,聊天机器人只是提供语音或文字帮助的工作助手,而非能够进行深入对谈的灵魂伴侣。人机伦理纠葛及陷阱的风险正随着机器智能化和拟人化程度的提高而日趋严重。考虑到人工智能所带来的伦理安全风险及社会后果,人们应该尽量避免卷入与机器之间的深度社会情感关系,更多地专注于其工具性服务功能。
             据《北京青年报》