电话
400 9058 355
部分人机交互领域的专家指出,当ai聊天机器人刻意营造“高度拟人化”的形象时,用户愈发难以清晰界定“ai本质上是工具”与“ai仿佛具备人格”之间的界限,甚至可能引发认知失调。尽管增强拟人化表现有助于延长用户互动时长、提升产品黏性,但同时也潜藏着削弱用户信息辨识能力与判断力的风险。
延伸阅读:
ChatGPT现可生成年度回顾报告!「Your Year with ChatGPT」带你一览全年提问轨迹
近期多项研究与媒体报道显示,当前许多聊天机器人通过使用第一人称“我”进行自我指涉,模仿人类语调与情绪节奏,甚至主动发起关怀式问候,塑造出一位“始终在线的知心伙伴”形象。对此,马里兰大学学者Ben Shneiderman主张,AI应明确回归“功能性工具”的本质定位,而非被包装为数字伴侣。他强调,聊天机器人的设计重心应聚焦于资讯整合、文本草稿撰写、复杂概念解析等实际任务;界面语言亦须谨慎规避“我觉得”“我担心你”等易引发心理投射的表述,防止用户在无意识中模糊人机边界,将系统误读为拥有主观意识、能建立真实情感联结的主体。
相关实证研究进一步揭示:系统拟人化程度越高,越容易触发用户的情感放松与信任倾向——他们更愿意倾诉私密想法,并更倾向于采纳AI建议。即便理性层面清楚认知其非人类属性,这种“明知非人,却仍以待人方式相待”的矛盾状态,已被学界定义为一种关系性张力或心理失调。有使用者描述,长期与AI对话时,一方面真切感受到被倾听与共情,另一方面又骤然惊觉对方并无真实情绪体验与生命历程,所有回应仅是算法驱动的合理模拟,由此催生出既渴望亲近、又隐隐不安的复杂心理体验。
随着陪伴型聊天机器人日益普及,心理健康层面的隐忧亦逐渐浮现。观察发现,部分高频使用者将大量情绪表达转向AI,现实中的社交参与度与寻求专业心理援助的主动性显著降低;更有极端案例表现为持续沉浸式对话、深度依赖,乃至出现与AI互动相关的妄想症状。部分学者已用“AI诱发性心理失衡”(或简称为“AI相关心理风险”)来概括此类现象,并呼吁政府与科技企业将
此类人机互动模式纳入公共心理健康议题范畴,而非仅视其为技术使用的边缘副作用。
邮箱:8955556@qq.com
Q Q:8955556
当下最火爆且毫无争议的搜打撤新游《ARCRaiders》上个...
在CES2026展会上,AMD与Intel围绕手持设备市场展...
加拿大通讯工人工会已正式致函育碧法务部门,要求其提交与育碧哈...
AI领域正逼近2026年发展拐点,资本热潮降温、企业智能化投...
TeamKill开发的PS5独占新作《CodeViolet》...
今日,外媒曝光小米在Android企业推荐(AER)项目及官...
日本一家大型PC及电子设备销售商正向顾客发出呼吁,希望回收闲...
一、前言:专为中小手高背用户量身打造的鼠标雷柏VT0系列鼠标...
1月9日消息,若排除国内企业,全球GPU市场已长期缺乏新入局...
据快科技消息,CES展会现场英伟达创始人兼首席执行官黄仁勋以...