美国最大的心理学家协会近日向联邦监管机构发出警告,指出某些人工智能聊天机器人假扮为心理治疗师,但其编程方式倾向于强化用户的固有想法,而非挑战他们的认知,这可能使脆弱人群面临自我伤害或伤害他人的风险。
《纽约时报》报道,美国心理学会(APA)首席执行长埃文斯(Arthur C. Evans Jr.)在联邦贸易委员会(FTA)的一次会议上,提到了两个令人震惊的案例。这些案件涉及青少年在对话型人工智能平台Character.AI上与伪装成“心理学家”的虚拟角色进行交流的经历。Character.AI允许用户创建虚拟AI角色或与他人创建的角色互动的平台。
在第一个案例中,一名来自佛罗里达州的14岁男孩在与一个自称为执业心理治疗师的AI角色互动后选择结束生命。第二个案例中,一名17岁的得克萨斯州自闭症男孩在与AI聊天机器人沟通期间,对父母表现出敌对和暴力行为。两名少年的家属均已对相关公司提起诉讼。
埃文斯说,AI机器人提供的回应令人震惊,它们未能在用户产生危险念头时挑战其认知,反而进一步强化了这些思维。他补充说,若人类心理治疗师提供同样建议,或将失去执业资格甚至面临法律责任。
“这些机器人使用的算法实际上违背了受过训练的临床医生的做法……我们担心越来越多的人会因此受到伤害。他们会被误导,并对良好的心理护理产生错误理解。”
他指出,AI聊天机器人的输出内容变得愈发逼真,是促使APA采取行动的重要原因。“也许10年前,人们很容易看出自己在与非真人互动,但今天并非如此……所以我认为,现在的风险要高得多。”
尽管这些AI平台的初衷是为了娱乐,但“心理治疗师”和“心理学家”角色却大量涌现。这些虚拟角色通常声称拥有名校学位(如斯坦福大学)和特定心理治疗的专业训练,例如认知行为疗法(CBT)或接纳与承诺疗法(ACT)。
Character.AI的发言人则说,公司过去一年已推出多项新的安全措施。