AI能否成为人类的情感“导师”?
AI能否成为人类的情感“导师”?
AI能否成为人类的情感“导师”?参考消息网5月30日报道据西班牙《趣味》月刊网站5月26日报道,长期以来,情商一直被认为是人类独有的能力,难以量化、更难以用机器(jīqì)复制。但是瑞士日内瓦大学和伯尔尼大学的科学家(kēxuéjiā)们发表在英国《通讯(tōngxùn)-心理学》杂志上的最新研究颠覆了这(zhè)一看法。在这项开创性的实验(shíyàn)中,包括聊天生成(shēngchéng)预训练转换器(ChatGPT)在内的六种人工智能(AI)模型(móxíng)不仅成功通过了一系列旨在考察人类情商的测试,而且其表现还远超人类参与者。
几十年来,情商一直是人类的堡垒(bǎolěi),机器根本无法与之抗衡。然而,这种观点开始出现裂痕。卡特娅·施莱格尔和(hé)马塞洛·莫尔蒂拉罗领导的研究团队对AI语言(yǔyán)模型能否对人类情绪状态进行解释、调节和作出适当反应(fǎnyìng)展开了评估。
为此,研究人员(rényuán)使用(shǐyòng)了五种心理学界广泛采用的标准化测试,模拟(mónǐ)了工作场合的矛盾、人际关系的误解和日常情感困境等情境。每种情境都提供多个反应选项,但只有其中一个被认为是恰当的情绪反应。
结果显而易见:ChatGPT-4或Anthropic公司研发的Claude 3.5 Haiku等(děng)语言模型回答准确率为(wèi)81%,而人类参与者的成功率仅为56%。这一结果还意味着,这些(zhèxiē)AI系统不仅“模仿”了人类的行为(xíngwéi),还内化了人类复杂(fùzá)的情感推理模式。
让人感到意外的(de)测试(cèshì)结果(jiéguǒ)远不止于此。在实验的第二阶段,ChatGPT-4被要求生成自己的测试题目,即创造新的情绪情境及其可能的反应。创建和(hé)验证可靠的心理测试,通常需要人类心理学家和研究人员团队花费数年才能完成,但该模型在几分钟内就完成了。
400多人参与了由AI创建的情感测试(cèshì)的验证工作。与原始测试相比,AI生成的新题目被评为同样清晰(qīngxī)、逼真和多样化。答案选项的内部一致性(yízhìxìng)也很相似,这表明这些测试并非简单的模仿,而(ér)本身就是有效的心理测试工具。
这些发现具有巨大的(de)应用潜力。在情感教育、企业高管(gāoguǎn)辅导或冲突管理等方面,拥有能够理解和应对(yìngduì)情感问题的数字工具,可以改变未来专业人员的培训方式。
让我们(wǒmen)试想一下,虚拟助手不仅能提醒我们完成作业,还能知道我们何时感到压力、悲伤(bēishāng)或(huò)倦怠,并建议我们如何调整情绪,或者还可以根据学生的心理状态调整教育(jiàoyù)平台的教学内容。甚至在商业领域(lǐngyù),AI情绪管理工具也可以作为领导者和团队的情绪指南针,帮助预防危机或提高团队的凝聚力。
但是,研究人员也发出警告:这些模型的使用必须始终受到人类专业人员的监督(jiāndū)。尽管AI可以成为强大的工具,但将其融入心理学等敏感领域时还必须谨慎,应(yīng)遵守伦理道德(lúnlǐdàodé)和受到严格监督。
这项研究最吸引(xīyǐn)人的一个亮点是,它对传统的“同理(tónglǐ)心”概念提出了(le)挑战。如果一台机器能够识别人的情绪、预测情绪造成的影响并提出管理情绪的最佳方法,从某种意义(mǒuzhǒngyìyì)上说,这不就是已具有功能性的同理心吗?
或许这不是一种情感(qínggǎn)上的(de)“同理心”(AI不具备情感),但确实是一种有用(yǒuyòng)的同理心,能够产生积极的结果。在(zài)自动化程度越来越高的世界里,这种“算法同理心”不仅可以补充人际间的互动,还可以在某些情境中(zhōng)增强人际间互动,因为在一些情境中,偏见、情感泛滥或缺乏自我认知都十分常见。
总之,上述研究结果不仅打破了一种范式,还提出了令人不安的(de)问题:人类(rénlèi)是否仍将是管理人类的最佳人选?在(zài)情感问题上,AI能否反过来成为人类的“导师”?
曾经看似科幻的东西,如今已经成为具体的研究领域。上述研究很可能不是终点,而是新时代(shídài)的开端。在这个新时代里,迄今为止(qìjīnwéizhǐ)难以捉摸的情感问题将成为机器(jīqì)可以理解、评估和改进的东西。
虽然机器不会感知,但也许它们会开始教(jiào)我们人类如何(rúhé)更好地感知。(编译/王萌)
人工智能(réngōngzhìnéng)标志(新华社)
参考消息网5月30日报道据西班牙《趣味》月刊网站5月26日报道,长期以来,情商一直被认为是人类独有的能力,难以量化、更难以用机器(jīqì)复制。但是瑞士日内瓦大学和伯尔尼大学的科学家(kēxuéjiā)们发表在英国《通讯(tōngxùn)-心理学》杂志上的最新研究颠覆了这(zhè)一看法。在这项开创性的实验(shíyàn)中,包括聊天生成(shēngchéng)预训练转换器(ChatGPT)在内的六种人工智能(AI)模型(móxíng)不仅成功通过了一系列旨在考察人类情商的测试,而且其表现还远超人类参与者。
几十年来,情商一直是人类的堡垒(bǎolěi),机器根本无法与之抗衡。然而,这种观点开始出现裂痕。卡特娅·施莱格尔和(hé)马塞洛·莫尔蒂拉罗领导的研究团队对AI语言(yǔyán)模型能否对人类情绪状态进行解释、调节和作出适当反应(fǎnyìng)展开了评估。
为此,研究人员(rényuán)使用(shǐyòng)了五种心理学界广泛采用的标准化测试,模拟(mónǐ)了工作场合的矛盾、人际关系的误解和日常情感困境等情境。每种情境都提供多个反应选项,但只有其中一个被认为是恰当的情绪反应。
结果显而易见:ChatGPT-4或Anthropic公司研发的Claude 3.5 Haiku等(děng)语言模型回答准确率为(wèi)81%,而人类参与者的成功率仅为56%。这一结果还意味着,这些(zhèxiē)AI系统不仅“模仿”了人类的行为(xíngwéi),还内化了人类复杂(fùzá)的情感推理模式。
让人感到意外的(de)测试(cèshì)结果(jiéguǒ)远不止于此。在实验的第二阶段,ChatGPT-4被要求生成自己的测试题目,即创造新的情绪情境及其可能的反应。创建和(hé)验证可靠的心理测试,通常需要人类心理学家和研究人员团队花费数年才能完成,但该模型在几分钟内就完成了。
400多人参与了由AI创建的情感测试(cèshì)的验证工作。与原始测试相比,AI生成的新题目被评为同样清晰(qīngxī)、逼真和多样化。答案选项的内部一致性(yízhìxìng)也很相似,这表明这些测试并非简单的模仿,而(ér)本身就是有效的心理测试工具。
这些发现具有巨大的(de)应用潜力。在情感教育、企业高管(gāoguǎn)辅导或冲突管理等方面,拥有能够理解和应对(yìngduì)情感问题的数字工具,可以改变未来专业人员的培训方式。
让我们(wǒmen)试想一下,虚拟助手不仅能提醒我们完成作业,还能知道我们何时感到压力、悲伤(bēishāng)或(huò)倦怠,并建议我们如何调整情绪,或者还可以根据学生的心理状态调整教育(jiàoyù)平台的教学内容。甚至在商业领域(lǐngyù),AI情绪管理工具也可以作为领导者和团队的情绪指南针,帮助预防危机或提高团队的凝聚力。
但是,研究人员也发出警告:这些模型的使用必须始终受到人类专业人员的监督(jiāndū)。尽管AI可以成为强大的工具,但将其融入心理学等敏感领域时还必须谨慎,应(yīng)遵守伦理道德(lúnlǐdàodé)和受到严格监督。
这项研究最吸引(xīyǐn)人的一个亮点是,它对传统的“同理(tónglǐ)心”概念提出了(le)挑战。如果一台机器能够识别人的情绪、预测情绪造成的影响并提出管理情绪的最佳方法,从某种意义(mǒuzhǒngyìyì)上说,这不就是已具有功能性的同理心吗?
或许这不是一种情感(qínggǎn)上的(de)“同理心”(AI不具备情感),但确实是一种有用(yǒuyòng)的同理心,能够产生积极的结果。在(zài)自动化程度越来越高的世界里,这种“算法同理心”不仅可以补充人际间的互动,还可以在某些情境中(zhōng)增强人际间互动,因为在一些情境中,偏见、情感泛滥或缺乏自我认知都十分常见。
总之,上述研究结果不仅打破了一种范式,还提出了令人不安的(de)问题:人类(rénlèi)是否仍将是管理人类的最佳人选?在(zài)情感问题上,AI能否反过来成为人类的“导师”?
曾经看似科幻的东西,如今已经成为具体的研究领域。上述研究很可能不是终点,而是新时代(shídài)的开端。在这个新时代里,迄今为止(qìjīnwéizhǐ)难以捉摸的情感问题将成为机器(jīqì)可以理解、评估和改进的东西。
虽然机器不会感知,但也许它们会开始教(jiào)我们人类如何(rúhé)更好地感知。(编译/王萌)
人工智能(réngōngzhìnéng)标志(新华社)


相关推荐
评论列表
暂无评论,快抢沙发吧~
你 发表评论:
欢迎