人工智能能教我们更人性化吗?也许……

同理心可能是可编程的,但价格是多少?

关键的外卖

  • 像Cogito这样的人工智能课程试图教导人们在与客户打交道。
  • 对于机器是否有可能教会人们同理心,还是仅仅是寻找数据点,专家们意见不一。
  • 一些专家还担心,教授人工智能同理心可能会剥夺人类的这种情感。
一个女人的脸被电脑电路板电路覆盖,显示人工智能。

John Lund / Getty Images

假设你在呼叫中心工作,有客户打来电话。你一回答,事情马上就变糟了。顾客很生气,气氛变得紧张起来。

你开始说一些以后可能会后悔的话。突然,一条信息出现在你的电脑屏幕上。同理心的提示——考虑顾客的感受。试着联系起来。”

这不是一个真正的人告诉你该做什么。这是一条消息Cogito,一个人工智能程序旨在帮助工人同情令人沮丧的呼叫者并提升性能。Cogito是一项越来越多的AI计划,这些计划正在努力教授人类同情。

这里有一个明显的讽刺。几十年来,人类科学家一直在努力制造更逼真的计算机。现在,机器在告诉我们该怎么做。但软件真的能教会我们如何更有同理心吗?随着人工智能开始渗透到日常生活中,这个问题可能会产生深远的影响。

人工智能模仿人类行为

从技术角度来看,很明显,AI可以接受关于人类感受和提供反馈的线索。

“人工智能和机器学习系统非常擅长从数据中寻找模式,”亚当Poliak该电邮采访中表示,这是一家在Barnard College的计算机科学博士后的博士学位。

“如果我们给AI许多有同理心的文本例子,AI就能发现唤起或展示同理心的模式和线索。”

“人工智能可能被编程来分解一些伴随同理心的人类行为,并提醒人类去执行这些行为,但这并没有教会同理心。”

美国加州理工学院的人工智能专家布雷特·格林斯坦(Bret Greenstein)表示,分析人类反应的人工智能有助于在我们进行数字化交流时缩小人与人之间日益扩大的差距认识到数字业务他在接受电子邮件采访时说。

“在过去的一年里,实时,视频,声音和消息传递比任何人都能想象的速度快得多,而且它在没有实际与人们与人们共度实际时间的情况下创造真正的同情关系引起了巨大挑战,”他补充道。

格林斯坦说,人工智能可以帮助分析和评估说话中的语调和情感等特征。他补充说:“这可以帮助接收信息的人更好地理解意思,并通过展示如何解读信息来帮助‘说话的人’。”

尽管很多公司都在争相利用Cogito等人工智能培训软件赚钱,但人工智能是否能教会人类同理心这个问题仍然没有答案。答案可能与哲学和技术有同样多的关系。

髂骨Delio是维拉诺瓦大学的神学家,他的工作集中在信仰和科学的交叉点上。她认为人工智能可以教会同理心。

一个孩子与机器人互动。

Wonry / Getty Images

Delio指出麻省理工学院的团队已经制造出可以模仿人类情感的机器人,如快乐、悲伤和同情。她说:“当机器人的情绪被编程时,机器人可以与人类互动,从而建立或加强神经模式。”

机器能理解同理心吗?

专家界定了至少三种形式的同理心,所有人都涉及理解和与另一个人的理解和相关的能力Karla Erickson是爱荷华州格林内尔学院的社会学家即将出版的一本书的作者,凌乱的人类:人类/机器关系的社会学,探讨了我们与技术的关系。

“联系不是人工智能能做到的,它是同理心的基础,”埃里克森在接受电子邮件采访时说。

“AI可能被编程为分解一些伴随同理心并提醒人类的人类行为,但这不是教学同理心。关联,特别是在同理心之方面,将要求听众有必要的上下文有关 -由此,我的意思是AI的“生活”不包括损失,渴望,希望,痛苦或死亡。“

然而,对于人工智能能否教会我们如何移情,专家们存在分歧。部分问题在于,并不是所有人都认同“同理心”或“人工智能”是什么意思。人工智能这个词被频繁使用,但目前它并不是我们所认为的人类智能。

“这是纯粹的工程工作,我不会幻想这个人工智能本身有情感或真正理解情感。”

“移情线索”与移情无关,迈克尔Spezio斯克普利斯学院的心理学,神经科学和数据科学教授在一封电子邮件采访中表示。

“他们是来自人类评估者被归类为愤怒/生气的人的声音的提示。所以它只是在数学模型中使用人类的专业知识,然后声称是人类专业知识的模型 - 是聪明的。有限的机器学习像这样的方法通常被估中为AI而不聪明。“

在Rensselaer Polytechnic Institute,塞尔曼牌Bringsjord的实验室是建立人类情感的数学模型。这项研究旨在创造一种能在情商测试中获得高分并将其应用于人类的人工智能。但人工智能专家布林斯约德(Bringsjord)表示,人工智能的任何教学行为都是无意的。

他在接受电子邮件采访时说:“但这是纯粹的工程工作,我不会幻想这个受到质疑的人工智能本身有情感,或者真正理解情感。”

可能会出什么问题?

虽然像Cogito这样的公司看到了AI训练的光明未来,但其他观察者更加谨慎。

支持这家在线心理健康服务公司利用人工智能,根据每个用户表达的任何一个想法,将他们实时导向一个特定主题的同伴支持小组,该小组动态地为有类似问题的用户召集。

一个孩子拥抱着一个在“面部”屏幕上显示快乐面孔的机器人。

zinkevych / getty图像

每个小组都有一个“超能力”的人类主持人,他可以保持文本聊天的安全和无喷子,并可以通过人工智能、相关资源、推荐和推荐进入小组对话。通过使用人工智能,Supportiv训练它的主持人善于发现情感需求的强度。

“Empathy是我们建造的肌肉,”支持者的数据科学家Zara Dana在电子邮件采访中表示。

"If we start using a crutch for walking, our muscles will atrophy. I can’t help but wonder, would a dependent worker feel confident if the AI system is not online one day? Is she able to do her job effectively? What are the long-term effects on the workers? How would they navigate complex social situations where the AI is absent?"

即使使用AI教授同理心作品,当我们开始依靠AI太多训练情绪时会发生什么?一个可能的下行的缺点是,人类可以更加附加到机器人而不是其他人类,因为机器人不能选择他们的程序,Delio指出。

“人类自由意志的能力将人类的代理置于一个更加模糊的位置,”Delio说。“一个人可能今天富有同情心,明天就会无情;机器人将始终保持同情心,除非接受过其他训练。”

专家说,如果AI教会人类如何表现,那么有很多可能出错。

“我们已经进化成社会动物,我们的同理心是我们与他人联系、关心我们所属的集体能力的核心。”

“没有人类监督,学生可能会学到一些绝对坚果的东西,”Bringsjord说。

“语调和音高只是行为上的关联,没有任何内容。我在教室里教书时的声音会被很多人读到。这表明我很难过,而实际上,我只是充满激情,至少需要同情。”

如果人类的人工智能训练蓬勃发展,我们可能会开始依赖它。这并不一定是一件好事。

埃里克森说:“这种训练贬值了,这是相当大的,这是相当大的,并将注意力转移到AI,好像是那些具有专业知识的人,”埃里克森说。“我们已经进化成社会动物,我们的同理心是我们与他人联系、关心我们所属的集体能力的核心。”

这个页面有用吗?