2018/05/14 13:53 网易科技
据国外科学网站Nautilus报道,安杰莉卡·莉姆(Angelica Lim)在烤蛋白杏仁饼干时,直木(Naoki)会在厨房里帮她。她的助手只擅长筛面粉之类的重复性工作,但他的存在让烘焙工作更有趣。直木很可爱,身高只有0.6米。他全身几乎都是白色,某些部位是蓝色,耳朵带有扬声器。他的嘴是个小圆圈,这能让他表现出惊讶的表情,实际上,他的嘴是个照相机,双眼是红外线接收器和发射器。
早在2013年莉姆曾说,“我只是很喜欢机器人。”当时她在日本京都大学智能科学与技术系念博士。她通过直木来探索机器人如何表达情绪并与人交流。直木由法国奥尔德巴伦机器人公司(Aldebaran Robotics)研制,他的日语名字大致意为“不仅是一台机器”。当莉姆吹长笛时,直木会在旁边用特雷门电子琴或沙蛋伴奏。
当然直木听不懂笑话,也无法享受音乐,看到饼干也不会馋得流口水。虽然我们称之为“他”,但他只是金属部件和电路板的集合。当我们对着Siri语音助手大叫或对着电脑咒骂时,它们并不会做出什么反应。机器无法理解我们的感受。
至少这是我们的想法。我们通常认为,拥有情感以及读懂他人情绪的能力是人类的特质。我们不期望机器了解我们的想法或对我们的情绪做出反应。我们自恃高它们一筹,因为我们会表达情感,而它们不会。不管它们运行速度有多快、多么合乎逻辑,敏感的人类都会赢过它们:《2001:太空漫游》中,大卫·鲍曼击败了工于心计的HAL 9000电脑;《终结者》中,绝望的莎拉·康纳打败了终极杀人机器。《星际迷航》中,麦考伊博士把情感寡淡的斯波克称为“绿色血液的不近人情的”生物。人们针对犯罪分子的道德推理往往会围绕着他们的情感缺失。这些都可以看出,我们把情绪视为人类这一身份的核心。
我们是特殊的、难以解读的,除此之外,各种奇想和幻想让我们具有人性。然而,这里可能存在一些误解。作为人性中难以捉摸的一种本质,情感或许只不过是对环境变化的自主反应,好比进化过程中作为一种生存反应而在人类的生物硬件中编写的软件。
纽约大学神经科学研究中心的科学家约瑟夫·雷道克斯(Joseph LeDoux)用所有生物中存在的“生存通路(survival circuits)”来描述情感。生物体(无论如变形虫一般简单,或像人类一样复杂)对环境刺激作出反应,能够提高自身生存和繁殖的可能性。刺激切换了生存通路上的开关,促使生物体产生能够提高生存率的行为。以特定模式激活的神经元可能会触发大脑发出释放肾上腺素的命令,从而令心跳加快,让动物战斗或逃离危险。雷道克斯指出,这种身体状态是一种情感。
罗切斯特大学的心理学助理教授梅利莎·斯特奇(Melissa Sturge)认为,情绪与我们的生存有关。她说,“它们是对环境线索的回应,并能够引导你的行动。如果害怕,你可能会逃跑。如果从吃东西中获得乐趣,你可能会吃得更多。你所做的事有利于你的生存。”人类“生存工具包”中的关键是沟通,而借助移情作用,情绪有助于促进沟通。
通过这种推理,每一个想要生存的生物都会以某种形式表达情绪,虽然表达方式与人类不太相同。宠物的主人会告诉你,狗能够感受情绪。雷道克斯认为,所谓的情感是我们对这些情绪状态的有意识的解释和描述。他把内疚、嫉妒或自豪等其他类型的情感称为“高阶或社交情绪”。
我们表达情感的生理结构与情感本身息息相关。埃里克·芬齐(Eric Finzi)在新书《情感面孔》中描述,微笑让人们更快乐,不过如果注射了肉毒杆菌,脸部会变得僵硬,无法恰当地表达情绪,显得欠缺同理心。这样看来,生理部位会影响情绪的表达。
但是,如果我们的情绪状态是机械性的,就可以被检测及测量,这就是情感计算领域的科学家们目前所致力的研究内容。他们希望通过捕捉来自人类声音、面部、甚至走路方式的线索让机器像我们一样解读人类情绪。计算机科学家和心理学家正在训练机器识别和回应人类的情绪。他们试图将情感分解为可量化的各种属性,这些属性还具有可描述的生理机制以及可测量分析的定量特征。他们正在研究算法,当患者试图隐藏自己的真实感受时,这类算法会提醒治疗师。他们也在研究能够感知并回应人类情绪的计算机。有些研究者把情感分解为各种数学形式,并把它们编入机器人中,因为他们认为,受恐惧、喜悦或欲望驱动的机器或许能做出更好的决策并更有效地完成目标。
罗切斯特大学的电子和计算机工程教授、斯特奇合作者之一文迪·海因泽尔曼(Wendi Heinzelman)正在开发一种基于说话人的声音特征来感应情绪的算法。海因泽尔曼向计算机输入了演员试图传达不同特定感受的语言样本,并告诉计算机哪些片段听起来很开心、伤心、愤怒等等。计算机会测量这些样本中的音高、紧张感和音量等参数的波动。波动更多对应着更积极的情绪状态,如快乐或恐惧。计算机还对共振峰展开跟踪,共振峰是一种受到声道形状影响的基频频带。如果喉咙因为生气而收紧,声音就会随之改变,计算机可以测量出来。有了这些数据,就可以进行统计分析,找出一种情绪与另一种情绪之间的区别。
剑桥大学计算机实验室的博士后研究员尼尔·拉希尔(Neal Lathia)正在研究EmotionSense,这是一个以类似人类方式倾听人类言语并抒发情感的Android手机应用。例如,它可能会判断,说话者开心的几率为90%,并报告,“单纯从统计角度来看,你听起来最像那个表达着快乐情绪的演员。”
莉姆目前是西蒙弗雷泽大学计算科学学院的助理教授。与拉希尔和海因泽尔曼一样,莉姆认为情感表达具有某些可识别的特质,当我们在动物的行为或歌曲的声音中识别这些特质时,我们会把相关的情感归属其中。莉姆指出,“我更感兴趣的是,如何检测其他事物或生物的情绪,如,音乐或跳来跳去的小狗。”为什么我们认为某段音乐是悲伤的?她使用了四个参数:速度、强度、规律性和广度——无论是大声还是小声,柔声还是响声。愤怒的语言可能语速快、响亮和粗暴,愤怒的音乐或许也是如此。若有人以适中的速度步行,而不是踏着重步走,他的心情可能是满足的。如果有人缓慢地踱着步子,步伐小而且不规律,他可能正伤心着。莉姆假设,母亲正是通过语言和面部表情的速度、强度、规律性和广度这些特性向婴儿传递情感,因此人们把它们视为情感的标记。不过莉姆的这一假设还未得到验证。
目前,为了让计算机更容易区分情绪,研究人员所致力的情绪类型仍是有限的,因为快乐与欢乐、愤怒与轻蔑之间的区别是微妙而复杂的。海因泽尔曼表示,“情感越多,计算机就越难区分,因为这些情感非常相似。”他目前专注于六种情绪:愤怒、悲伤、厌恶、快乐、恐惧和“不动声色”。她指出,为了让治疗师评估患者的总体心理状态,将情绪分为这些一般类别或许是必要的。
声音当然不是人们表达情感状态的唯一方式。伦敦帝国理工学院的智能行为与理解小组负责人、情感和行为计算教授马亚·潘蒂奇(Maja Pantic)使用计算机视觉技术捕捉面部表情,并分析它们如何传达人的感受。她的系统跟踪各种面部运动,如抬眉、落眉以及嘴部或眼睛周围肌肉的运动。该系统可根据展开微笑的速度和持续时间来区分真正的微笑和礼貌性的微笑。潘蒂奇已经确定了45种不同的面部表情,在大约80%的时间内,她的计算机可以识别出其中30种表情。受限于计算机的二维视觉等障碍,她的系统无法识别其余的表情——面部不同方向的运动、咬紧的下颚和磨牙等可能传递感觉的行为很难被识别。大多数情绪识别系统在实验室中运作得很好。但在条件不完善的现实世界中,它们的准确性仍然很低,但正在逐渐改善。潘蒂奇表示,“我相信几年后,或许五年后,我们将拥有能够在现实生活中展开分析、并以无监督方式学习新模式的情绪识别系统。”
把情绪进行明晰地区分后,再予以记录和分析,研究者就可以把它们输入到机器中。这类研究的价值在于,由此产生的机器人将与人类展开更丰富和有趣的互动。莉姆希望有一天,直木在活动或演奏特雷门琴时能够传达出自己的情绪状态。
研究者对情感式机器人感兴趣也存在更深层次的原因。如果情绪能够帮助生物存活下去,那么在未来情绪能否帮助机器人实现同样的目的?可以根据环境感受到情绪的智能代理,如,机器人或软件,能够快速做出决策,就像人类看到房子着火时放弃一切并逃离现场那样。荷兰乌得勒支大学计算机科学教授迈赫迪·达斯坦尼(Mehdi Dastani)指出,“情绪能够让你集中注意力,你的关注焦点从正在做的事转变为重要得多的目标,如,自救。”
达斯坦尼试图赋予了智能机器人他所称的“情感逻辑”,这是对22种不同情绪状态的具体描述,如怜悯、幸灾乐祸、愤恨、自豪、钦佩、感激等等。他解释,机器人可通过这些情绪评估它朝着目标迈进的进展。一个无情绪的机器人,被指示从A点移动到B点,可能会在途中遭遇障碍,但它只会不断撞击这个障碍。具备情感的智能机器人可能会因进展不顺而感到难过,最终放弃转而去做其他事情。如果这个机器人感到高兴,则意味着它离目标越来越近,它应该维持这个进程。但如果它感到沮丧,它或许会尝试另一种方法。机器人的情绪提供了一种计算机科学家称为探试程序(heuristic)的问题解决策略,即,像人类那样的自主发现和学习能力。达斯坦尼指出,“情感是进化过程中确立的一种启发式机制,它们能够介入理性的决策中,使决策更加高效。”
但是机器真的能拥有情绪吗?阿维德·卡帕斯(Arvid Kappas)是德国不来梅雅各布大学情绪、认知和社会背景专业的心理学教授。他认为这个问题需回归到对情感的定义。根据某些定义,即使是人类婴儿,他们主要依靠本能行事,并不具备理解或描述感受的认知能力,或许可以说婴儿没有情绪。根据其他定义,这种特征存在于各种动物中,大多数人都愿意相信与人类非常相似的生物也拥有情绪。卡帕说,“像鳄鱼一样情绪化。像鱼一样情绪化。像狗一样情绪化。”那么人们是否相信计算机也可能拥有情感?
卡帕斯表示,“可能是机器情绪,而不是人类情绪,因为它们的躯体是机器。”情绪与我们生物体的感受相关。机器人或许能够感受,但这些感受却属于非常不同的自我,因为它们没有心脏和胃,它们的体内是各种机械部件。一个处于省电模式的机器人可能在做梦,梦的是机械羊。这就会引发道德问题。当智能扫地机器人Roomba乞求着不要耗尽它的电池时,人类需担负怎样的责任?当新款机器人问世、你想把旧款送往回收厂时,你会对旧款机器人说什么?
田纳西大学计算机科学副教授布鲁斯·麦克伦南(Bruce MacLennan)表示,“如果人类要与机器人互动、思考机器人能否感受以及在什么条件下才能感受,这真的很重要。”今年夏天国际计算机与哲学协会举办的活动中,麦克伦南将针对他的论文发表一次演讲,论文论述的是如何善待未来的机器人。他认为这不仅仅是一个哲学问题,而是一个可以科学解决的问题。他试图将情绪分解成他所称的“原型现象(protophenomena)”——这是引发情绪的物理效应中的最小单位。他说:“原型现象非常微小,人们通常不会意识到这种现象是他们意识体验的一部分。应该存在一些可科学测量、以在机器中重现的基本物理量。”
麦克伦南指出,“我认为,若能让机器人做出我们想要的那些决定,它们将不可避免地产生意识。而且,雷道克斯认为,人类意识促进了我们对情感的体验,这样看来意识也可能催生能够体验情感的机器人。”
麦克伦南表示,“可能还要数十年的时间,我们才需面对机器人能否具有与人类相似的情绪的问题。我不认为这些问题是当下需要解答的,但它们确实说明了我们对自身的理解,所以这些问题还算好解决。”他认为,与情感机器人相处的深刻影响或许等同于一种文明与另一个文明的交汇或人类与外星智慧生物的接触。我们将不得不面对这样一个问题:人类的感受是否存在什么特别之处,如果不存在,人类本身是否有什么特别之处。他说,“这或许会让我们更关注:当面对某些方面与我们如此相似、其他方面却完全陌生的机器人,我们应如何做才能无愧于人类这一身份。”
榜单收录、高管收录、融资收录、活动收录可发送邮件至news#citmt.cn(把#换成@)。