如何教博客机器人的情绪

作者:晏忐汇

劳伦斯Devillers是在巴黎索邦大学研究员教授,并在计算机实验力学和科学CNRS工程师与她说话的机器在我们的互动情感维度有了它,我们可以想像这些机器人将帮助他们完成日常任务,让他们能够更长时间地保持自主性这显然会让我们想到另一个主题:不应该让这样的机器人成为卸下我们的借口他们关心的人谁必须由人劳伦斯Devillers包围是CERNA中的一员,研究伦理科学和数字Allistene技术委员会反映并参加了伦理学的报告机器人技术研究员她还参与了全球IEEE道德领域的倡议自治系统接收在周围计算劳伦斯Devillers乙©LD劳伦斯的采访,您的网站说,你的研究是你能解释一下“与机器人的互动口语情感和社会层面”? LD:当与某人互动时,不仅语义信息而且与其他人的知识相关的情感和社会信息通过口头和非口头语言传递。 ,隐私,我们将有对方的身体语言,如语音,手势,面部表情,姿势的基调,但也使我们能够表达大量的信息情绪我们试图制造具有这种专业知识的机器,其中包括人,机“善解人意”,能够表达一些B点特定的情感:了解一个人的感受,更好的服务很容易理解为什么它有用但是机器为什么要表达同理心呢? LD:这也许可以解释,教育,安抚人的机器进行交互。例如,我认为有疾病,如阿尔茨海默氏病的老年人认知刺激的机器人可以像猫的反应,假性情感行为然后患者将与机器人一起玩,好像它是一只宠物一样,在情感上刺激他并创造一种社会纽带同样,机器人可以帮助自闭症儿童难以表达自己的情感和理解他人的情绪,但仍有待做出我们只能创建非语境化的对象很大的进展,谁也无法真正与现实世界适应机器人人互动并且背景是一个挑战,这个挑战通过情绪状态的建模B:机器人的难点是它理解的感受人还是模仿感情? LD:情感是莫名其妙地表达感情,与其他情绪接口齐头并进用身体感觉,并采取措施,如蛇表达情感是逃离在语音,面部和手势多式联运和组合指数更容易,IT的角度来看的机器人来模拟情绪,即使他们没有认识到创建的身体感觉的表情在脸上,我们可以依靠自达尔文以来的许多作品,例如Paul Ekman的作品,他创造了可以在机器人的脸上组成的面部单位来表达给定的情感关于手势的产生和表达性声音的情感综合,还有很多工作。对于情感的识别,由于根据语境和文化感受个体之间表达的lmost很大的可变性是心理意识,往往隐藏,尤其是在一些文化中,例如,我们有时会表现积极的情绪和感觉真的感觉悲伤如果机器人识别一个人表达情感表达,它也许可以再预测的感觉,作为从语音情感识别的情况下,它是基于这些指数的补丁中,一个人的语音技术能量,节奏和语音质量被用来“机器学习”的情绪,这是机器学习多谈目前B型:你能告诉我们更多关于你使用的算法? LD:我们分三个阶段进行:编码,标签,型号从配乐考虑承认情绪的一个例子,我们在一些“问题”,这将使我们数百或选择此信号数以千计的物理坐标,这样的编码是最复杂的阶段,必须选择正确的设置,它需要情感的表达的透彻理解,必须得到更多的信息,这些坐标的载体序列的密码子,我们配乐紧凑,但保留了足够的信息,以便能够仍然发现有感情的人类然后通过这些标记载体序列(其分部,视频),有情绪,愤怒,喜悦,悲伤......在干预机器学习算法然后尝试从信号和标签“学习”模型这是机器人去的模型唱的人会说话,然后该程序将使用模型来预测信号可能对应于特定情感的方式,程序试图找到与现有的信号相似的首发数据语料库如果找到相似之处标有“怒”的信号,他推断,此人是在Youtube上的视频生气检测的情绪,“生活与机器人”体外受精©的Elodie B:你用深度学习,深学习? LD:我们主要使用另一种技术,“支持向量机”用于检测的情绪,我们开始使用深层的学习,即“卷积神经网络”,但它是必要的有非常大的语料库学习的深度学习从原始信号直接提取参数并自动拨打这是一个有趣的方向产生良好的结果,但它是一个黑盒子式的方法,使不知道是什么标准,有用的方法缺乏透明度B:我们看到了起始数据的质量的重要性,他们的标签LD:它可以是人造的,得到他们最重要的语料例如,戏剧演员被要求重现情感这是一个重要的限制一个主要的研究领域是建立c orpus对感情的重要数据,在实际设置获得由我实际存在的情感标记,我记录EMS我们再观察,大多数的情绪并不那么简单真实语料工作他们往往混合,比如你可以在同一时间感到焦虑或恐惧和解脱,因为有人来帮你发现我们在谈话中的复杂性,我们还贴上标签,而不是客户满意,谁更普遍联系的EDF呼叫中心,我们分析的语言信息,那人说出来和辅助语言信息,语调,节奏,声音的音色也有些话面部表情,如微笑等。我们尝试关联所有这些信息,以了解感觉成功的标准是什么? LD:这是非常简单的:它是个人的机器人之前的反应具体来说,如果机器人说,“你生气,玛丽”玛丽回答,“是的!我很生气,“它赢了! B:但我们并没有以同样的方式表达我们所有的感受您可以根据个人自定义此分析吗? LD:我们正常化的声音,然后我们建立在作为人的表现轮廓,例如它的尺寸外向性,情绪性的和互动:当我们问他一个问题她回答?我们保留此信息,我们可以考虑来分析该人或机器人的决策和行为的实时交互过程中的改变后的感受是适应根据这些技术同样重要不同的文化B:机器是否能够做心理学家不能做的事情? LD:机器人可以有更好的感知质量他们可以在声音中寻找人耳可能听不到的线索例如,这个人可以通过微震来传递他的情感人类听不到,但机器可以听到医生是这类技术的接受者,特别是对于监测病人机器人也可以一天24小时记录和分析信号他们可以检测到信号,何时是需要触发与医生的警告,例如,关于老年痴呆症或抑郁症的开端,有可能是在白天偶尔的迹象,当病人看到医生最后不一定出现,机器人是有耐心的。生命末期人类的节奏非常缓慢伴随人类并不总是准备以很好的节奏重复相同的句子。 NT,但机器人,让机器人在知道​​他等待有人发现他的话B中的慢同步对话,他的话:人的意志不觉得我们适合他亲密,如果机器知道他感觉到的一切? LD:我们有保障我个人觉得难以忍受的环境中,我们会用机器包围,将分析我们的情绪,而不是原因,或者只是出于商业原因或治安但是,如果它是为人们的医疗支持,对他们的福利,合理的伊西莱穆利诺老年人提供一个NAO机器人“教练为老年人”,以动画的活动B中的市社会福利中心:这些人与机器人之间的情感联系不是让他们感到不安,甚至令人不安吗? LD:在50年中,海德和齐美心理学家经验丰富的项目一个电影,其中一个大的三角形有两个其他的小几何形状,三角形和圆形观众,看到这些运动借给他们的意图和想象中的令人难以置信的场景充分认识到他们在电影表演几何形状,有有来自导演的意图,但感觉是解释说,他看到的人其实机器人有感觉吗?不,这是谁借给她的感情,性格可以跟他的狗或猫他是非常清楚,它不包括机器人试图制造机器人的人与一个人的意志同情他们,机器模仿,这些都是没有内在的生命只是个空壳,没有任何情绪这些都是这些机器将通过拟人化的棱镜解释其行为的用户借给他们没有自己的人性用户会在这些机器上投射他们的情感但这是否令人尴尬?如果人们更喜欢想象机器人有情感,那么问题出在哪里?从我的角度来看是没有问题,我看到的只有一个危险因素:人太重视机器人必须掌握这种同情与机器,以避免与人同情的困惑这种风险是更加现在下一代必优机器人不断地学习机器人学习可以加强连接到机器,像个大人教他的孩子大号人体接触机器学习是一项重要的技术和法律突破如果设计师与用户之间存在机器人问题,可能会有共同责任Laurence and Pepper©LD B:您对您的工作充满热情您的动机是什么? LD:我想要了解的感觉之谜当我还是个孩子的时候,我想在大脑上工作我不是那么遥远!这使我怀疑我的机器和机器人的关系,这些情感机器人的伦理反思人为我将建立机器人和谁尊重社会生活的道德准则和人类之间的互动系统可以陪伴老年人特别是患阿尔茨海默病的人个人而言,我想在家里三四十年里有一个也有幽默感的机器人!这是对我们工作的进行维修保养塞尔日·阿比特博和克莱尔马修收集为了进一步去研究课题:杂志2015年国家科学研究中心的机器人“采用机器人更好地,住笑”,你会是人类又好笑:这篇文章是发表在对话合作报告此内容不合适这个好太太不知道她在说,当涉及到其他动物已经多次证明,狗既包括intonnation和感使用裸猿,我们不提,可能比很多人更聪明的海豚。当这个终极傲慢把我们其他动物上面的话停下来吗?即使是传教士的位置也不是我们自己的!无论是同情,也没有计算或处理,尤其是不杀人,抢劫,强奸,谎言,也许只有这个令人难以置信的愚蠢,它可能是最好什么宗教,以保持一定程度的合理性机器人不仅是他们的付出没有任何表情中至少......这种特殊的傲慢将导致我们毁灭地球上的生命非常有名的人的同情也是一种真正的风向标它使我们发展和扩大,我们阿米巴但它可能会导致我们的破坏,也许是通过插入机器,也许是通过破坏气候或生物多样性啊啊反乌托邦如何逃脱?哇,与文章有什么关系?首先,没有人能诱使我们优于动物,只是说我们在进化方面领先。此外,你的例子是讽刺的:我们仍然比海豚聪明得多(如果我们提到人类对情报的定义)并且传教士没有以任何方式证明任何优势最后,如何促进人工智能的出现会质疑我们与自然的关系?仅供参考,我们不希望这些研究结果,开始污染和破坏我们的环境......数学家,我有情感纽带数学,我不认为数学有我做的是当前machinolâtrie针对人类创造的物体的新万物有灵的标志?人们可以相信以后威廉·布莱克的代表上帝创造世界的图纸,可能代表人类创造的虚拟世界中你可以把它神秘的电脑维修这让我充满了焦虑在这个层面上的研究,我很惊讶由于缺乏哲学深度的反思,当我在没有问过太多关于“人工智能”的问题的情况下阅读有关今天所谓的文章或访谈时,情况往往如此。情绪状态“(我们的情绪状态,或不断变化的思想和影响的流动?第一个没有问到的问题)很难建模,是因为它们取决于我们的状况痛苦的生命和凡人,这不是一个“可模拟”的因素开放的时间,持续时间的经验必然逃避机械的存在换句话说,一个机器人可以模仿一种感觉(一种状态),但它永远无法生存(为了测试它,这对于“活着的”存在来说是特殊的)我们是想把病人放在模仿他们的机器前面,还是在了解他们的众生面前?该公司通过这个项目的维护设计是令人心寒,并以此科学所采用的语音模式唤起的“奇爱博士”我希望三十年劳伦斯Devillers不会回家“的机器人最好的部分有一种幽默感“,但是一位亲戚或朋友,或只是一位照顾她的护士@Damien Marguet人类对彼此如此友善是真的...超级文章谢谢!然而,一个复杂的主题和非常有趣的算法只是基于作者的参考框架仍然部分分析的反映然而,试图模拟人类的感受会给出一个还原结果,因为没有模型,但几种模式,但多学科文化的证明,西方社会antrophologique模式是失败适用于亚洲和日本文化包括(但造型娇宠心理为例(见关于这一主题的书籍)用一种语言来理解另一种语言是不够的,语言形成思想,思想形成语言而这种公理也适用于算法对于这种项目以一种令人满意的结果成功而不知道没有通过排除主题类别来区别对待,有必要问问谁为何如何进行他的项目的认识论(参见Edgar Morin方法)基于非穷举样本的算法的医学用途可能导致医疗错误我们能否相当地认为算法可以提供比存在更好的结果?人类了解他的喜欢?我们愿意支付多少代价来降低受访者对潜在漂移的警惕成本,但在所谓的网络上实施Bot的情况并非如此想成为开处方者的社会组织?基于部分分析的Bot能否不可避免地导致多样性的减少?并且不要忘记,诗歌和音乐比这些机器人模仿情感更能让我们感动。情感是一种锁定在膜上的情绪的质量,能够重新聚焦或扩展;顺便说一句,感受这种运动生活,粗略地说,可以区分“矿物”和“有机”两者的区别在于有机物是特定于情感,矿物质,没有现在,所有这些机器人 - 都是矿物质......我们想要“学习”有机物所特有的东西:情感:它是愚蠢的附属问题是:人们为什么要努力?希望矿物质变得像有机物一样“理解”(即除矿物之外的有机化)情感?毫无疑问,因为他们处于这样一种情绪状态或情绪混乱,他们不再知道他们是有机生物,而不是那些想要什么都不感觉的矿物“生物”,比如事实上,我们可以总结一下这篇文章:搜索控制情绪的算法并在机器中实现它们?经过人工智能,人工情感和人类可以成为他建立的机器的上帝你必须阅读这本科幻小说“明天的狗”,我忘记了作者“它我必须掌握这种对机器的同情,以避免与人类同情相混淆“尽管在面试开始时尽力使它们尽可能相似,但是可以问这位女士和他的同事对待一个“妥协”的问题但是让我们从头开始如何使机器人能够有一定的同理心,显然是虚构的? “先验”非常有限,这次访谈揭示了动物的能力让人怀疑建模方法的严肃性。宠物对人类感受的详细表现的反应应该反过来进入建立的数据体模型机器人相反,对机器人概念成功的测试可能包括让它与狗或猫进行交互,并检查它是否恰好被接受了。我觉得非常奇怪,我们想制作像人类一样的机器人与老人互动...但是如果我们把人类(和动物)放在一起并不简单(对老年人来说更便宜,更人道,也可以给某人一份工作)而不是用机器人替换它们?如果情感是新兴财产?....