人工智能不是种族主义,也不是中性9

作者:晏忐汇

<p>陪审团是一个人工智能项目的选美体验已经产生了结果,提醒人们这种技术的“客观性”永远不会是完美的</p><p>世界| 2016年9月9日16:05•2016年9月9日16:30 |更新作者:Luc Vinogradoff三种算法扫描了这个数据库,并根据最客观的标准选择了“最美丽的”面部,例如面部对称性,皱纹的存在与否,年龄</p><p>没有考虑的标准之一是肤色</p><p>然而,当科学家发现机器人陪审团选出的44名获胜者时,他们发现38名是白人</p><p>其他六个是亚洲人,其中只有一个皮肤相对较黑</p><p>尽管该实验中有四分之三的参与者是白人,但结果令人惊讶</p><p>从理论上讲,人工智能,如果没有将肤色作为美的标准,应该将所选择的标准(对称性,青春)应用于所有照片,包括黑皮肤的人</p><p> </p><p>但要看到结果,情况并非如此</p><p>说人工智能是“种族主义”是没有意义的</p><p>她不知道她在看人类的照片</p><p>对她而言,它只是像素</p><p>那么,为什么她经常选择白人的面孔呢</p><p>青年实验室技术总监康斯坦丁·基谢列夫认为,由于白人候选人过多存在,该算法“可能会出现偏差”</p><p>在600,000名候选人中,约有4万人是印度人,9,000人是非洲人,而且没有一人被人工智能视为“英俊”</p><p>它采用深度学习技术,允许程序根据其拥有的数据进行学习和调整</p><p>通过扫描600,000张图像,该程序适应并改进其“美丽”的概念</p><p>该程序用作“神经网络”,一个由数千个单元(神经元)组成的虚拟机,执行简单的小型计算</p><p>阅读关于像素:如何“深度学习”革命性人工智能这方面的经验提醒的是,一次,人工智能,在我们生活的许多方面越来越呈现,不会被定义为中性</p><p>它取决于众多的人为因素,包括其创建者提供的数据库</p><p>认为所谓的“智能”技术默认是客观的,这是错误的,也是有潜在危险的</p><p> “这是谁想到,即使是作为算法,使我们相信,它是中性的,科学的人类”伯纳德·哈考特,在哥伦比亚大学法学和政治学教授说</p><p>在6月出版的一篇文章,凯特·克劳福德,在微软的研究员谁在人工智能的问题为白宫工作,忆及有必要保持警惕,并怀疑“智能”的这种技术,它可以重复现实世界中的偏见:我们最近有人工智能程序,其中一些有更严重的后果比照片选美可疑的选择可能过激的概述:其中报纸订阅享受世界当你想要的时候</p><p>纸质订阅,网络和平板电脑上的100%数字报价</p><p>从1€在线新闻杂志订阅世界,Le Monde.fr为访客提供新闻的完整概述</p><p>通过法国媒体在线新闻网站Le Monde.fr,每天发现所有信息(从政治到经济,....