进入博客
上饶新闻 首页> 新闻 > 国际新闻 > 正文

美媒:人工智能可能自行产生偏见 趋势演变很难扭转

2018-09-11 10:59:07来 源:新华网      评论:0点击:
  美媒称,新研究表明,对他人表现出偏见并不需要很高的认知能力,人工智能机器很容易就能表现出来。
 
  据美国每日科学网站9月6日报道,英国加的夫大学和美国麻省理工学院的计算机科学和心理学专家已经证明,几组自动机器仅仅通过相互之间识别、模仿和学习偏见就能表现出这种行为。
 
  报道称,偏见似乎是人类特有的一种现象,需要以人类的认知能力去对某个人或群体形成某种看法或成见。
 
  尽管某些类型的计算机算法根据从公共记录和人类产生的其他数据中学到的知识已经表现出了偏见,例如种族偏见和性别歧视,但这项新研究表明,人工智能有可能自行演化为心怀偏见的群体。
 
  报道称,这些新发现发表在英国《科学报告》杂志上,其依据是,计算机模拟了拥有类似偏见的个体或虚拟代理人如何形成一个群体并彼此互动。
 
  在一个平等交换游戏中,每个个体根据别人的名声以及自己的捐赠策略(包括对外来者的偏见程度),来决定是捐给自己所在群体中的某个人还是另一个群体中的某个人。
 
  随着游戏展开,一台超级计算机进行了数千次模拟,每个个体开始通过效仿自己所在群体或整个群体中的其他个体来学习新的策略。
 
  研究报告的作者之一、加的夫大学犯罪与安全研究所和计算机科学与信息学学院的罗杰·惠特克教授说:“通过成千上万次模拟,我们开始了解偏见是如何形成的,以及助长或阻碍偏见的条件是什么。我们的模拟显示,偏见是一种强大的自然力,通过演变,偏见很容易在虚拟人群中受到激励,不利于与他人构建更广泛的联系。来自偏见群体的保护会无意中导致个体进一步组成偏见群体,使得群体四分五裂。这种普遍的偏见很难扭转。”
 
  这一研究结果表明,个体会通过优先效仿短期收益更高的对象来更新自己的偏见程度,这意味着作出此种决定未必需要具备高级认知能力。
 
  惠特克教授还说:“能够识别歧视和模仿他人的自动机器今后很容易受到我们在人类中看到的偏见现象的影响,这是有可能的。”
本文来源于上饶新闻网[www.srxww.com]
本文来源于上饶新闻网[www.srxww.com]

相关阅读:

·日本造出人工智能“ 2014-11-06 09:06:50
·人工智能或危及人类 2015-01-14 09:21:00
·警惕人工智能引发“ 2015-01-16 08:39:04
·扎克伯格在家中建人 2016-01-05 10:55:05
·人工智能威力初显 2016-03-10 10:49:40

上饶新闻

江西新闻

上饶日报社简介 | 关于我们 |    新闻热线:0793-8224621 投稿:srnews@163.com 业务合作:0793-8224921 举报电话:0793-8224621

上饶日报社 版权所有,未经书面授权禁止使用.备案/许可证号:赣ICP备09014908号.