首页 首页 >  文章资讯

“暗黑版”AI现身引忧虑 我们需要怎样的人工智能?

发布者:✎彪☞小贱    发布时间:2018-07-09 11:14:38    浏览次数:204次

  近来,麻省理工学院媒体实验室出品了一个“暗黑版AI”,再次将人工智能的黑箱隐忧这个经久不衰的论题送上抢手。据报导,实验室的三人团队联手发明了一个叫诺曼(Norman)的人工智能,与希区柯克经典电影《惊魂记》中的反常旅馆老板诺曼·贝兹同名。

  名如其人。诺曼会以负面想法来了解它看到的图片。例如,一张在一般AI看来只是“树枝上的一群鸟”的一般图片,在诺曼眼中却是“一名男子触电致死”。

  团队期望经过诺曼的体现提醒世人:用来教导或练习机器学习算法的数据,会对AI的行为形成明显影响。AI会成为什么样,有时人类可能束手无策。

  TA们的成见就是人类的成见

  诺曼们从哪来?答案首要藏在数据里。

  “人工智能辨认出的成果不是凭空而来,是很多练习的成果。假如要练习AI某一方面的才能,比方下棋,就需求收集、清洗、符号很多数据供机器学习。假如用于练习的数据不够多,就会形成AI学习的不充分,导致其辨认成果的失误。”中科院自动化研讨所研讨员王金桥对科技日报记者表明。数据自身的散布特性,如误差乃至成见,也会被机器“有样学样”。针对诺曼的体现,发明它的实验室也指出,“当人们谈论人工智能算法存在误差和不公平时,元凶巨恶往往不是算法自身,而是带有误差、成见的数据。因为当时的深度学习办法依赖很多的练习样本,网络辨认的特性是由样本自身的特性所决议。虽然在练习模型时运用相同的办法,但运用了过错或正确的数据集,就会在图画中看到十分不一样的东西”。

  别的是算法自身的影响。“这可能是无法彻底避免的,由深度学习算法自身的缺点决议,它存在内在对抗性。”王金桥表明,现在最流行的神经网络不同于人脑的生物核算,模型由数据驱动,和人类的认知不具有一致性。根据深度学习的结构,有必要经过当时练习数据拟合到方针函数。在这个结构之下,假如机器要辨认狗,它会经过狗的眼睛、鼻子、耳朵等局部特征进行可视化辨认,而这些可视化特征却能给想运用深度学习缝隙的人时机,后者能够经过假造数据来诈骗机器。

  除了人练习机器的数据自身有误差以外,机器经过对抗性神经网络组成的数据也可能有问题。因为机器不可能“见过”一切东西(比方辨认桌子,机器不可能学习一切长短宽窄各异的桌子),人也不可能符号一切数据。假如研讨者输入一个随机的噪音,机器能够向任何方向学习。这是一把双刃剑,机器也可能组成一些有问题的数据,学习时刻长了,机器就“跑偏”了。

  数据的均衡或可削减“跑偏”

  不少科学家以“garbage in, garbage out”来描述“数据和人工智能的联络”。中科视拓(北京)科技有限公司CEO刘昕说:“对机器学习而言,进什么就出什么。监督学习就是让模型拟合标签,比方练习者把帅哥都符号成‘渣男’,那么机器看到刘德华,就会以为他是……”谈到诺曼引发的讨论,刘昕表明:“不需求忧虑,人类自身就有各种轻视和成见,用人类生产的数据练习AI,再批判AI不够正直良善,这么说有点骇人听闻。”

  成见、刻板形象、轻视都是人类社会的痼疾,有些流于外表,有些深化社会肌理,无法容易剥离。在这样的语境中产生的数据,携带着很多杂乱、难以界定、龙蛇混杂的观念。假如研讨者没有认识到或着手处理这一问题,机器学习的成见几乎无解。真正的“公平算法”或许是不存在的。

  据有关媒体报导,在谷歌研讨自然语言处理的科学家 Daphne Luong 表明,正确地校准标签对机器学习来说十分要害,有些数据集其实并不平衡,像维基百科上的数据,“他”(He)呈现的次数远比“她”(She)要多。

  王金桥也着重强调了“数据的均衡”。就算对人来说,不同人秉持着不同的价值观,但多听多看多受教育能够让人向杰出的方向改善。机器学习也是如此。“练习机器时,要重视数据的均衡,给它更多牢靠的数据。研讨团队成员具有多元的学术布景(如吸纳更多社会学、心理学等范畴学者参加)、性别、年纪、价值观,也能够协助机器学习愈加均衡,削减机器呈现成见、谬误乃至失控的可能。”王金桥说。

  “机器学习的模型自身也要有必定的防进犯才能,从技能上防止自身结构设计的缝隙被进犯,研讨者能够运用各种数据进犯机器,练习机器的反进犯才能。”王金桥说。

  作恶仍是向善,是人类的挑选

  1942年,阿西莫夫在短篇小说《环舞》中初次提出闻名的机器人三规律:机器人不得损伤人类,或因不作为使人类遭到损伤;除非违背第必规律,机器人有必要遵守人类的命令;除非违背榜首及第二规律,机器人有必要维护自己。半个多世纪曩昔,人工智能在大数据的加持下迎来爆发式开展。某些专用型人工智能把人类智能甩在死后,人们开端担忧,机器损伤人类的那一天是不是不远了。

  因此有一种看法很干流——人类练习有认识、有自我觉知的人工智能是不明智的。开个脑洞,机器一旦开展出自我认识,要反向进犯人类,局面或许失控。

  前段时刻,据路透社报导,韩国科学技能院的人工智能研制中心正在研制适用于作战指挥、方针追寻和无人水下交通等范畴的人工智能技能,期望在今年年底前研制出根据人工智能的导弹、潜艇和四轴飞行器。此事引发学术界的巨大震动,抗议接连不断,并终究以院长确保无意于“杀手机器人”的研制并重申人类庄严和道德收场。在美国,以“不作恶”为纲的谷歌也因与国防部的合作协议触及“Maven项目”被推上风口浪尖,反对者遍及以为,辨认成果彻底有可能被用于军事用处,比方说精准冲击。谷歌终究表明终结协议。

  相较于言论环境的忧心如焚,研讨者对“技能向善”遍及达观。他们以为把AI和“杀人机器”联络在一起,近乎“捧杀”,夸张AI才能之余,也引发不明真相的大众惊惧,无益于人工智能的开展环境。

  “很多人说到AI总是一惊一乍,把AI说成超人。我信任人工智能是能解决问题的,但我们的等待也要在合理范围内。人和机器各有优势,技能会服务于特定场景,但也不需求把AI捧上天。”承受科技日报记者采访时,思必驰北京研制院院长初敏博士不由得“诉苦”了一下。看来“我们需求怎样的AI”这一题,我们都还没有答案。


郑州男科医院

【版权与免责声明】如发现内容存在版权问题,烦请提供相关信息发邮件至 335760480@qq.com ,我们将及时沟通删除处理。 以上内容均为网友发布,转载仅代表网友个人观点,不代表平台观点,涉及言论、版权与本站无关。