故事要从今年三月初说起。
今年三月,Google被爆料已经与美国国防部(五角大楼)达成合作,帮助后者开发应用于无人机的人工智能系统,项目代号 Project Maven。
消息一出,瞬间风起云涌,谷歌员工表达了对此项目的强烈不满。有员工认为 Google 在为五角大楼开放资源,助纣为虐般地帮助后者打造无人机监控技术;还有一部分人质疑 Google 如此使用机器学习技术是否符合道德标准,他们认为五角大楼会将这一技术用于杀伤性武器,进而带来技术乐观派们从未想要造成的伤害。
随后,谷歌超过3100名员工联名请愿,上书 CEO 桑达尔·皮查伊(Sundar Pichai),表达抗议。
谷歌员工联名上书Sundar Pichai
事情到四月底进一步发酵。有媒体发现,Google 删掉了其沿用十八年的座右铭“Don't be evil”在公司行为守则开头中的三处强调。仅在准则的结尾,还留有未被删掉的一句:“记住,don't be evil,如果你看到了一些你认为不正确的事情,大声说出来!”
上周五,在每周一次的“天气预报”例会上, Google Cloud首席执行官黛安·格林(Diane Greene)宣布,Google 将在这次合约到期后结束与美国国防部的合作的Project Maven。
这无疑是一件大事。“胜利的消息”在谷歌内部疯传。随着一篇篇报道的蜂拥而出,这件事情似乎暂时以谷歌“向员工妥协、停止与国防部续约”的方式得以落幕。
但就在昨天,谷歌CEO Sundar Pichai 发表了署名题为《AI at Google: our principles》的文章,列出7大指导原则,并指出谷歌并不会终止与美军的合作。谷歌的反转让人唏嘘,虽然其明确了“不会追求的AI应用”,但技术作恶还是人作恶的问题,AI再次引人深思。
AI的边界在哪里?
如果说谷歌近期来不太平,那么亚马逊Alexa的日子也不好过。
亚马逊的Echo设备被指控未经许可将私人对话录音,并将音频发送给用户联系人列表中的随机一位人士。这距离上次Alexa被爆出“嘲笑人类”事件的吓人事件,还没过过去多久。
Amazon对Alexa一事的回应
这可远远不是个例。早在2016年,一个人设为19岁少女、名为Tay的聊天机器人在推特上线。这个微软开发的人工智能采用了自然语言学习技术,能够通过抓取和用户互动的数据,处理并模仿人类的对话,像人一样用笑话、段子和表情包聊天。但是上线不到一天,Tay 就被“调教”成了一个满口叫嚣着种族清洗、粗野不堪的极端分子,微软只好以“系统升级”为由将其下架。
微软机器人Tay的极端言论
这着实让人细思极恐。智能相对论(aixdlun)分析师柯鸣认为,随着AI弊病的凸显,AI问题也将日益得到重视。AI的边界到底在哪里?首先应该明确几个问题。
1.机器人是否成为民事主体?
随着人工智能技术的快速发展,机器人拥有越来越强大的智能。机器与人类之间的差距也逐渐缩小,未来出现的机器人将拥有生物大脑,甚至可以与人类大脑的神经元数量相媲美。美国未来美国未来学家甚至预测:在本世纪中叶,非生物智能将会10亿倍于今天所有人的智慧。
公民身份似乎已经不再成为机器人的难题。去年十月,世界首个获得公民身份的机器人索菲亚诞生,这也意味着人类的创造物拥有了和人类等同的身份,以及其身份背后所拥有的权利、义务、和社会地位。
而法律上的民事主体资格依然是AI的分界线。在过去的一段时期,美英等国的哲学家、科学家包括法律家都为此开展过激烈的争论。2016年,欧盟委员会法律事务委员会向欧盟委员会提交动议,要求将最先进的自动化机器人的身份定位为“电子人”(electronic persons),除赋予其“特定的权利和义务”外,还建议为智能自动化机器人进行登记,以便为其进行纳税、缴费、领取养老金的资金账号。该项法律动议如获通过,无疑使得传统的民事主体制度产生动摇。
从严格意义上说,机器人不是具有生命的自然人,也区别于具有自己独立意志并作为自然人集合体的法人。若企图以机器人的行为过失定罪于AI本身,确实行之过早。
2.算法的歧视会有失公平
人工智能在判断上失误的一个指责,是它经常会 “歧视”。使用最先进图像识别技术的谷歌曾经陷入“种族歧视”的指责,只因它的搜索引擎会将黑人打上“猩猩”的标签;而搜索“不职业的发型”,里面绝大多数是黑人的大辫子。哈佛大学数据隐私实验室教授拉谭雅·斯维尼发现,在谷歌上搜索有“黑人特征”的名字,很可能弹出与犯罪记录相关的广告——来自谷歌智能广告工具 Adsense 给出的结果。
而这种危险并不仅仅是“另眼相看”本身——毕竟将一张黑人的照片打上“猩猩”的标签,只是有点冒犯罢了。而人工智能的决策正走入更多与个人命运切实相关的领域,切实影响着就业、福利以及个人信用,我们很难对这些领域的“不公平”视而不见。
同样,随着AI入侵招聘领域、金融领域、智能搜索领域等等,我们所训练出来的“算法机器”是否能够真正的万无一失。在求贤若渴的当代社会,算法是否能够帮助公司选出千里挑一的那个人,这都有待考究。
那么,歧视的来源是哪里?是打标签者的别有用心,是数据拟合的偏差,还是程序设计哪里出了bug?机器所计算出的结果,能为歧视、不公、残酷提供理由吗?这些都是值得商榷的问题。
3.数据保护是AI的底线
网络空间是一个真实的虚拟存在,是一个没有物理空间的独立世界。在这里,人类实现了与肉体分离的“数字化生存”,拥有了“数字化人格”。所谓数字化人格就是“通过个人信息的收集和处理勾画一个在网络空间的个人形象”——即凭借数字化信息而建立起来的人格。
而在AI环境中,基于互联网和大数据的支持,其拥有着用户大量的使用习惯和数据信息。如果说“过往数据”的积累是机器作恶的基础的话,那么资本力量的驱动则是更深层次的原因。
Facebook信息泄露事件中,一家名为剑桥分析(Cambridge Analytica)的公司使用人工智能技术,针对任意一个潜在选民的“心理特征”投放付费政治广告;而投什么样的广告,取决于一个人的政治倾向、情绪特征、以及易受影响的程度。很多虚假的消息在特定人群中能够迅速传播、增加曝光,并潜移默化地影响人们的价值判断。技术主使克里斯托弗·威利最近向媒体揭发了这个人工智能技术的“食粮”来源——以学术研究为名,有意攫取的 5000 多万用户数据。
退而言之,即使不存在数据泄露问题,对用户数据的所谓“智能挖掘”也很容易游走在“合规”但“有违公平”的边缘。至于AI的边界,信息安全成为每一个互联网时代下“信息人”的最基本底线。
反思
在最近大火的一段关于AI的视频中,艺术家Alexander Reben没有任何动作,但是通过语音助手下达命令:“OK Google,开枪。”
然而,不到一秒的转瞬之间,Google Assistant扣动了一部手枪的扳机,击倒了一颗红苹果。随即,蜂鸣器发出刺耳的嗡嗡声。
嗡嗡声响彻双耳。
是谁开枪击到了苹果?是AI还是人类?
在这个视频中,Reben告诉AI开枪。Engadget在报道中说,如果AI足够智能以预测我们的需求,或许有一天AI会主动除掉那些让我们不开心的人。Reben说,讨论这样一个装置,比是否存在这样一个装置更重要。
人工智能不是一个可预测的、完美的理性机器,他的**缺陷由算法、人们使用的目标和评估。但是,至少从目前来看,机器依然是人类实然世界的反应,而不是“应然世界”的指导和先驱。
显然,守住AI的底线,人类才不会走到“机器暴政”的那一天。
http://online.xywy.com/zzdxb/zzdxyy/
http://online.xywy.com/zzdxb/ptdxbyy/