人工智能:“花海”之下仍有“荆棘”
人工智能:“花海”之下仍有“荆棘” 伦理尚待明确
人工智能可以同声传译、写新闻稿、协助医生看病、让机器人脸识别的精度高于人类、甚至写诗和战胜围棋世界冠军,其应用可谓“百花齐放”。
数据显示,截至2017年6月,全球人工智能企业总数达到2542家,预计到2030年,人工智能将为世界经济贡献15.7万亿美元
在今年7月国务院印发的《新一代人工智能发展规划》(以下简称《规划》)中提出,到2020年,我国人工智能核心产业规模超过1500亿元,带动相关产业规模超过1万亿元。顶层设计相继出台,巨头发力布局生态,资本市场热情洋溢,细分行业独角兽不断涌现,人工智能这片“花海”已不止“看上去很美”。
但“花海”之下仍有“荆棘”。市场研究机构埃森哲大中华区信息技术服务总裁陈笑冰坦言:“人工智能也将会引发新的安全和伦理问题,鉴于未来人工智能将深入生活,政府也需要切实为人工智能制定监管规则,保证人工智能应用合理合规发展。”《规划》也同时提出:“人工智能发展的不确定性带来新挑战。人工智能是影响面广的颠覆性技术,可能带来改变就业结构、冲击法律与社会伦理、侵犯个人隐私、挑战国际关系准则等问题,将对政府管理、经济安全和社会稳定乃至全球治理产生深远影响。”
人工智能发展将面对怎样的挑战与风险?又应该设立怎样的“游戏规则”,让新技术能够与人类社会良性互动?
监管刚刚起步
人工智能不断融入人类生活的同时,也引发公众对人工智能的忧虑。对此,专家表示,应该建立监管机构来引导、促进和保障人工智能的健康发展
此前有报道称,“脸书”人工智能研究所中的两个聊天机器人“失控”,发展出了人类无法理解的语言,“被迫关闭”引发了广泛关注。尽管随后被证明是一场“乌龙”,只是因为工程师忘记加入“使用英语语法”这一条件。
但对事实的夸大报道,也显示出媒体和公众对人工智能的忧虑。在北京市中盾律师事务所律师陈涛看来,随着人工智能深入融入生产和生活,必须以立法来对其安全性进行监管,给公众吃下“定心丸”。互联网汽车的特斯拉埃隆·马斯克也表示,我们应该警惕人工智能崛起的潜在风险,并建立监管机构来引导这项强大技术的发展。
对人工智能进行立法监管,首先要解决人工智能使用中基本的安全问题,以及使用者与服务提供者的责任界定问题。以无人驾驶汽车为例,上路前,对其安全性如何全面评判?一旦无人驾驶汽车出现事故,如何判断使用者、软件提供商以及车辆制造商等多方主体的责任,如何在后续赔偿和保险理赔中进行规定?实际上,立法监管不仅降低风险,也让服务企业能够“有据可依”,从而促进和保障人工智能的健康发展。
从目前来看,各个国家的人工智能监管都刚刚被提上日程。在美国,2016年10月,总统行政办公室和国家科技委员会发布了两份重量级报告:《美国国家人工智能研究发展战略规划》与《为未来的人工智能做好准备》,后者提出了发展人工智能的7项关键战略,在第三条“社会影响战略”中,提出“理解和确定人工智能在法律、伦理和社会领域中的影响”;在第四条“安全战略”中,则提出“确保人工智能系统的安全和对公众的隐私保护”。
在欧盟,2016年欧盟法律事务委员会向欧盟提交了《欧盟机器人民事法律规则》,针对基于人工智能控制的机器人,提出了使用的责任规则、伦理原则、对人类自身和财产的伤害赔偿等监管原则。英国下议院科学技术委员会在今年4月表示,也将开展关于人工智能监管的研究。
在我国,《规划》中同样提出,到2020年,“部分领域的人工智能伦理规范和政策法规初步建立”。其中特别提出,要“开展与人工智能应用相关的民事与刑事责任确认、隐私和产权保护、信息安全利用等法律问题研究,建立追溯和问责制度,明确人工智能法律主体以及相关权利、义务和责任等”,“重点围绕自动驾驶、服务机器人等应用基础较好的细分领域,加快研究制定相关安全管理法规,为新技术的快速应用奠定法律基础”。
不过,对人工智能的监管也不能“闭门造车”。“立法的前提是了解人工智能的科学规律,需要充分准备、摸索和积累,对技术进步充分了解,同时考虑公众的实际需求。”陈涛表示。
安全仍有漏洞
安全是人工智能面临的巨大挑战。这其中既包括在应用层面的传统黑客攻击方式,也存在着对基础设施方面进行的数据库、云服务等攻击。但更关键的安全问题是从最核心的算法层面发起攻击
两张人眼看起来一模一样的熊猫图片,一张被神经网络正确识别为“熊猫”,另外一张却因为被加上了人眼难以察觉的微小扰动,就被神经网络以99.3%的置信度识别为“长臂猿”——这就是可以“愚弄”人工智能的对抗样本,直接折射出人工智能所面对的安全问题缩影。
专注于互联网安全的极棒实验室总监王海兵告诉《经济日报》记者:“安全是人工智能面临的巨大挑战。”他表示,一方面,人工智能要面对传统的黑客攻击方式,比如在应用层面,可以攻击它的操作系统或者逻辑漏洞。“比如说,通过对智能门锁的攻击,就能实现任意人脸都可以通过门禁。”在人工智能的基础设施方面,则可以对人工智能使用的数据库、云服务等进行攻击,“比如说,机器视觉经常调用的OpenCv库,机器学习用到的TensorFlow框架,人工智能的从业者可以直接调用这些服务,但不幸的是,这些基础设施同样有漏洞。”王海兵说。
然而,人工智能所面对的更关键安全问题,正是诸如熊猫图片这样的对抗样本。王海兵表示:“用对抗样本攻击人工智能,其实就是从最核心的算法层面来攻击它。”
美国加州大学伯克利分校教授宋晓冬这样介绍对抗样本攻击的危害:“比如,无人驾驶汽车根据交通标示进行决策。如果交通标示是一个对抗样本,那么人类可以完全不受干扰,但无人驾驶汽车却可能将它完全识别成错误信息,这将带来严重后果。”实际上,美国伊利诺伊大学的一项测试已经证明,自动驾驶系统有可能被对抗样本“蒙骗”。
“但公众不用过于担心,至少现在来看,针对自动驾驶的对抗样本对抗性很差。比如,它只能在0.5米的距离内让自动驾驶系统错判,但自动驾驶场景毕竟是逐渐接近交通标识的。”王海兵也表示,“未来会不会有更完美的对抗样本,仍是未知数”。
人工智能面对众多安全问题,对此,开发者也在努力总结与之对抗的手段。智能家居生产厂商BroadLink高级副总裁康海洋表示:“我们会将多方数据融合和统一分析,以提升数据的可信程度,同时也在尽量让整个系统变得更加透明。此外,我们还会及时销毁所有能销毁的数据,减少用户被攻击的可能性。”
伦理尚待明确
告诉人工智能何为“正确”,正在成为当务之急。如果不对其进化方向和目标形成共识,人工智能的伦理规则将无法“落地”
如果保持前行,会撞上沿途的5位行人;如果避开他们,就会撞上路边的墙,车中的两名乘客则可能有生命危险。在这种情况下,指挥自动驾驶的人工智能应该如何选择?英国伦敦玛丽女王大学高级讲师雅思密·艾登表示:“如果是人类驾驶员,大可以直接撞上行人,并表示‘是他们自己突然跳出来的’,但人工智能在道德上很难获得这么奢侈的原谅。”
这只是人工智能所处伦理困境的冰山一角。今年以来,麻省理工和哈佛大学联合推出了人工智能伦理研究计划,微软和谷歌等巨头也成立了人工智能伦理委员会,告诉人工智能何为“正确”,正在成为当务之急。《互联网进化论》一书的作者、计算机博士刘锋坦言:“尽管大方向上说,人工智能应当以造福人类为前提,但如果不对进化方向和目标形成共识,人工智能的伦理规则将无法‘落地’。”
对于人工智能来说,“伦理正确”的核心是正确的“算法”。美国一些法院使用的一个人工智能犯罪风险评估算法COMPAS,被第三方机构认为对黑人造成了系统性歧视。业界因此怀疑,小众人群有可能因为个体差异而承受“算法的歧视”。腾讯研究院研究员曹建峰表示,如果算法本身有问题,一旦将算法应用在犯罪评估、信用贷款、雇佣评估等关乎人身利益的场合,“因为它是规模化运作的,并不是仅仅针对某一个人,可能影响具有类似情况的一群人或者种族的利益。规模性是很大的”。
此外,还有来自数据的风险。以色列历史学家尤瓦尔·赫拉利表示,“人工智能技术的一个潜在结果是:促成数据集中到某一个地方,也进而导致权力的集中”。比如,大量互联网数据集中在少数几家巨头的手中,人工智能技术是否会因此遭到垄断?“AlphaGo之父”哈萨比斯就曾表示:“我提醒诸位,必须正确地使用人工智能。”他告诉记者,“人工智能技术不能仅为少数公司和少数人所使用,必须共享”。
AlphaGo超越了人类几千年来对围棋的理解,但人类并非能完全理解AlphaGo为何会如此决策。从这一点来看,人工智能像个“魔盒”,这也让透明性成为人工智能伦理中的重要组成部分。英国阿兰图灵研究所科研主管安德鲁·布莱克表示,算法可问责性的存在至关重要。“透明性规则应被作为伦理道德准则,编入算法之中,这样人们才能更为清晰地认知人工智能的社会影响,并在问题发生之时能够及时找出原因,调整策略。”