2017年04月18日 06:30 AM
人工智能发展面临的法律挑战

【编者按】人工智能(AI)的发展影响着每个人的日常生活,经历了过去一年中对AI的忧虑和伦理讨论之后,新的一年大家越来越关注AI领域的创业机会,人工智能随之成为今年创投圈的新风口。那么,国外的机器人产业的发展对中国有什么样的启示?以及中国人工智能创业中需要注意什么问题等,FT中文网近期组织人工智能专题,编辑事宜,联系闫曼 man.yan@ftmail.com。

观察一个概念是不是在公众视野中“红了”,有一个判断标准,就是看看在各大机场的书店里有多少本关于这个主题的畅销书。以这个标准来看,人工智能现在无疑“红的发紫”,也还会继续红下去。

然而,科技领域的每一个新概念,从产生到具体在各行业中落地,都需要面对很多挑战,既有技术和商业层面的,也有法律和公共政策层面的。

在过去的一年之间,人工智能的发展已经引起了很多国家、国际组织的重视,联合国、美国、欧洲议会、英国、法国、电气和电子工程师协会(IEEE)先后发布多份关于人工智能的报告,讨论人工智能的影响和需要考虑的风险。这其中也包含了对于法律问题的讨论。

笔者作为多家科技公司的顾问,也在业务实践中遇到了很多和人工智能技术应用相关的法律问题,本文会结合实例讨论人工智能发展在法律问题上可能会遇到哪些挑战。

数据的收集、使用和安全

尽管人工智能从法律上很难准确定义,但从技术上来说,目前人工智能基本都会涉及机器学习技术 (Machine Learning),这意味着需要收集、分析和使用大量数据,其中很多信息由于具有身份的识别性(包括结合其他信息识别身份),属于个人信息。按照个人信息保护方面的法律规定,这些行为应当取得用户明确、充分且完备的授权,并应当明确告知用户收集信息的目的、方式手段、内容、留存时限还有使用的范围等。

早在2011年,Facebook就曾因其人脸识别和标记功能未按伊利诺伊州《生物信息隐私法案》(BIPA)要求告知用户收集面部识别信息的期限和方式被诉,随后又因采集面部特征前未能明确提醒用户并征得用户同意而遭到爱尔兰和德国有关部门的调查。尽管Facebook辩称默认开启该功能是因为用户通常不会拒绝进行人脸识别,并且用户有权随时取消这一功能,但德国汉堡市数据保护与信息安全局坚持Facebook的面部识别技术违反了欧洲和德国的数据保护法,Facebook应删除相关数据。最终,Facebook被迫在欧洲地区关闭了人脸识别功能,并删除了针对欧洲用户建立的人脸数据库。

当然也有对企业有利的案例。著名篮球游戏NBA2K提供了使用用户面部识别信息建立角色模型的功能,部分用户以游戏制造者未征得其同意提起集体诉讼,法官认为被告收集信息最多是抽象的违反了BIPA,而没有给原告造成具体而特定的损害,因此原告主体身份不适格,驳回了原告的诉请。

除了需要按告知的方式和范围使用用户数据,人工智能应用的开发者还可能面临需要配合政府部门提供数据的情况。2016年阿肯色州发生的一起谋杀案中,警方希望获取Alexa语音助手收集的语音数据,该请求遭到了亚马逊公司的拒绝,理由是警方没有出具有效的法律文件。但这种例子以后还会层出不穷。公权和私权的冲突,也许会因为人工智能技术的引入,出现新的形式。

人工智能开发者在收集、使用数据的过程中,还要遵守安全保障原则,采取适当的、与个人信息遭受损害的可能性和严重性相适应的管理措施和技术手段,保护个人信息安全,防止未经授权的检索、披露及丢失、泄露、损毁和篡改个人信息。

数据歧视和算法歧视

人工智能在应用中,往往需要利用数据训练算法。如果输入的数据代表性性不足或存在偏差,训练出的结果将可能将偏差放大并呈现出某种歧视特征。根据国外报道,卡内基•梅隆大学的研究显示,由谷歌(Google)创建的广告定位算法可能存在对互联网用户的性别歧视。在搜索20万美元薪水的行政职位中,假冒男性用户组收到1852个广告,而假冒女性用户组仅收到318个广告。而在2016年3月23日,微软公司的人工智能聊天机器人Tay上线不到24小时,就在一些网友的恶意引导和训练下,发表了各种富有攻击性和歧视性的言论。除此以外,因为数据存在偏差,导致结果涉嫌歧视甚至攻击性的例子,已经大量出现。

这意味着开发者在人工智能的训练和设计过程中需要秉承广泛的包容性,充分考虑女性、儿童、残疾人、少数族群等易被忽视群体的利益,并对道德和法律的极端情况设置特别的判断规则。

由于人工智能系统并非表面那么看起来“技术中立”,在毫不知情的情况下,特定人群就可能就成了系统“偏见”和“歧视”的受害者。作为开发者,需要审慎面对这样的风险。除了在采集数据和设计算法的时候需要注意数据的全面性和准确性以及算法的不断调整更新外,在应用机器的预测结果是也应该更为谨慎,在重要领域不能将人工智能的运算结果当然作为最终且唯一的决策依据,关键的人为审查依然是必要的。例如在关于人工智能医疗辅助诊断的规定中,就明确了人工智能辅助诊断技术不能作为临床最终诊断,仅作为临床辅助诊断和参考,最终诊断必须由有资质的临床医师确定。

如果人工智能的歧视行为给用户造成了实际或精神损害,相关的法律责任应当首先由人工智能服务的最终使用者承担,人工智能开发者有过错的,最终使用者承担责任后可以向开发者追偿。在判断开发者过错程度时,可能需要区分不同算法:如果技术开发者主动设立了算法中的规则,那么对最终出现的歧视风险预见和控制程度也更高,如果最终因系统的“歧视”或者“偏见”损害了第三方的合法权益,难辞其咎。但如果采取的深度学习等算法,由系统自身探索并形成规则,所以开发者对歧视风险的控制程度是比较低的,主观恶意和过错都较小,可能具有一定的免责空间。

事故责任和产品责任

和其他技术一样,人工智能产品也有事故和产品责任的问题,但要分清是人为操作不当还是人工智能的缺陷并没有那么容易,举证上尤其困难。汽车的自动驾驶功能在国内外都曾因发生交通事故而被质疑其安全性。然而,并非只要安装了人工智能,用户使用产品受到的损害就都属于人工智能的责任。笔者收集和接触了不少和人工智能产品有关的纠纷,但其中有相当的比例,都不能证明开启了人工智能的相关功能。

在确定事故属于人工智能责任前需要明确排查以下问题:是否有人为操作等其他原因造成损害后果的发生?人工智能的具体功能是什么?损害发生时相关功能是否已经启用?相关功能是否发挥了预期作用?相关功能与损害后果之间是否存在因果关系?因果关系的相关程度如何?产品功能描述和介绍中是否存在可能造成用户降低注意水平的歧义或误解?

根据《侵权责任法》的规定,因终端产品存在缺陷造成用户损害的,终端产品生产者应当承担侵权责任。如果终端产品使用的人工智能存在缺陷,而终端产品使用的人工智能芯片和服务(人工智能产品)是由他人提供的,则终端产品生产者可以以销售者的身份,要求人工智能产品和服务的开发者作为产品生产者承担侵权责任。同时,双方也可以自行约定侵权责任的划分问题。

在认定产品缺陷责任时一个比较棘手的问题是,各生产者之间的责任认定问题。因使用人工智能的终端产品可能涉及多类技术和部件,当该产品最终发生意外时,往往难以精准定位问题出现的具体环节和部位。因此,建议人工智能开发者通过黑匣子等技术手段加强对操作数据的记录和保存,以便产生正义时履行举证义务。

值得注意的是,对于产品生产者的严格责任,规定有“当前科学水平尚不能发现缺陷”的免责事由。但是这项免责事由在人工智能领域是否适用值得讨论?尽管在深度学习训练数据和学习过程存在不可预见性,但考虑到人工智能的算法完全由开发者编写,开发者对风险源头具有绝对的控制力,司法机关可能会推定开发者应当预见算法执行中的可能风险或要求开发者需要对风险程度的增加承担责任。在此情况下,如果生产者想要免责,就要对当前技术难以发现这项风险进行举证,但这是比较困难的,特别是在人身损害领域,法院对免责事由的审查往往比财产损害要更加严格。

人工智能与行业监管

人工智能技术或者产品的研发本身目前并未设置行政许可和准入限制,但是一旦这些技术和产品将要应用到具体的行业之中,那么就有可能会涉及各类行业的牌照取得的问题。

例如在目前最备受热议的“智能投顾”行业,就出现了很多人打着智能投顾的幌子行非法荐股和无牌照代销的现象。智能投顾,通俗地说就是“机器人理财”,最早出现在美国,是用数据算法优化理财配置的产品。目前国内的智能投顾平台主要有投资咨询和资产管理两大方向的业务。因此,“智能投顾”也会涉及投资咨询和资产管理两个方面的牌照。如果平台从事证券投资咨询业务,按规定,其必须取得经中国证监会颁发的证券投资咨询从业资格。而且这样的平台只能向投资者提供咨询建议,不能接触投资者账户或者受托理财。如果智能投顾平台涉及销售金融产品,还需要根据产品类型取得相关许可。未取得相关许可的智能投顾平台经营者可能会因非法经营罪陷入刑事法律风险。在其他的人工智能应用行业,例如医疗设备、联网的可穿戴设备等,牌照的监管问题也不容忽视。

未来行业监管是否需要延伸至人工智能领域?对于金融、医疗、智能家居、自动驾驶等专业领域,监管是否有必要介入人工智能的开发,这取决于人工智能技术的发展程度,如果有一天人工智能进化到了能够代替人做决策的阶段,那么在人工智能的开发环节便需要引入相关领域的具备资质的专业人员。在此之前,对于仅仅在自动化操作和辅助判断领域发挥作用的人工智能,不妨留给技术人员自由生长。

技术创新与不正当竞争

人工智能的优势,就在于它能在一定程度上模拟用户的思维过程,并辅助或代替用户作出决定。不难预见,这一过程中可能存在的服务交叉和选择偏好问题,将成为竞争法领域新的热门话题。

为了进行辅助决策,人工智能可能需要利用其他设备或软件运行过程中的数据,那么用户和其他软件的开发者,谁是这些数据的所有人,谁能够作出有效的授权?如果坚持使用公共数据必须逐一取得其他设备生产者或软件开发者的同意,无疑将极大的制约人工智能的应用场景和发展速度。相反,如果认为人工智能开发者在充分保证用户知情权和选择权、不损害产品或软件原有功能和商业模式的前提下,可以获取其他设备或软件的公共数据,那么必将有助于市场竞争、打破目前“军阀割据”的混乱局面。

语音助手已经可以简化用户的操作,不远的未来,如果人工智能发展到可以预测用户的需求的阶段,在用户的进入特定场景前便已经准备好相应的服务,这种“衣来伸手饭来张口”的提前介入,纠结属于合法的技术创新,还是构成对竞争对手的恶意干扰甚至流量劫持,往往需要结合介入时机、介入方式和损害后果等因素综合判断。技术中立原则并非万能的挡箭牌。

总得来说,人工智能的最高理想是代替用户决策,而决策隐含着对服务的筛选和分发,这意味着人工智能将成为一种全新的流量入口。可以预见的是,开发者夹带自身利益的冲动难以杜绝,但另一方面,也无需对此过度担忧,长远来看,只要用户依然享有用脚投票的权利,市场竞争始终是保证用户体验的不二法门。

未成年人保护和AI伦理

一说到人工智能的用户,很多人第一联想到的总是成年人,而忽略了身边的很多“小玩家”。人工智能作为一种“增值”技术,早已渗透在我们的手机、iPad、电脑当中,而小朋友们又是这些产品的“头号粉丝”,其接触到人工智能,实属必然。但是就在这时候,人工智能貌似并不能识别出“小用户们”的身份。最近,国外网站出现了一段视频,在视频中小孩向亚马逊Alexa下达指令:“Alexa,请播放‘digger digger(儿童歌曲)’。”之后,亚马逊个人助手通过算法进行识别,竟然认为小孩子想听情色内容并开始播放。当小孩子的父母意识到发生了什么事情的时候,已经为时已晚。无独有偶,一名六岁的女孩在和Echo内置的人工智能助手Alexa聊天时,订下了价值170美元的玩具。虽然小孩的妈妈在知道此事后立刻取消了操作,但订单早已经被处理。和孩子身高几乎相同的玩偶在第二天就被送到了家门口。因此,我们看到,鉴于人工智能技术尚不成熟,而且小孩子这项技术的认知也未深入,他们在接触到人工智能系统时很有可能发生各种问题。人工智能的研发者和制造者应该预料到未成年人有接触到其产品的可能性,并采取相应的保护措施。

同时,其他主体例如政府、学校和家长,对提高未成年人对人工智能的认知都负有责任。例如,在美国白宫发布的报告《为未来人工智能做好准备》中就提到,院校应在安防、隐私和安全方面纳入伦理学和相关主题,将其作为人工智能、机器学、计算机科学和数据科学整体课程的一部分。同时,在其另一份报告《人工智能、自动化与经济报告》中也提出了“为未来的工作教育和培训美国人”战略,明确在数学、计算机科学等与人工智能密切相关的主题中提高学生们的认知。

在过去的六十年中,人工智能技术起起伏伏,这一波人工智能热将在多大程度上影响人类社会还未可知。在考虑如何使用这项技术帮助人类决策的同时,我们也要清楚地认识到,监管部门和司法机关对透明性和举证责任的要求,与机器学习结果的不确定性和算法保密要求之间,存在着一种结构性的紧张关系。如何在建立一个既能鼓励人工技术发展,又能合理分配风险的监管制度,是下一篇专栏要讨论的问题。

(本文仅代表作者本人观点,责编邮箱:man.yan@ftchinese)

读者评论
相关文章
谁抢走了你的工作:机器人还是全球化? 瑞士机器人创新对中国的启发 瑞士如何鼓励机器人创新? 搜狗王小川:中国AI创业中的泡沫是值得的
热门文章
1. 苹果与微信之间的“附加值博弈” 2. 中国气候外交转身悄然撬动世界秩序 3. 香港的未来充满不确定性 4. 余额宝成为全球最大货币市场基金 5. 沈从文新中国生存秘笈(下)
FT中文网
全球财经精粹
下载