2017年05月17日 06:44 AM
让人类管好算法

4月26日,英国下议院(House of Commons)科学技术委员会公布了其“决策中的算法”调查收到的回复。它们在长度、内容和角度上各有不同,但都有一个重要信念:就信赖算法作出的决定而言,人类的干预可能是不可避免的,的确,人类干预将是件好事。

自动化已彻底改变了农业和工业。如今,棕领和蓝领工人是少数。约80%的美国就业岗位在服务业。我们大多数人会在工作中与数据和软件打交道,而不是农作物或重型工具。问题是电脑在对付数据和软件方面得心应手。数字革命正在威胁白领就业。

这不是因为数字让技术变得智慧,而是因为它让任务变得愚蠢,换句话说,成功执行这些任务不需要智慧。一旦这种情况出现,算法就能介入并取代我们。

后果可能是今天的大范围失业,但可能也意味着明日的新就业岗位。例如,欧元区失业率仍高于9%。然而在德国,工程技术人员供不应求。英国也是如此。根据世界银行(World Bank)的数据,到2030年,全球将需要8000万医疗工作者,是2013年的两倍。

在一个算法和其他自动化过程日益明显的社会里,下议院特别委员会聚焦的重要问题是,我们能够在多大程度上信任这些无脑技术?如今做决定的经常是它们,而不是我们。

既然白领就业正在被取代,我们都可能沦为算法错误的受害者,比如不公平的责任认定,或者其他一些“卡夫卡”式的由电脑造成的灾难。

防范这类失败的最佳方法是让人类智慧重新做主。

信任取决于任务的完成、透明度和问责制度。例如,如果你的医生在尽心尽力,如果你看得到他们在做什么,如果他们在出现问题时承担责任,那么你就会信任你的医生。算法也是如此。如果它们完成的是应该完成的任务,如果它们在是否完成任务方面是透明的,如果在出现问题时,我们可以追究某人的责任,至少是道德上的责任(如果不是法律责任的话),我们就会信任它们。

这就是人类要介入的地方。首先,要设计正确的算法,以此降低风险。其次,即便是最好的算法有时也可能出错,或者被导入错误的数据或者以其他方式被不当利用,因此我们需要确保不把所有决策都交给无脑的机器。第三,尽管一些关键决定可能的确过于复杂,人类无力应对,但我们应监督并管理这些决策过程。第四,尽管决定是由算法做出的,但在出现问题时,这不能成为无视只有人类能够提供的洞见和理解的理由。

简言之,我们需要一个由人类监督的设计、控制、透明度和问责体系。这不需要意味着拒绝数字技术提供的帮助。毕竟,尽管电脑下棋的技能可能超过人类,但人机合作才是无敌的。

显然,下议院特别委员会调查收到的回复是好消息。它们表明,未来人类将有大量的智慧工作要做。但填补这些新岗位的不是白领员工。只有专家才能应对这种新的数字环境及其人工代理。算法将是新的羊群。我们未来的工作将是做行业的牧羊人。“绿领工人”时代正在到来。

本文作者是牛津大学(University of Oxford)哲学和信息伦理学教授

译者/梁艳裳

读者评论
2465148239@qq.com 2017-05-17 14:37:10
所以大学应该改变计算机专业的培养计划,加大对算法的训练?
2465148239@qq.com 2017-05-17 14:37:10
所以大学应该改变计算机专业的培养计划,加大对算法的训练?
相关文章
Emotech庄宏斌:如何看待人工智能的“理性与情感” 用人工智能筛选“今日头条” 美国与瑞士:人工智能的两种演进路径 人工智能如何变革法律? 用人类智慧应对人工智能挑战 软件机器人融入办公室环境 人工智能发展面临的法律挑战 机器人能理解喜怒哀乐吗? 谁抢走了你的工作:机器人还是全球化? 瑞士机器人创新对中国的启发 警惕人工智能的失控风险 腾讯副总裁姚星:我们为什么要投入AI研究?
热门文章
1. 台湾为什么在三十年前选择走向自由化? 2. 再论朝鲜的命运 3. 中国在应对信贷泡沫问题上面临严峻考验 4. 中国战斗机东海上空“桶滚拦截”美国军用飞机 5. 范雨素给中国知识分子的一个任务
FT中文网
全球财经精粹
下载