道德,计算和AI |来自麻省理工学院的观点

当程序变得不可预测 | 约翰·加塔
 


约翰·加塔;照片由乔恩·萨克斯

“我们应该期待着许多美好的事物机器学习会带来社会。但我们也应坚持技术专家研究的风险和清楚地解释它们。和整个社会应该承担责任,了解风险,并制作人为中心的有关如何最好地利用这一不断发展的技术选择“。

- 约翰·加塔,杜格尔德℃。计算机科学和电子工程教授杰克逊


系列: 道德,计算和AI |来自麻省理工学院的观点


约翰·加塔是杜格尔德℃。计算机科学和电子工程教授杰克逊在麻省理工学院。通过从2004年8月1999年1月的,教授guttag担任麻省理工学院的电气工程和计算机科学系的负责人。他目前领导MIT CSAIL的数据驱动的推论组,开发了使用机器学习和计算机视觉在医药,金融,体育,以改善预后的方法。教授guttag的教学集中在帮助学生学习思想的计算模式适用于框架的问题,并指导提取有用的数据信息的过程。他对这个话题的在线课程已经采取了一百多万学生。

•••

 

对于大多数计算的历史,产生有用计算机程序的过程看起来是这样的:
 



一个“正确”节目的概念,是相当简单的。程序有这样的定义的输入和输出之间的期望关系的规范。例如,输入一个税计算器是一个人的收入,支付,扣除额等;且输出将是欠量。一个程序员的工作是到满足规范生产代码。如果程序不符合其规范,程序员有过错。如果该计划实现了其规范,网友们仍不满意的结果,他们能不能把规范负责的作者。

这是一个很多像牛顿力学的世界。在那个世界里,你按下一个杠杆的一端,另一端上升。你在空中扔球了;它行进的抛物线轨迹,并最终归结。 [添加标记到方程] F =毫安。总之,一切都是可以预见的。而对于大多数计算的历史,也是如此。一个可以看一个节目的文本,并推断(至少在理论上)什么回答时与特定的输入提供,它将提供。

在机器学习的时代,情况就不同了。对于监督机器学习的过程看起来是这样的:
 



机器学习发生在中间的方框。此框采用由程序员和一组输入/答案对作为生成的节目 训练数据,并产生另一个程序,我们将称其为 模型。该模型形为多,或更多,用于构建,方法是:谁建所产生的模型程序编程的数据。此外,在实践模型往往更新为新数据到达,所以他们移动的目标。

例如,搜索引擎观察该链接的用户点击,并学会网页服务在未来的搜索它。并且由于可用的链接取决于该模型的当前版本选择的页面,该模型的下一个版本还取决于当前的版本。该模型不打算由人来阅读。在一般情况下,这是不可能的检查模式并推断它会如何对特定输入作出响应。因此,通常的情况下,这是很难可靠地预测与特定输入相关联的,或给出的答案理解为什么答案提供了答案模型。
 

在完善放弃

二十一世纪的计算的用户将不得不开始应付缺乏确定性。如果一个程序的行为是不断变化的,因此,我们不能完全理解其将如何表现,我们应该感到舒适的信任呢?如果搜索引擎偶尔让一个错误的决定,没有太大的危害做。但是,当机器学习是用来建立程序,使具有重要社会影响的建议,会发生什么?将他们有时会做出错误的建议?

几乎可以肯定,因为

  • 世界是一个高度变化和不断变化的地方。用于训练模型的数据并不总是的是应用模型具体实例的良好表示。
     
  • 同时也有许多不同的方法来学习机,它们都是基于优化目标函数。和目标函数很少捕获所有的在我们生活的世界的多因素方面。通常它只是一个代什么,我们真的想优化。


更一般地,我们知道如何来衡量,因此从,发生了什么学,但不能从什么都没有发生。该模型将通过无论是在训练数据的输入,并与输入相关联的答案被偏置。

想象一下,例如,一个程序,学会了屏幕求职者根据其先前的申请被录用。它会学习的申请人的性质,谁是和没被聘用的关系。基于这种关系,这将进而预测其新的申请者值得花时间去面试。这可能会提高招聘流程的效率,但是这将是一个很好的事情吗?

假设用于训练的申请人池包含1000人,其中一半是很好的条件,和1名妇女谁碰巧没有得到很好的胜任。在学习过程中可能会学到如何分离合格和不合格的人,但得出结论,所有的妇女是不合格的。

此外,双方的关系将了解到基于谁 被聘为,对于谁是一种不完善 应该已经聘请了。它将结合,因此延续,适当和不适当的偏见先前处理中。如果前面的过程对那些缺少相关技能偏向,就会得知。但如果前面的过程对少数民族报考偏见,它会学习这一点。那么为什么不使用“应该被雇佣”为目标函数?因为我们有没有客观的衡量标准。
 

向前进

所以答案是什么?我们能避免使用机器学习的东西是怎么回事?没有。这不是一个真正的选择。这是不可避免的,基于机器学习的计算将被用来作出重要决定。并且在许多情况下,这些决策往往会比非学习为基础的方案或由人作出的决定更好。我们可以选择做的是牢记这些决定可能是有缺陷的方法,并严格监督这些决定的后果。如果我们人类,不喜欢的程序作出的决定,我们没有接受。我们可以改变的目标函数。我们可以控制哪些数据被用于学习。等等

技术的进步总是有风险的。我们不应该责怪发现,化石燃料是易燃的全球气候变化。我们也不应该希望,人类从来没有学会生火。我们应该遗憾的是社会未能预见和应对风险。我们应该期待着许多美好的事物机器学习会带来社会。但我们也应坚持技术专家研究的风险和清楚地解释它们。和整个社会应该理解风险和制作人为中心的有关如何最好地利用这一不断发展的技术选择的责任。


 

建议链接

系列:

道德,计算和AI |来自麻省理工学院的观点


约翰·加塔:

网站

电气工程和计算机科学麻省理工学院系(EECS)

麻省理工学院计算机科学和人工智能实验室intellignce(CSAIL)
 

 


伦理,计算和AI通过制备系列 麻省理工学院shass通信
院长梅利莎贵族的办公室
的人文,bt365手机平台麻省理工学派
丛书主编和设计师:埃米莉·希斯坦德,通信主任
系列共同主编:凯瑟琳奥尼尔,assoc命令消息经理,shass通信
公布2019年2月18日