道德,计算和AI |来自麻省理工学院的观点

生物智能和人工智能 | 马修。威尔逊
情绪智力挑战
 

“如何理解先天的道德在人的智力产生可能是将这种能力到人工智能的重要一步。”

- 马修。威尔逊,神经科学的谢尔曼飞兆半导体教授



系列: 道德,计算和AI |来自麻省理工学院的观点


马修。威尔逊是在脑与认知科学系神经科学的谢尔曼飞兆半导体教授,该学院皮考尔学习和记忆的副主任和中心的大脑,心灵和机器的副主任。威尔逊对海马和新皮质中,使记忆形成并持续一段时间的神经过程的研究中心。
 

•••


问:如何可以从神经科学的见解和研究加快伦理保障的发展,为计算和AI工具?

 

什么叫强人工智能(AGI) - - 开发能与人类的智力不相上下操作机器的努力作为的能力被模仿自然吸引相似之处生物智能。问题是,我们应该持有的人工智能(AI)系统,以相同的标准,人类平均?将我们希望认可机构在人类理想的水平执行?还是我们期望他们超出方式都预期和意外的人类?

我们目前的影响AIS将会对社会的意义已经从特定应用领域的发展出现了:他们驾驶我们的汽车;他们诊断我们的医疗条件;他们理解我们的语言。在所有这些情况下,认可机构给出的性能指标,明确具体任务。但由于问题的复杂性结构域的,能够解决透明度和可预测的方式增加一般性问题实现AIS的难度。理解 怎么样 他们解决问题将作为测量一样重要 多好 他们解决问题。

在人类社会中,为解决这些问题的一种方法是应用伦理学 - 创造信任的人之间的环境行为的既定准则。我们相信,个人将执行都限制在清楚地了解如何激励行动。在很多人的智力这种信任的是从我们的其他人的内在的能力共识的。

我们分享我们如何看待这个世界,我们如何体验并记住我们的互动与世界,我们如何评估风险,并计划未来,以及我们如何从我们的行为和他人的行为学奠定了基础。每个发球来定义我们都意味着什么,是人类共同的理解和我们独特的个性。

在人类与生俱来的道德

我们人类的一个关键因素是先天的道德假设 - 我们可以预测在新情况下的道德判断。在麻省理工学院正在做的工作表明最年轻的孩子道德行为的理解,可以作为预测未来行为的基础。通常这种能力是我们如何解决道德困境方面诬陷,但问题仍未确定 选择,而是 怎么样 选择将进行。理解这种与生俱来的道德在人的智力是如何产生的可能是将这种能力成为人工智能的一个重要步骤。

已经开发了一个AGI,一个目标可能是确定如何“人”了。有些人可能会质疑这个目标,认为没有理由的AI应该被限制在如生物智能执行。并且,这是真的,我们可能不需要一个AI驾驶汽车的行为像一个人驾驶;事实上,我们可能会认为,要发展这样的AI的主要动机是,它不会开车像一个人。在这种情况下,我们在人工智能的信任可以从我们的预测在所有相关的情景语境他们的行为能力进行的。

然而,通过定义一个AGI将不能够依靠全面的情景语境知识,但必须有一个仍符合的行为,我们将期待的理想的人的规范概括的行为。那些是什么人的规范?我们如何将它们纳入一个AGI的编程吗?我们如何评估这样一个AGI的能力,以在新的情况下做出适当的反应?

发展人工情商

情绪可以被认为是代表了一种可能被用来驱动新奇的条件下,可预测的行为泛化情景语境。开发这种人工情商 - 进行评价,对人情商 - 都可能被证明在创造值得信赖的AGIS重要的研究活跃的领域。

一个有趣的扩展,这是与人类相似的情商灌输会模糊人与机器之间的界限如何人工坐席的问题。这一直是科幻小说的热门前提,但考虑到它成为科学事实将成为对社会,技术和人权的更广泛的对话的一部分,我们将如何处理这方面的发展。

当然,也有开发AI许多其他重要的考虑因素,如工作位移和财富分配的问题,所有这些都指向技术和社会,人工智能和生物智能之间的关系密不可分。这种关系将形成在这些迅速扩张的领域正在进行的研究和发展的基础。




建议链接

系列:

道德,计算和AI |来自麻省理工学院的观点

马修。威尔逊

网站

威尔逊实验室在麻省理工学院

脑与认知科学系

麻省理工学院皮考尔研究所的学习和记忆

生物学系

 

 


通过伦理,计算和AI系列制备 麻省理工学院shass通信
院长梅利莎贵族的办公室
的人文,bt365手机平台麻省理工学派
丛书主编和设计师:埃米莉·希斯坦德,通信主任
系列共同主编:凯瑟琳奥尼尔,assoc命令消息经理,shass通信
公布2019年2月18日