禁绝杀人机器人 马斯克联名2000多AI专家签名宣言

2018-07-30

人类对于AI的态度有两种,一种是支持,一种是持反对意见的。而反对一派的代表人物就有我们熟知的马斯克。AI为何会被反对呢?主要还是AI与人类的命运,AI可以造福人类,但同时也有可能会成为威胁到人类的存在。
禁绝杀人机器人 马斯克联名2000多AI专家签名宣言
  在这周三,来自数百家公司的2000多名科学家,其中许多是机器人和人工智能领域的著名的研究人员和工程师,联名签署宣言,誓言绝不将他们的技能用于开发自主杀人机器。
  这场宣誓行动由总部位于波士顿的非盈利组织未来生命研究所(Future of Life Institute)发起,来自36个国家的多达160个人工智能相关的公司、覆盖90个国家的2400名个人签署了宣言,他们承诺:在世界上的任何一个国家,自主武器都对公民构成了“明显而现实的危险”,他们“绝不参与自主武器的开发”。
禁绝杀人机器人 马斯克联名2000多AI专家签名宣言
  签署者包括谷歌的顶级人工智能研究团队DeepMind;欧洲人工智能协会;ClearPath Robotics/OTTO Motors;瑞典人工智能协会XPRIZE基金会;以及伦敦大学学院。签署之一承诺的著名人士还包括顶尖的人工智能研究人员Demis Hassabis、Stuart Russell、Yoshua Bengio、Anca Dragan、Toby Walsh以及特斯拉和SpaceX的创始人伊隆•马斯克。
  绝不允许杀人机器人出现
  “人工智能(AI)将在军事系统中扮演越来越重要的角色,公民、政策制定者和领导人都迫切需要区分AI可接受的用途和不可接受用途。”
  7月18日,2000多名AI学者共同签署《致命性自主武器宣言》成为会议国际人工智能联合会议(IJCAI)上的一项重要议题,这也是学界史上最大规模针对“自主武器”的联合签名宣言。
  组织这次行动的创始人之一,MIT教授迈克思•泰格马克(Max Tegmark)说:“我很高兴看到人工智能的领军人物从对话转向行动,实施一项政治家们迄今未能实施的政策。人工智能有巨大的帮助世界的潜力——如果我们不能容忍其滥用,并致力于防止其滥用。自主杀人的AI武器就像生化武器一样令人厌恶和不安,我们应该以对待生化武器的方式来处理自主武器。
  以下是《致命性自主武器宣言》全文:
  人工智能(AI)有望在军事系统中发挥越来越大的作用。 公民、政策制定者和领导者有必要区分人工智能可接受和不可接受的适用范围。
  从这个角度来看,我们签署者达成一致意见:永远不应将人类生命的决定权委托给机器。“道德”是这个立场的一部分,我们不应该让机器为那些应当受处罚的人做出生死决定。另一个强有力的观点是:致命的自主武器,在没有人为干预的情况下选择和参与目标,将危及每个国家和个人的稳定。
  众多人工智能研究人员一致认为,若是通过致命的自主武器消除人类生命的风险或困难,它们可能成为一种暴力和压迫的有力工具(尤其是在监视和数据系统相关联时)。此外,致命的自主武器具有与核武器,化学武器和生物武器截然不同的特点,并且单一团体的单方面行动很容易因国际社会缺乏技术工具和全球治理体系而引发军备竞赛。防止发生这种军备竞赛应成为国家和全球安全的优先考虑事项。
  我们联名签署人,呼吁各国政府和政府领导人共建一个拥有强大的国际规范、法规和反对致命自主武器法律的未来。 这些法律目前是没有的,我们选择保持高标准:我们既不参与也不支持致命自主武器的开发,制造,贸易往来或使用。 我们要求技术公司和组织以及领导者,政策制定者和其他个人加入我们的承诺。
  《致命性自主武器宣言》的签署者将进一步敦促将于8月份就自主武器问题举行会议的联合国在各国之间达成一致承诺,促使各国禁止自主武器。

扫描二维码分享到微信

粤ICP备2024338214号