首页 > 科学探索 > 正文

数百名AI专家力挺马斯克霍金:呼吁禁杀人机器人

11月9日消息,据CNBC报道,了解人工智能(AI)潜力的科学家对杀手机器人(也被称为自主武器)深感恐惧。今年8月份,包括特斯拉电动汽车公司(Tesla)和美国太空探索技术公司SpaceX首席执行官伊隆·马斯克(Elon Musk)在内的100多名科技界领袖签署了一封公开信,呼吁联合国禁止开发和使用人工智能武器。马斯克也数次在推特上强调,他担心AI全球军备竞赛会导致第三次世界大战。


图:2009年3月18日,在日本东京举行的Terminator Exhibition展览上,电影《终结者2》(terminator 2)中出现的机器人T-800全尺寸图像

不久前,著名物理学家斯蒂芬·霍金(Stephen Hawking)也发出警告,强调监管AI的重要性。他在里斯本举行的网络峰会上说:“除非我们学会如何为应对和避免潜在风险做好准备,否则AI可能是人类文明历史上最糟糕的事件。它带来了危险,比如强大的自主武器,或者是少数人压迫绝大多数人的新方法。”

11月2日,来自加拿大和澳大利亚的数百名AI专家加入了马斯克和霍金的行列,向各自的政府提交了公开信,敦促他们支持联合国禁止自主武器的行动。加拿大社区给加拿大总理贾斯汀·特鲁多(Justin Trudeau)的信中写道:“正如你所知道的,AI研究(包括研发能够执行智能任务机器的尝试)在过去十年里取得了惊人的进步。传统AI得益于机器学习的迅速发展,使AI社区的雄心重新燃起,它们希望制造出能够在人类监督或干预下进行复杂操作的机器。”

这封信指出,AI技术的发展有可能在许多领域帮助社会进步,包括交通、教育、卫生、艺术、军事以及医学等。但同样的技术被应用于武器上,可能产生令人恐怖的后果。信中写道:“AI具有革命性的意义。这些转变(无论是实际还是潜在情况下)要求我们的理解,以及越来越多的道德关注。正是出于这些原因,加拿大AI研究团体呼吁你和你的政府让加拿大成为世界上第20个反对AI武器化的国家。致命的自主武器系统,从决定目标的合法性和部署致命武力的角度,都在消除有意义的人类控制,这显然违背了我们的道德底线。”

澳大利亚AI社区在给国家领导人的公开信中,也以类似的语气和措辞表达了同样的担忧。信中称:“正如许多AI和机器人公司(包括澳大利亚公司)最近敦促的那样,自主武器系统可能会成为战争的第三次革命。如果它们发展起来,将会导致武装冲突的规模以比以往任何时候都更大,而且在时间上比人类能理解得更快。致命的后果是,机器(而不是人类)将决定目标的生死。澳大利亚AI社区无法容忍AI被用于这种用途,我们只是想要研究、创造和促进其有益的用途。”

来源:网易科技

网友评论

三日内热门评论文章
热门IT产品
  1. ¥7599
    苹果iPhoneX 64GB
    ·
  2. ¥5799
    三星S9
    ·
  3. ¥4498
    vivo NEX旗舰版
    ·
  4. ¥4999
    OPPO Find X
    ·
  5. ¥1799
    努比亚Z18mini
    ·
  6. ¥1499
    OPPO A5
    ·
  7. ¥1999
    荣耀Play(4GB RAM)
    ·
  8. ¥1598
    vivo Y85
    ·
  9. ¥3499
    坚果R1(6GB RAM)
    ·
  10. ¥3599
    一加6(8GB RAM)
    ·
为您推荐
  • 相关阅读
  • 业界资讯
  • 手机通讯
  • 电脑办公
  • 新奇数码
  • 软件游戏
  • 科学探索