全球最实用的IT互联网信息网站!

AI人工智能P2P分享&下载搜索网页发布信息网站地图

当前位置:诺佳网 > 电子/半导体 > 机器人 >

世界人工智能专家共同签署,禁止开发致命型的

时间:2018-07-31 08:33

人气:

作者:admin

标签: 机器人  人工智能 

导读:世界人工智能专家共同签署,禁止开发致命型的杀人武器“杀人机器人”-这次签署者包括 160 家与 AI 相关的公司和组织,以及超过2,400名专家。其中包括Google DeepMind、ClearPath Robotics,欧...

科幻小说里出现的 AI手机器人,引来不少人担心人类将来是否会被机器人给灭绝的隐忧,对此,近日数以千计的人工智能专家,包括 Google 人工智能子公司 DeepMind 的创始人均签署了不发展「致命性自主武器」的承诺。 

签署者主要担心若开发致命型的杀人武器,会对人类产生威胁,因此互相共同承诺既不参与创造,也不支持致命性自主武器技术的开发。 

这次签署者包括 160 家与 AI 相关的公司和组织,以及超过2,400名专家。其中包括Google DeepMind、ClearPath Robotics,欧洲人工智能协会、XPRIZE 基金会、硅谷机器人,伦敦大学学院以及特斯拉特斯拉总裁马斯克(马斯克),以及 Google Research 的 Jeffrey Dean 和英国议会成员 Alex Sobel 等人。

专家小组反对无需人类操控就可以自主识别、瞄准和杀人的武器化AI系统。但是不包括像是军用无人机这样的东西,因为这类武器可以透过人类飞行员来进行远程便是与操作,选择杀死目标。主要认为人命不应该交由机器决定,同时呼吁各国政府和领导人,应建立国际法规予以控管。 

除此之外,此次所签署的条文中,也有特别强调为全球各国安全着想,应该尽量避免举办军备禁赛,避免具有AI的自主武器被用来当做伤害人类的武器。

2015 年,生命未来研究所(The Future of Life Institute,简称FLI)向联合国发出公开信,敦促该组织禁止发展致命的自主武器系统(LAWS)。

这封信由 1000 多名机器人研究人员和著名科学家签署,包括马斯克和霍金等人。两年后,随着谈判不断陷入停滞,FLI 和许多同样的签署者持续展开后续行动。

联合国将于 8 月举行下一次关于 LAWS 的会议。

温馨提示:以上内容整理于网络,仅供参考,如果对您有帮助,留下您的阅读感言吧!
相关阅读
本类排行
相关标签
本类推荐

CPU | 内存 | 硬盘 | 显卡 | 显示器 | 主板 | 电源 | 键鼠 | 网站地图

Copyright © 2025-2035 诺佳网 版权所有 备案号:赣ICP备2025066733号
本站资料均来源互联网收集整理,作品版权归作者所有,如果侵犯了您的版权,请跟我们联系。

关注微信