您所在的位置:凤凰彩票APP > 军事观察 >

成千上万的领先研究人员签署了对杀手机器人的
【军事观察】 发布时间:09-08

成千上万的专门研究人工智能(AI)的科学家已经宣称他们不会参与开发或制造能够识别和攻击没有人为监督的人的机器人。
美国火箭公司
谷歌DeepMind的Demis Hassabis和美国火箭公司SpaceX的Elon Musk是该签署者的 2,400多名签署者之一,旨在阻止军事公司和国家建立致命的自治武器系统,也称为法律。
 
此举是有关科学家和组织的最新举措,旨在强调将生死决定移交给AI增强型机器的危险。随之而来的呼吁是先发制人地禁止技术,运动人士认为这可能会带来新一代的大规模杀伤性武器。
 
蒙特利尔学习算法研究所的人工智能先驱Yoshua Bengio告诉卫报,如果承诺能够羞辱那些制造自主武器的公司和军事组织,公众舆论就会反对他们。“尽管像美国这样的主要国家没有签署禁止地雷的条约,但由于国际条约和公众羞辱,这种方法实际上对地雷有效。美国公司已经停止建造地雷,“他说。Bengio签署了承诺,表达他对“致命自治武器的强烈关注”。
 
军方是人工智能技术的最大资助者和采用者之一。借助先进的计算机系统,机器人可以在敌对地形上执行任务,在地面上航行,并在海上巡逻。更复杂的武器系统正在筹备中。周一,国防部长加文·威廉姆森(Gavin Williamson)公布了一项价值20亿英镑的计划,用于新的英国皇家空军战斗机 “暴风雨”(Tempest),该计划将能够在没有飞行员的情况下飞行。
 
 对于许多研究人员而言,让机器决定谁的生命和死亡都会跨越道德路线。
英国部长们表示,英国不会发展致命的自主武器系统,而且其部队将始终对其部署的武器进行监督和控制。但是活动人士警告说,人工授精和其他领域的快速发展意味着现在可以制造出能够在未经人类控制者同意的情况下识别,跟踪和射击人类目标的尖端武器。对于许多研究人员而言,让机器决定谁的生命和死亡都会跨越道德路线。
 
“我们需要使自主武器不被接受的国际规范。人类必须始终处于循环中,“悉尼新南威尔士大学的人工智能教授托比沃尔什说。
 
“我们不能阻止一个坚定的人建造自主武器,就像我们无法阻止一个坚定的人制造化学武器一样,”他补充说。“但如果我们不希望无赖国家或恐怖分子轻易获得自主武器,我们必须确保他们不会被武器公司公开出售。”
 
研究人员可以选择不使用自主武器,但其他人对其已发布的突破所做的事情实际上超出了他们的控制范围。兰卡斯特大学另一位签约人兼科学与技术教授Lucy Suchman表示,即使研究人员无法完全控制他们的工作方式,他们也可以在有顾虑时进行参与和干预。
 
“如果我是一名签署了承诺的机器视觉研究员,我会首先承诺跟踪我的技术的后续使用,并反对他们的应用以实现目标识别的自动化,其次,拒绝参与建议或直接帮助将该技术融入自主武器系统,“她说。