alamy

关于武装冲突中的人工智能,你需要了解的那些事

人工智能在军事用途上的发展引发了人道方面的深切担忧。值此英国将于11月主办人工智能安全峰会之际,让我们来探讨一下有关在武装冲突中使用人工智能(特别是机器学习)的一些关键问题和担忧。
报道 2023-10-06 英国

什么是人工智能?

人工智能涉及使用计算机系统执行通常需要人类认知、规划或推理的任务。

一个众所周知的例子是支持ChatGPT的人工智能系统,不过这只是众多实例之一。

算法是人工智能系统的基础。传统算法是一组指令或规则,计算机或机器必须使用这些指令来回答或解决问题。

机器学习是一种人工智能系统,基于对其进行"训练"的数据自行创建指令,然后利用这些指令生成特定任务的解决方案。在某种程度上,这种软件可以进行自我编写。最近人工智能领域的进展主要集中在机器学习方面。

有些机器学习系统在执行特定任务时,会根据从其运行环境输入的信息不断"学习"。

机器学习的性质意味着,人工智能系统面对相同的输入,并不会始终以相同的方式做出反应(与基于规则的简单算法不同)。该系统将是不可预测的。

另一个挑战是机器学习系统通常是一个"黑匣子"。也就是说,即使输入是已知的,也很难事后解释为什么系统会产生特定的输出。

如何在武装冲突中部署人工智能?

武装部队正在大力投资人工智能,而且已经有在战场上部署人工智能,为军事行动提供信息或作为武器系统一部分的实例。

红十字国际委员会强调,在以下三大领域,武装行为方正在开发人工智能用于战争,而且从人道角度会引发重大问题:

  1. 将人工智能纳入武器系统,特别是自主武器系统中;
  2. 将人工智能用于网络和信息行动;
  3. 将人工智能作为军事"决策支持系统"的基础。

在人工智能的军事用途方面,自主武器系统最受关注。例如,有人担心人工智能可能被用来直接触发对人员或车辆的攻击。

红十字国际委员会敦促各国政府通过新的国际规则,禁止某些自主武器,并限制使用其他武器,包括由人工智能控制的武器。

对于人工智能在网络和信息行动以及决策支持系统中的应用所带来的风险,国际社会关注较少——见下文各节。

如果国际社会不能采取以人为本的工作方式来处理如何在武装冲突中使用人工智能的问题,所有这些应用都可能对平民造成伤害。

如何利用人工智能为军事决策提供参考?

决策支持系统是指任何可使用基于人工智能的软件进行分析从而为军事决策提供参考的计算机化工具。

这些系统收集、分析并整合数据源,以便识别人员或物体、评估行为模式、为军事行动提供建议,甚至就未来行动或局势进行预测。

例如,人工智能图像识别系统可以通过分析无人机获取的视频和其他情报来源来帮助识别军事目标,从而为军方推荐目标。

换言之,这些人工智能系统可以为决定攻击目标和攻击时间提供参考。甚至有人提出令人担忧的建议,即基于人工智能的系统可以为使用核武器的军事决策提供参考。

一些人认为,使用决策支持系统可以帮助人类进行决策,从而促进遵守国际人道法,并尽可能减少平民面临的风险。

另一些人则告诫说,过度依赖人工智能生成的结果,会在保护平民和遵守国际人道法方面,包括需要在法律决策中保留人类判断这一问题上,引发担忧,特别是考虑到当今许多机器学习系统的性质并不透明且带有偏见。

如何将人工智能用于网络战和信息战?

人工智能有望改变行为方防御和发动网络攻击的方式。

例如,具有人工智能和机器学习能力的系统可以自动搜索敌方系统中的漏洞加以利用,同时还能检测自身系统中的弱点。当受到攻击时,它们可以同时自动发起反击。

这种发展可能会扩大网络攻击的规模,同时也会改变其性质和严重程度,特别是就平民和民用基础设施所受到的不利影响而言。

长期以来,信息战一直是冲突的一部分。但数字战场和人工智能改变了信息和虚假信息的传播方式以及虚假信息的产生方式。

人工智能系统已被广泛用于制作文字、音频、照片和视频等多种形式的虚假内容,且越来越难以与真实信息区分开来。

并非所有形式的信息战都涉及人工智能和机器学习,但这些技术似乎注定会改变信息操控的性质和规模,以及给现实世界带来的后果。

红十字国际委员会对于在武装冲突中使用人工智能和机器学习有何担忧?

在武装冲突中使用人工智能和机器学习会在人道、法律、伦理和安全层面产生重要影响。

随着快速发展的人工智能被纳入军事系统,至关重要的是各国必须解决受武装冲突影响的民众所面临的具体风险。

尽管需要考虑的影响范围很广,但具体风险包括:

  1. 自主武器所带来的危险有所增加;
  2. 网络行动和信息战会对平民和民用基础设施造成更大伤害;
  3. 对军事领域中人类决策的质量产生负面影响。

重要的是,各国在将人工智能(包括机器学习)用于可能对人类生命造成严重后果的任务或决策时,应保留有效的人为控制和判断。

战争中的法律义务和道德责任绝不能外包给机器和软件。

红十字国际委员会要向国际社会传达什么讯息?

至关重要的是,国际社会在受冲突影响地区开发和使用人工智能时,要真正采取以人为本的工作方式。

这首先要考虑人类的义务和责任,以及如何确保这些技术的使用符合国际法,以及社会和道德价值观。

从我们的角度来看,围绕将人工智能和机器学习用于军事用途所开展的对话,以及所制定的任何额外规则、条例或限制,都需要反映并加强国际法(特别是国际人道法)规定的现有义务。