对军事智能化的哲理思考
2018-06-23 光明日报

原标题:对军事智能化的哲理思考

【讲武堂】

党的十九大报告指出,加快军事智能化发展,提高基于网络信息体系的联合作战能力、全域作战能力,有效塑造态势、管控危机、遏制战争、打赢战争。2017年7月,国务院印发实施《新一代人工智能发展规划》,提出要强化新一代人工智能技术对指挥决策、军事推演、国防装备等的有力支撑,以人工智能提升国防实力,保障和维护国家安全。可以预见,军事智能化作为新一轮军事变革的核心驱动力,将深刻改变未来战争的制胜机理、力量结构和作战方式。军事智能化的快速发展,不仅对军队发展战略、装备体系、组织形态、作战理论等各个方面产生广泛而全面的冲击,更深层次的是对人们的战争观产生重大影响。

1、在未来战争中发挥决定作用的方式 将发生巨大改变

毛泽东认为:“武器是战争的重要的因素,但不是决定的因素,决定的因素是人不是物。”在未来智能化战争中,这样的断言会不会过时呢?当大量高度智能化的自主武器走向战场直接交战时,人在战争中的主体地位是否发生改变?人的作用还是决定性的吗?这些问题需要辩证看待。

在未来战争中,主观能动性不再是人的专利,智能武器也具有“有限主观能动性”。人的能动性与无机物、有机生命体、高等动物的能动性有别,称为主观能动性。其特点是通过思维与实践的结合,自觉地、有目的地、有计划地反作用于客观世界。智能武器的出现和发展,使得武器具备了人赋予的“有限主观能动性”,这是武器发展史上质的飞跃。未来战争中,武器也具有人提前赋予的“灵性”,不再是冷冰冰的机械。

但这不会改变人在未来战争中的决定作用。战争中形成和提出思想、计划、战略、战术等,正是人的主观能动性所擅长的,在相当长一段时间内,智能武器的“有限主观能动性”还不能与人的主观能动性相比,在多数情况下,后者还不能取代前者。正如自动步枪从来就不是自动发射一样,智能化无人化的战争也并非无人参与,而是“平台无人、系统有人,前线无人、后方有人,行动无人、指控有人”。在很多情况下,人仍然是不可替代的,特别是那些打打停停的“政治军事仗”,更是需要人来精心把握打停时机、战争规模和强度。随着未来强人工智能技术的突破,智能武器的“有限主观能动性”肯定会进一步提高,但依附于人、听命于人的状况不会根本改变,更不可能由“人指挥枪”转变成“枪指挥人”。

当然,我们应看到,人在未来战争中发挥决定作用的方式将发生巨大改变。随着战争形态不断向高级阶段演进,战争对人的要求,由以体能为主,到以技能为主,最后发展到以智能为主。未来战争中,人进一步退居幕后操控战争,对人的体能和技能要求降至最低,人的智能成为赢得战争的关键。人的决定作用,除了表现为实施战争外,将更多地表现为设计战争。人在战争中的角色定位,由战争实施者转变为战争设计者。人的作战思想更多地以软件和数据的形式被提前物化到智能武器中去,在战争中由智能武器来贯彻人的作战意图,达成预定作战目的。随着智能武器的大量出现,人与武器的结合方式、手段、效率也将发生极大变化。人与武器的结合方式由直接操作向间接操作转变,其操控方式将由人类直接操作模式、人类协助模式、人类授权模式、混和-倡议模式、完全自主模式、机器自适应模式的顺序逐步升级发展。人除采取手控方式外,还会采取触觉感知、声音识别、脑机接口等多种方式操控武器。特别是“脑控技术”的发展,用脑电波直接控制武器将成为现实。人对武器的控制流程将由传统的“大脑-神经-手-武器”简化为“大脑-武器”。

2、未来战争中,暴力不表现于杀戮,但其暴力性不会改变

未来智能化战争的制胜机理和作战思想,正在由歼灭敌有生力量向瘫痪敌作战体系转变,从军事哲学上讲,这是否改变了战争的暴力性呢?未来战争是不是正在走向“慈化”呢?对这些问题需要具体分析。

可以肯定地回答,未来战争的暴力性不会改变。不管战争形态发生多大变化,但战争仍然是流血的政治,是政治集团之间的暴力对抗这一本质没有改变。暴力对抗是战争的质的规定性,是战争区别于他事物的根本特征,如果失去了这点,就不叫战争了。之所以有人认为未来战争的暴力性将被改变,是因为很多人把暴力等同于杀戮,认为未来战争中的杀戮减少了,战争的暴力性就自然消失了。克劳塞维茨认为:“战争既然是迫使对方服从我们意志的一种暴力行为,它所追求的就必然始终是而且只能是打垮敌人,也就是使敌人无力抵抗。”传统战争中,人与武器通常是紧密结合在一起的,人在战斗力就在。不消灭敌人,敌方军队就不会丧失战斗力。所以只有人被消灭了,敌方才会失去抵抗意志,才能服从己方意志。从这种意义上讲,暴力确实就是杀戮的代名词。

但在未来战争中,暴力性不一定要通过杀戮来实现,暴力不等于杀戮。原因有两条:一是人与武器的分离。智能武器作为人的“替身”一旦被消灭了,接下来一方如果不放弃抵抗,就会被另一方的智能武器消灭。通过消灭敌方武器,而不用消灭敌人肉体,就可达到使敌方无力抵抗的目的。二是非致命武器的增多。随着武器威力控制技术的发展,以及新机理新概念武器的出现,使敌人丧失抵抗能力和抵抗意志的手段越来越多,可以很方便地选择非致命手段来实现战争目的。

“消灭敌人,保存自己”是战争的直接目的。在未来战争中,消灭敌人与保存自己这一对立统一的矛盾关系将有新的变化。在以前的战争中,消灭敌人和保存自己是互为前提的。要想保存自己,就得消灭敌人,但要消灭敌人必须主动出击,又容易暴露自己,难于保存自己。过于强调保存自己实施消极防御,又会处处被动而无所作为,难以消灭敌人,最终会被敌人消灭。智能武器的出现,最大限度地解决了以往战争中既要消灭敌人,又要保存自己这一令人纠结的矛盾。人在后方遥控指挥机器人作战,可以在完全地保存自己的同时,有效地消灭敌人。而且,消灭敌人的内涵也在发生变化。在传统战争中,由于人与武器在实体空间上紧密地结合在一起,要解除敌人的武装,就难以避免地伤及敌方的肉体。正如拿破仑所说:“我只看到一点,那就是敌人的大量军队,我力图消灭他们,因为我相信,只要把军队一消灭,其他的一切都会随之而土崩瓦解。”无人操控武器的方式,使得解除敌人的武装可以不伤及敌人肉体,消灭敌人可以更多地强调消灭敌人的武器而不是敌人的肉体。

3、形机器人的出现,可能催生一整套新的战争交战法则

未来,以强人工智能为内核驱动的高智能化武器出现后,会引发人们对“人的本质”这一经典哲学问题的重新思考。马克思曾说过,人的本质是一切社会关系的总和。人是由类人猿进化而成的,能制造和使用工具进行劳动,并能运用语言进行交际的动物。不难看出,人是社会性和自然性的统一。截至目前,人就是人,机器人就是机器人,二者界线非常清楚。但从21世纪开始,这一切发生了改变。一位以色列学者在其著作《从动物到神:人类简史》中谈到,现代科技的惊人成就将“首度改变长达40亿年的进化过程。直到今天,生物进化都取决于自然选择的缓慢过程。但从21世纪开始,进化将受到人类的影响,因为人类已经开始创造并操控生命”。

在未来战争中,一方面,人类将运用基因改良、外骨骼系统、脑机接口、药物增强等技术手段,打造出能力远超普通人类的“超级士兵”;另一方面,人造机器人又在不断地模仿人,在智能上与人类的差距不断缩小,未来的人形仿生机械人,与人不但形似而且神似。在这两方面因素的综合作用下,使得生命体与非生命体、人与机器人的界线日益模糊。

从人的自然性上难以判断区分人与机器人。人形机器人与普通人从外表上看,可能没有任何区别。从人体内部结构看,未来运用纳米技术制造的人工心脏、人工肺、人工肝脏、人工关节等各种人造器官,能够代替人的大多数器官。人形机器人为了更好地模仿人,也可能大量采用人造肌肉,甚至人造器官来制造躯体。人作为动物可以自我繁殖的特性,目前仍可以作为区分人与机器人的明确标准,但随着3D打印的兴起,未来智能机器人完全可以采用这一技术进行“自我繁殖”,制造出自己的复制品或“进化”出更高级的“后代”,从而具备以往自然生物才具有的进化能力。人与机器人在机能结构上的日益模糊和接近,使得人的自然性已经无法构成判断区分人与机器人的可靠标准。

按人的社会性来判断区分人与机器人也极为困难。人可以进行语言交流,人具有思想、意志和情感,人以社会组织形式劳动生产和分工合作,人具有团队精神和合作意识等。从哲学上讲,正是人类的这些社会性特点,构成了人与动物、机器人的本质区别。然而,随着智能化的发展,智能机器人也可能逐步具备这些特点。当人类在完成手、足、眼、耳等自身器官功能的拓展放大,试图对人类大脑功能进行拓展放大,以完成人类模仿自身的“最后一块拼图”时,人类遇到了自己制造的迄今为止最高级的工具——电脑的挑战,这也可以说是人类面临的最大挑战。20世纪50年代,英国科学家图灵就预言:“机器也能思维。”围棋是人工智能的试金石,当阿尔法狗战胜人类棋手之后,围棋大师也不得不叹服承认:电脑更接近“围棋之神”。这些人工智能发展的标志性事件表明,电脑在智力上正飞速地追赶着人类,而人类智力水平的自然进化速度远远赶不上电脑的进化速度。从某种意义上讲,人类科技革命,最终革掉的可能是人类自己的命。

截至目前,人和机器人还有一条重要的区别,就是人不能永生。在医学不发达的时代,人的死亡是身体死亡和脑死亡的统一。随着现代医学的进步,如今人也有可能出现脑死亡,但身体未死亡,即处于“植物人”状态。随着认知神经科学的发展,人的实时思维状态和记忆信息,可以像数据文件一样被读取和下载,并可随时传送到另一个人脑或超级电脑中,从而出现人的躯壳已消散,但思维意识还存在,人作为自然人虽已死亡,但作为社会人将得到“永生”的现象。人类还可以采用3D打印技术随时打印出自己的物理躯体,或运用克隆技术复制一个与原来的自己一模一样的人,再把自己的“思想文件”下载到新的躯体里,从而实现从肉体到精神的“重生”。可以预见,在不远的将来,如何确定人类个体的存在性,如何界定人的死亡,将成为一个难以回答的哲学难题。

综上所述,在未来战争中,如果不能从哲学高度对人形机器人,是人还是机器人作出根本性的判断区分,那么在目标性质判定、战俘处置、战争罪判决等问题上,就会因为不知道处理对象究竟是不是人类而纠结和无所适从。如果把人形机器人作为有别于自然人和机器人的第三类事物——“人机综合体”,就必须为其相应地制定一整套道德伦理规则和战争交战法则。

(作者:袁艺,系军事科学院战争研究院战争设计研究所博士后)