陆天然/文
掼蛋讲究“配牌控局、守规共赢、算险留余”,这一民间棋牌的博弈智慧,恰是破解人工智能军事化困局的核心密钥。近期美以联合对伊朗开展AI赋能军事行动,将智能算法嵌入情报研判、目标锁定、精准打击全链条,如同掼蛋中激进抢出牌、不顾全局的冒进打法,虽短期实现作战高效化,却引爆了AI军事化的伦理与安全风险,也警示全球:智能军事博弈绝非单打独斗的蛮干,需以掼蛋的协同、守规、控险思维,筑牢全维度治理防线。
在美以对伊朗的军事行动中,人工智能成为核心“出牌工具”:美军依托智能平台整合天基侦察、通信监控数据,以色列AI系统通过城市监控锁定打击目标,算法将战争决策周期压缩至秒级,看似打出了一手“快牌”,却完全违背掼蛋“顾全局、留后手”的核心逻辑。行动中AI因算法偏差误判民用设施为军事目标,造成平民伤亡,如同掼蛋中乱出牌导致己方被动、满盘皆输,暴露了AI军事化脱离管控的致命缺陷。这场实战化应用,让人工智能军事化的伦理失范与安全隐患从理论争议变为现实危机。
从伦理层面看,AI军事化突破了战争的底线规则,如同掼蛋中无视游戏准则、肆意违规出牌。致命自主武器系统将目标识别、攻击决策交由算法掌控,剥夺了人类对生死抉择的控制权,彻底违背国际人道主义原则。美以相关行动中,AI自动生成打击清单,模糊了平民与战斗人员的边界,出现伤亡后却陷入责任真空——开发者、军方、运营商均无法为算法错误担责,如同掼蛋无规可依,最终导致博弈秩序崩塌。这种技术主导的杀戮,消解了战争的道德约束,是对人类文明底线的公然挑战。
从安全层面看,AI军事化埋下的风险,恰似掼蛋中不留底牌、盲目出击的隐患。其一,秒级决策压缩了缓冲空间,微小误判极易引发冲突升级,如同掼蛋打完手牌无回旋余地;其二,各国跟风研发军事AI,陷入恶性军备竞赛,如同掼蛋中各自为战、互不配合,最终陷入全局被动;其三,军事AI依赖海量敏感数据运行,数据泄露、网络攻击风险突出,如同掼蛋中手牌泄密,直接丧失博弈主动权;其四,科技企业与军方合作不透明,如同暗箱出牌,缺乏监督必然滋生权力滥用。
应对AI军事化危机,恰恰需要借鉴掼蛋的博弈智慧,构建“守规、协同、控险、透明”的全球治理体系,如同打好掼蛋需遵规则、重配合、算风险。
首先,搭建全球统一监管框架,如同掼蛋先定统一游戏规则。以联合国为核心平台,联合国际组织、科技企业与军事力量,制定AI军事应用标准和禁止清单,明确禁用无人类控制的自主武器,从顶层划定出牌红线。
其次,推进技术透明化审查,如同掼蛋明牌博弈、杜绝暗箱操作。各国联合公开军事AI项目的用途与参数,通过交叉核验消除信息壁垒,避免隐藏核心技术引发战略误判。
第三,强化法律与道德约束,如同掼蛋严守出牌纪律。限定无人机、AI决策系统的作战场景,牢牢把握人类控制权,杜绝算法滥杀风险,明确责任归属,让违规行为付出相应代价。
第四,筑牢数据安全防线,如同掼蛋守好核心底牌。建立军事AI数据分级保护机制,严防敏感信息泄露,杜绝AI被用于操纵舆论、破坏地区稳定。
第五,建立伦理风险评估机制,如同掼蛋提前算牌、预判风险。对新兴军事AI进行动态监测预警,及时管控高风险项目,做到留余控险。
最后,凝聚多元监督合力,如同掼蛋讲究队友配合。推动社会公众参与监督、科技人员坚守自律,公开军企合作细节,形成多方协同的治理格局。
人工智能军事化如同一场关乎人类命运的掼蛋对局,零和博弈、冒进抢牌只会导致满盘皆输。唯有秉持掼蛋“协同共赢、守规控局”的智慧,摒弃技术霸权思维,以全球共治划定AI军事应用的边界,才能让技术服务于和平而非战争,守住人类文明的核心底线。
作者介绍:陆天然,江苏南通人,法学硕士。现任东华大学数字资产研究院院长、中国自贸区数字经济研究院执行院长、促进民营经济高质量发展法治智库专家;深耕掼蛋文化与掼蛋思维体系研究,兼任世界掼蛋(牌)联合会副主席、东方掼蛋思维研究院院长。