究竟人类该不该投入大量人工智慧科技至战争里?这个趋势似乎无法避免,就连美军也在投AI 驾驭战斗机的行列,但这也会让越来越多人担心,人工智慧武器会不会有反过来毁灭人类的那一天。
或许是为了要减少普罗大众的担忧,美国国务院上周四公布了《Political Declaration on Responsible Military Use of Artificial Intelligence and Autonomy》,直译就是负责任之军事人工智慧政治宣言,美国认为,AI 用在军事用途上必须符合道德、负责并增进国际安全原则上,在武装冲突中使用 AI 也必须国际人道主义相关法律。
不过其中有一句最让人吸睛,就是「States should maintain human control and involvement for all actions critical to informing and executing sovereign decisions concerning nuclear weapons employment.」简单而言,美国在呼吁各国,核武器该不该使用应该还是要由人类决定。
这份政治宣告毕竟只是宣告,对美国军方没有法律约束力,但也能透露出美国希望其他国家同意其原则,为军事人工智慧制定出一套全球标准。
这会让人想到世界还真曾面临核战危机,那就是知名的 1983 年误报事件,当时苏联防空部队 Stanislav Petrov 上校正在监测核预警系统,苏联的系统以最高可信度得出美国已开始发动核战争的结论,当时苏联电脑判断美国基地发射了五枚「民兵」洲际导弹;还好 Stanislav Petrov 判断这是误报,化解了一场危机,若当时是交给系统自主判断,很可能世界面貌就完全改变。
但另一方面乌克兰战争表明 AI 将会改写非全面性的武装冲突,毕竟便宜、一次性的无人机是非常好用的武器,可以帮助士兵们更自由打击敌军;而且比起攻击性武器,更多人认为军队在运作层面云端化、AI 化是完全不可避免的趋势。