

在AI軍事系統引致財產損毀的民事訴訟中,一個在理論上似乎清晰的問題 : 誰人負責?在香港法律實踐中卻呈現出深刻的制度性矛盾。主權國家以部署者身份參與損害的製造,而私人軍工企業則以設計者身份提供技術基礎。二者於事實上共同促成損害,理應承擔連帶責任;然而,在現行法律框架下,國家與承包商之間的責任配置卻嚴重失衡,形成「國家免責、企業獨負」的困局。本文嘗試從普通法侵權責任的基本原則出發,逐層剖析此困局的成因,並提出若干制度改革建議。
聯合歸責的理論基礎
普通法對共同侵權人(joint tortfeasors)的基本立場,自英國樞密院於 Donoghue v Stevenson AC 562 確立「鄰人原則」以來,一直強調注意義務不以合同關係為前提,任何因行為可合理預見受損者,均為應受保護的「鄰人」。就AI軍事系統而言,設計者與部署者均可預見目標誤判所引致的財產損失,理論上均須就同一損害負責。 在聯合侵權責任的配置上,英國及香港法院均認可受害人可向任何一名共同侵權人追討全部賠償(joint and several liability),再由被告之間依香港《民事責任(分擔)條例》(第377章)申索內部分擔。然而,此機制的前提,在於各方均為法律上須承擔責任之主體。
主權豁免阻斷分擔機制
問題的核心在於:香港終審法院於 FG Hemisphere Associates LLC v Democratic Republic of the Congo (2011) 14 HKCFAR 95 一案中,確立了香港須跟從國家採行「絕對主權豁免」原則,國家財產及國家行為概不受香港法院的民事管轄。加之《基本法》第19條明文規定,香港特別行政區法院對「國防、外交等國家行為」不具管轄權,任何試圖就軍事AI系統的部署決定追究主權國家責任的訴訟,均將在程序上遭受攔截。
此一立場較英國本身更為絕對。英國最高法院於 Smith and Others v Ministry of Defence UKSC 41 裁定,《歐洲人權公約》第2條所保障的生命權並不因「戰鬥豁免」(combat immunity)原則而必然排除國防部在訴訟中承擔注意義務。該判決清楚表明,即便在軍事場景下,英國法院仍願意審視國家行為是否構成可訴的疏忽,而非一刀切地賦予豁免。香港採行「絕對豁免」的制度取向,不僅與英國晚近的司法走向背道而馳,更令受害人喪失了透過訴訟追究部署決策失誤的最後途徑。
在此結構下,私人軍工承包商於實質上成為受害人唯一可訴的被告。即使損害之發生在很大程度上源於國家的部署決定與作戰指令,承包商亦無法依賴《民事責任(分擔)條例》向享有豁免的國家追討分擔,最終須獨力承擔全部賠償責任。
因果關係中斷之抗辯
面對此一困境,承包商的主要反擊策略,在於援引「新介入行為原則」(novus actus interveniens),主張軍方操作員的人為決定或軍事指揮的不當干預,構成打斷因果鏈的獨立行為,令承包商毋須就損害的最終後果負責。英國上議院於 Smith v Littlewoods Organisation Ltd AC 241 中,Lord Goff 明確指出第三者的自願行為一般可構成新介入行為;普通法亦在 Rouse v Squires QB 889 中確認,後一被告的疏忽可在特定條件下切斷與首名被告之間的因果關係。
然而,此類抗辯在AI軍事場景中面臨嚴峻挑戰。若承包商所提供的系統本身存在系統性算法偏差(如以色列「Habsora」系統所揭示的「批量目標生成」缺陷),而操作員的干預不過是在演算法主導下作形式確認,則「軍方操作打斷因果」之說難以成立(見 Abraham, 2024)。樞密院於 Overseas Tankship (UK) Ltd v Morts Dock & Engineering Co Ltd (The Wagon Mound No 1) AC 388 所確立的「合理可預見性」測試亦表明,若承包商在設計階段已可預見數據偏差導致誤判的風險,相關損害後果便不能以「無從預見」為由卸責。
政府承包商抗辯之局限
在美國,Boyle v United Technologies Corp 487 US 500 (1988) 確立了「政府承包商抗辯」(government contractor defense):若設計符合政府規格、政府知悉並接受相關風險,且承包商已就已知危險警告政府,則製造商毋須就設計缺陷承擔責任。此原則旨在防止州法律侵蝕聯邦國防採購政策,其背後邏輯正是以主權豁免為基礎(見 Overly, 1988)。
然而,此抗辯在香港並無直接法律依據。香港不存在類似的成文豁免條款,而援引外國判例亦須通過本地法院的類比認可。更重要的是,學界已廣泛批評 Boyle 原則在AI系統場景下過度保護承包商:Schmitt(2013)及 Lieber Institute(2026)均指出,AI系統因「黑箱」決策機制而有別於傳統軍備,訓練數據與演算法設計上的系統性缺陷,難以簡單歸類為「依從政府規格」所衍生的豁免情境。Rethinking SLIC(2019)亦就此責任漏洞提出了民事訴訟途徑的系統性分析,呼籲在國際法與國內法層面同步填補缺口。
六) 法律困局與前瞻建議
綜合以上分析,AI軍事系統的聯合歸責在香港呈現「理論上共同致害,程序上單一負責」的結構性矛盾。Fuzaylova(2019)在《Cardozo Law Review》所提倡的「有限嚴格責任制」對自主武器系統設計者施加特定條件下的嚴格責任,而非純依過失原則固屬合理,惟現行機制未能有效回應此理論。
建議香港從三個層面著手:
第一,立法引入針對高風險AI系統的「加重注意義務」,要求設計者提供可審計的算法記錄,使法院在因果關係的舉證環節中能真正審視系統偏差的根源,而非僅停留於操作員行為的表面;
第二,在特定條件下確立「推定疏忽」(res ipsa loquitur),反轉承包商的舉證責任——尤其在系統設計上存在可量化的算法偏差率的情形下,應由承包商自行舉證排除其設計缺陷與損害之間的因果聯繫;
第三,參考歐盟《AI法案》的風險分級制度,對軍民兩用AI技術設定透明度底線,以彌補普通法框架在此新興領域的規範缺口,並為將來就AI軍事損害提起民事訴訟提供可操作的實質門檻。
撰文:李立航 香港專業服務聯合會創會主席