人工智能軍事應用諸多法律問題待解
來源:法制日報 2019/10/24 10:17:45 作者:廉穎婷
字號:AA+

導讀: 誰掌握了人工智能,誰就掌握了未來世界的主導權。

近年來,人工智能科技廣泛應用于國防和軍隊建設。人工智能軍事應用不僅催生新的作戰手段和作戰方法,而且,加速推動戰爭形態向智能化演變。因此,人工智能軍事應用不僅是簡單的科技或軍事問題,更是長遠的戰略博弈和政治全局問題,已經成為世界主要國家競爭的新領域。

在這一背景下,軍事科學院軍事法制研究院于近日圍繞“人工智能軍事應用法律問題”這一主題,召開學術研討會。

人工智能尚處弱智能發展階段

誰掌握了人工智能,誰就掌握了未來世界的主導權。

人工智能軍事應用不僅會改變一國的綜合國力,而且會影響國際軍事格局。目前,已有近30個國家先后出臺人工智能發展戰略報告,清晰規劃未來5年至10年人工智能發展藍圖,力圖使人工智能成為國家實力和國防實力倍增的武器。

同時,人工智能軍事應用的快速發展,也使其成為國際社會軍備控制的新焦點。聯合國、國際組織等把人工智能軍事應用,特別是智能化武器系統可能給人類帶來的風險和挑戰,作為國際軍控進程的重要議題。

在此大背景下,軍事科學院軍事法制研究院專門召開學術研討會。

會上,軍事科學院軍事法制研究院院長譚亞東作了題為“直面現實挑戰,搶抓發展機遇,聚力開創人工智能軍事應用法制研究新局面”的主旨發言,來自外交部、軍委機關、戰區機關,以及北京大學、國防大學和國防科技大學等軍地科研院校的60多名專家學者展開交流。

針對人工智能發展現狀、人工智能技術在軍事領域的應用情況,與會者認為,人工智能分為弱、強和超級智能三個階段,目前,仍處于人工智能發展的弱智能階段,或是專項人工智能階段,距離完全自主的、與人類相近甚至超過人類智能的通用智能階段還有很長一段路程。

人工智能軍事應用,或者有專家稱其為軍事智能,是智能科學理論與技術在軍事領域的應用和發展,以及催生的軍事力量編程和作戰理論的持續變革,以使武裝力量更好地應對未來智能化戰爭。人工智能科技飛速發展將對智能化武器的可預測、可靠性和可回溯性等提出技術方面的挑戰。

人工智能法律研究仍處探索期

人工智能軍事應用法律問題研究現狀,始終是專家關注的焦點。

與會代表認為,全球范圍內人工智能法律研究仍處于同位起跑的探索期,已引起主權國家、國際組織和專家學者的高度重視和廣泛熱議。概括起來,人工智能軍事應用法律研究的總體態勢可用“三多三少”來歸納,即西多東少、民多軍少、理多實少。

目前,美英等西方國家研究成果較多,中國和韓國等東方國家研究成果相對較少;自動駕駛、智慧法庭等民用領域人工智能法律問題研究多于軍事領域,地方研究人工智能軍事應用法制問題研究人員多于軍隊體系;脫離人工智能法理問題研究的成果比較多,條文化、法案化、程序化的應用研究成果相對較少。摸清人工智能軍事應用研究現狀,旨在正確把握研究態勢,找準自身研究方位,并采取相應對策措施。

人工智能武器合法性問題亦備受關注。

人工智能武器作為人類社會發展至今最為先進、也最具爭議的武器系統,是否能經得起現有國際規則特別是武力使用規則的檢視,是與會者關注的又一個重要議題。

二戰后,國際社會對使用武力的情形達成了一定共識,形成了嚴格規范。人工智能武器不但能夠幫助研發國和使用國以武力相威脅,而且,一旦作為武力使用,其所造成的人員傷亡或物體損毀的后果也更為嚴重,對國際現有的武力使用原則和規則將構成嚴重挑戰。

自主武器系統必須由人類控制

人工智能武器對國際人道法有何影響?

國家根據訴諸戰爭權有權使用武力,但其方式方法受到國際人道法的制約。國際人道法是以《日內瓦公約》及其附加議定書為基石,輔以一系列相關特定法律文書和習慣國際法的法律體系,旨在從人道角度保護戰爭和武裝沖突的受害者。

與會代表認為,智能武器一方面可以通過增強觀察和運算能力,提高軍事評估的準確性,可不斷完善程序系統、精確的火控系統等組織最優打擊方案,從而能夠比人類更好地遵守國際人道法的基本原則;另一方面也可能會對區分原則、比例原則和進攻時預防措施提出嚴重挑戰,對回應新技術快速發展和快速應用的馬頓斯條款也造成嚴重影響。

軍事智能化武器系統是一個綜合體,除了包括自動武器外,國際社會普遍關注的是自主武器系統。因此,自主武器系統的法律問題也是焦點問題之一。

與會代表認為,目前,國際社會針對自主武器系統熱議較多,但究竟什么是自主武器系統,其主要特征是什么還沒有達成廣泛共識。

2018年4月,中國代表向聯合國框架內特定常規武器公約下的政府專家組提交了立場文件,將致命性、自主性、不可終結、不分皂白的效果、自我演進概括為自主武器系統的五大特征。

在自主武器系統的法律地位這一問題上,目前尚未達成共識。如殺人機器人究竟是屬于戰斗員還是武器系統,眾說紛紜;自主水下潛航器是屬于《海洋法公約》語境下的軍艦、潛艇,或是海商法語境下的船舶屬具、船舶,抑或是國際人道法語境下的自主武器系統,觀點各異。

專家認為,確立責任承擔制度是確保自主武器系統使用武力和武器合法性必不可少的要件。研究自主武器系統法律責任問題,需要拓寬責任鏈條:如果發生違反國際法行為,除了涉及使用自主武器系統的戰斗員、人類操作員及其上級指揮官的個人責任,也會涉及部署該武器官員的個人責任,武器的開發者、設計者、程序員的個人責任。同時,也涉及到取得并部署這一武器的國家需要承擔的國家責任。

在人類控制這一問題上,對于自主武器系統,分歧最大的在于是否脫離人類的控制。多數專家認為,在設計、研發、使用、部署自主武器系統時,一定要保留人類控制,減少道德和倫理風險。

為中國參與制定規則奠定基礎

在與會專家看來,這次人工智能軍事應用法律問題研討會著眼法理研究需要,研判軍事智能化大勢,前瞻長遠布局謀劃,意義重大。

科技與政治是一對孿生兄弟,科技與法律的關系也極為密切。在國際格局面臨百年未有之大變局的情形下,人工智能軍事應用法律問題研討會搭建了軍地戰略專家、法律專家以及技術專家合作的交流平臺,倡導以開展人工智能軍事應用法律問題重大工程為抓手,構建官學互動的柔性造法模式,遵循先國內法再國際法的由內促外規則創制路徑,強化政治、法律和技術的互動互促,為構建安全、可控、適用的人工智能軍事應用法律體系初步奠定了理論基礎。

此次研討會是以人工智能軍事應用法律問題為主題的首次研討會,為中國參與人工智能國際規則制定奠定了基礎。與會者建議,借鑒國際現有規制人工智能武器的進程,以此次研討會為起點,人工智能軍事應用法律問題研究既要借臺唱戲,主動與有關國際組織建立穩定性、機制性聯系,積極發聲亮相表達立場,也要自己搭臺唱戲,定期組織人工智能軍事應用領域的法律學術研討會,貢獻中國智慧和中國方案。

原標題:人工智能軍事應用諸多法律問題待解

責編:陳倩柔 如涉版權請聯系我們 轉載請注明海疆在線)
分享
扑克牌背面认牌技巧 中彩网3d试机号 股票买卖手续费怎么算 股票发行程序 江西11选5赢钱技巧 陕西快乐10分开奖app 十一选五任五民间绝招 福建22选5几点开奖 南京期货配资网 内蒙古11选5开奖真准网 内蒙古十一选五推荐号 广东好彩1最新开奖结果查询 马云推出的赚钱平台 股票行情大盘走势首选金多多策略靠谱 后二组选包胆 排列7623451的逆序数 天津11选5 主页