張 偉
2026年02月25日08:49 來源:光明日報
222
訂閱取消訂閱已收藏
收藏
大字號
點擊播報本文,約
當前,人工智能已從重要生產工具演進為深刻影響國家發展全局的戰略技術,其應用范圍正從產業領域加速向經濟運行、公共服務和社會治理等關鍵領域全面滲透,國家安全的內涵、結構和實現方式出現了系統性變化。黨的二十屆四中全會提出,要“健全國家安全體系,加強重點領域國家安全能力建設”。在此背景下,加快人工智能領域國家安全能力建設,通過制度化、體系化的方式將安全要求融入技術研發、應用推廣與治理運行全過程,既是“十五五”時期推進國家安全體系和能力現代化的必然要求,也是推動人工智能安全、有序、可持續發展,更好服務經濟社會高質量發展的內在需要。
加快人工智能領域國家安全能力建設的時代邏輯
人工智能技術的發展與應用,正在將算法、數據和模型等關鍵要素深度嵌入國家運行與治理體系,使之成為支撐經濟社會發展的新型基礎設施。這一進程不僅重塑了信息生成、決策制定與執行反饋的基本方式,更推動了國家安全運行基礎的根本性變革。國家安全不再僅僅依賴於傳統的人力資源配置與制度安排,而是日益取決於對復雜智能技術系統整體行為的持續認知、動態掌控與調適能力。從宏觀經濟調控到公共服務供給,從社會治理創新到公共安全維護,人工智能正在全方位重構國家治理的內在邏輯,促使治理范式從以事件響應為核心逐步向以系統運行為核心轉變。
在此背景下,國家安全的內涵及其實現方式也發生了結構性調整。安全的重心已從主要體現為對單一風險或突發事件的被動防范,轉向基於智能技術的全時監測、動態優化和前瞻引導。人工智能系統的安全性,高度依賴於技術選擇、制度設計與治理能力之間的有機匹配。如果缺乏系統性的能力支撐,技術系統在快速擴展與迭代過程中,容易放大既有治理策略的局部偏差,致使效率優勢轉化為系統性風險,最終危及國家安全運行的穩定性與可持續性。
習近平總書記強調,“要深入貫徹總體國家安全觀,堅持在發展中固安全、在安全中謀發展”。總體國家安全觀強調堅持系統觀念,推動國家安全體系和能力現代化。從這一戰略視角看,加快人工智能領域國家安全能力建設,本質上是順應國家安全邏輯從被動防御向主動治理、從事后處置向事前預防轉型的內在要求。通過將人工智能安全納入國家安全體系進行整體謀劃,把分散的技術要素、治理資源與制度安排整合為有機整體,有助於將技術內在的不確定性轉化為可治理對象,確保人工智能在國家治理總體框架內實現穩健、有序發展。這既是人工智能技術發展階段變化的客觀要求,也是國家安全治理方式主動升級的必然選擇。
夯實人工智能領域國家安全能力建設的技術支撐
人工智能領域國家安全能力體系能否有效運行,首先取決於是否具備穩定、可靠、自主可控的技術基礎。作為一種高度依賴算法模型、算力資源和數據要素的技術形態,人工智能系統的安全性不完全取決於單項技術的性能指標,還取決於對全鏈條關鍵技術環節的持續掌控、透明理解與可信驗証能力。隻有在技術層面形成穩定的掌控能力,國家安全體系才能在復雜多變的國際環境和快速迭代的技術演進中保持足夠的戰略定力與運行韌性。
從能力建設角度看,技術可控並不是對技術發展的簡單限制,而是一種著眼於全局和長遠的結構性能力安排。其核心在於通過完善國家技術體系布局,增強對核心算法、先進算力、高質量數據及基礎軟件等關鍵環節的系統性掌控與主導能力,確保人工智能系統在多樣化的應用場景中始終保持行為可預期、過程可追溯、結果可校驗。這種可控性,既體現在對關鍵資源的戰略性統籌配置上,也體現在通過標准、規范與倫理指南對技術演進方向進行制度性引導上。在技術研發與系統設計的初始階段即深度嵌入安全與可信要求,可實現風險的前置識別與源頭治理,從而顯著提升人工智能技術應用的整體穩健性。
與此同時,隨著人工智能在關鍵基礎設施、公共決策支持和社會信用體系等領域的深入應用,技術系統本身的可信性、公平性與可解釋性逐漸成為國家安全能力的重要組成部分。建立健全覆蓋算法設計、模型訓練、輸出評估與安全測試等常態化機制,人工智能系統在運行過程中具備邏輯可理解、決策可追溯、錯誤可校正的特征,有助於增強治理主體對技術復雜性的駕馭能力。這種以客觀技術規范支撐主觀治理判斷的模式,有利於推動人工智能安全治理從主要依賴外部強制性干預,逐步轉向依靠技術內生的約束機制與規范運行。
需要進一步看到,人工智能安全能力的技術基座並非孤立存在,而是嵌於國家整體科技創新體系和產業生態之中。習近平總書記指出:“要大力加強多學科融合的現代工程和技術科學研究,帶動基礎科學和工程技術發展,形成完整的現代科學技術體系。”隻有通過強化基礎研究、應用研究與產業化開發之間的銜接,推動跨學科、跨領域的技術協同攻關與資源整合,才能在更高層面提升我國人工智能技術體系的整體韌性、自適應能力與持續創新活力,為國家安全體系與能力現代化提供持續、可靠的技術支撐。
健全人工智能領域國家安全能力建設的制度保障
如果說堅實的技術基礎構成了人工智能領域國家安全能力建設的硬支撐,那麼制度和治理機制則決定著這些能力能否穩定運行並持續發揮效能。人工智能安全並非源於某個孤立的技術突破,而是復雜技術系統深度嵌入國家治理結構后引發的綜合治理命題。因此,構建人工智能領域國家安全能力體系,其關鍵不在於安全規則與機構數量的簡單疊加,而在於通過高水平的制度協同、機制創新與流程再造,使分散的安全要求轉化為可持續運行的治理能力,並真正嵌入國家治理體系和運行過程之中。
首先,在人工智能領域,安全能力的有效生成依賴清晰的治理邊界和穩定的責任結構。這要求在總體國家安全觀引領下,進一步明確政府監管、企業主體責任、行業自律與社會監督的邊界,通過在科技規劃、產業政策、行業標准與公共治理實踐中同步嵌入、一體部署安全目標,將安全要求前置融入技術布局、項目決策和應用推廣等關鍵環節。這種制度嵌入並非另起爐灶,而是在既有治理體系中形成穩定接口,使人工智能安全要求能夠在日常決策、執行和監督過程中持續發揮作用,從而逐步轉化為常態化的治理能力。
其次,人工智能技術及其應用的跨領域、跨層級、跨主體特征,決定了其安全治理天然具有高度復雜性和協同需求。若缺乏有效協同,容易導致職責重疊、信息壁壘與行動脫節,削弱整體安全防線。通過健全跨部門、跨地區、跨領域的常態化協同機制與信息共享機制,推動治理主體在政策制定、風險評估、合規監管與應急響應中的協同聯動,有助於減少治理碎片化帶來的制度摩擦,推動人工智能安全能力體系從各部門的分散應對,穩步提升為全國一盤棋的體系化、集約化運行。
最后,面對人工智能技術快速迭代、應用場景動態遷移、風險形態持續演化的鮮明特點,制度體系必須具備敏捷響應與動態調適的智慧與彈性。因此,治理機制的設計應緊密圍繞算法更新、模型優化、系統升級與場景拓展等關鍵生命周期環節,積極探索並建立能夠隨技術發展同步演進、靈活調整的適應性治理框架,例如試點“沙盒監管”、推行標准預研、採用階梯式合規等手段。這種制度上的動態適配,並非降低安全底線,而是通過對技術運行規律的持續學習與治理策略的精准校准,實現更高水平、更有效率的風險防控。
(作者:張 偉,系四川大學公共管理學院教授)

微信“掃一掃”添加“學習大國”