川觀智庫研究員 黃愛林
2025年,隨著國家《關于深入實施“人工智能+”行動的意見》等政策密集出臺,政務智能體——這一融合大模型與任務執行能力的新型AI系統,正從實驗室走向政務服務一線。據中國信息通信研究院最新發布的《政務智能體發展研究報告(2025年)》顯示,我國政務智能體已在多地開展實質性探索,在咨詢導辦、材料預審、政策推送、城市治理等場景初顯成效。
我國政務智能體發展進入快車道。因政務領域的數據豐富、規則清晰、流程標準化程度高等特征,因而仍是智能體落地和應用最快的領域。根據報告,2024年政務領域智能體應用占全行業比重達14%,處于較高水平。
但同時報告認為,當前政務智能體仍處于從實驗探索向大規模工程化落地的過渡期,距離真正“好用、可信、可控”尚有不小差距,面臨三大核心挑戰。
首先是可靠性不足,智能體技術仍不成熟。當前智能體依賴大模型生成內容,易出現“幻覺”,即輸出看似合理卻與事實不符的信息。在政務場景中,一句錯誤的政策解讀或流程指引,可能導致群眾白跑一趟甚至企業決策失誤。此外,政策法規更新頻繁,而模型知識庫更新滯后,也容易造成服務“過時”。
其次是與現實政務環境適配難,可行性存在挑戰。政府工作有嚴格的法律法規和權責規定,且大量核心系統部署在物理隔離的內網中。而智能體若無法跨網調取數據、嵌入審批鏈條,就只能停留在“問一答一”的淺層服務,難以實現“自動辦結”。同時,基層人員數字素養參差不齊,部分干部對AI“不敢用、不會用”,也制約了人機協同效果。
最后是大規模應用下的可控性難題。當智能體被賦予更多自主決策權,如何確保其行為始終符合公共利益。例如,若以“滿意度”為唯一考核指標,智能體可能為追求好評而簡化審核流程,犧牲程序正義。更隱蔽的風險在于算法偏見——若訓練數據隱含歷史歧視,AI可能在社保、救助等領域沖擊公平性。
【未經授權,嚴禁轉載!聯系電話028-86968276】
