人民網
人民網>>雲南頻道>>法治

法學專家熱議:如何讓“會辦事”的AI“辦好事”

2026年03月24日08:32 | 來源:中國青年報
訂閱已訂閱已收藏收藏小字號

原標題:法學專家熱議:如何讓“會辦事”的AI“辦好事”

  人工智能(AI)法治已成為學界研究的一個熱點領域。

  3月19日晚,“探尋人工智能法治研究的真問題(第二季)”研討會在線上舉行。數十位法學領域專家學者齊聚網絡空間,探討AI治理中的前沿法律難題,並在會上聯合發布了《人工智能法治研究十大議題(2026)》。這是“人工智能法治研究十大議題”的第二年發布。

  今年的10個議題包括:智能體的行為邊界、授權機制與競爭治理,人工智能擬人化互動的法律風險及回應,生成式人工智能幻覺致損風險防范與責任承擔,人工智能時代個人信息保護制度的結構性沖突與制度調適,人機協同場景下知識產權等權屬與利益分配規則,前沿人工智能安全保障與極端風險防控的法治進路,人工智能產業政策的法治調控,人工智能企業出海的法律問題,人工智能技術標准、倫理准則與法律規則的體系協調,人工智能法律治理的新型工具。

  “今年的議題更加聚焦,重在‘真’和‘實’。”中國政法大學人工智能法研究院院長張凌寒在研討會上介紹,2025年的十大議題,為人工智能法治研究劃定了“主要坐標”,涵蓋面較廣。今年的議題,堅持問題導向和現實針對性,更強調“小切口、深挖掘”,“我們希望用真問題推動真研究,用真研究產生真成果。”張凌寒說。

  打通智能體的“任督二脈”

  呼應當下熱門的養“龍蝦”(OpenClaw——開源AI智能體),“智能體的行為邊界、授權機制與競爭治理”被放在了10個議題的第一個發布。

  2026年開年以來,OpenClaw在全球科技圈迅速走紅。與傳統聊天機器人不同,該智能體可通過整合調用通信軟件和大語言模型,在用戶本地電腦自主執行文件管理、郵件收發、數據處理等復雜任務。此外,用戶還可以通過安裝技能包代碼來訓練和擴展其能力。

  對外經濟貿易大學數字經濟與法律創新研究中心主任許可表示,OpenClaw等智能體可以幫用戶發消息、做決策、談合作,代表著人工智能正在從“會說話”向“會辦事”轉變,真正進入人類生活,但這樣一種新的人工智能業態也帶來了大量法律挑戰。

  “智能體的出現,瓦解了很多傳統隱私和法學理論所依賴的環境。”浙江大學數字法治研究院研究員李汶龍說,一方面,智能體通過籠統授權,使得傳統意義上公域、私域的二分格局被打破。同時,智能體行動鏈條的復雜度遠超人類預期,傳統的法律工具可能很難有效解釋或應對當下技術的復雜性。另一方面,智能體還打破了原有的競爭生態,需要建立新的公平有序的競爭規則。“智能體授權等問題可能存在‘任督二脈’,隻有打通了這些‘任督二脈’,智能體這個行業作為一個新興行業才能發展起來。”李汶龍說。

  具體來看,用戶對於智能體的授權范圍邊界在哪﹔智能體作為一個“代理”,它的行為邊界在哪﹔智能體能不能以用戶“代理”的身份作為免責借口﹔如果智能體犯了錯,所有責任是否都由用戶承擔……這些問題就是智能體產業發展的“任督二脈”。“對於這些問題,在實踐中需要充分討論,這裡面既有公法問題,又有私法問題,既有技術問題,又有很多法學理論問題。”許可說,在成為現實之前,人工智能的行為邊界、授權機制、市場競爭規則與合作生態建設等問題是必須要關注和解決的。

  AI給用戶答案 法律應能保障各方合法權益

  此次發布的十個議題中,“生成式AI幻覺致損風險防范與責任承擔”是當前法律適用中的一個新難題。此前,杭州互聯網法院審結了全國首例因生成式人工智能模型“幻覺”引發的侵權糾紛案。在該案中,法院認定人工智能不具有民事主體資格,不能作出意思表示﹔該案涉生成式人工智能屬於服務,而非產品,不應適用無過錯責任原則。這也為AI幻覺相關侵權糾紛的司法認定提供了參考。

  “隨著生成式人工智能技術迭代升級,尤其是智能體信息工作流逐步成熟,AI早已跳出單純生成內容的基礎定位,進入到信息篩選、分析、判斷乃至核心決策等環節。用戶對AI輸出內容的依賴度爆發式增長,與之對應的,用戶自主審查核驗生成內容真實性與准確性的能力卻在持續弱化。”西北政法大學人工智能法治研究中心教授楊建軍說。

  這一現實轉變,直接讓人工智能幻覺致損的法律核心矛盾,發生了根本性遷移。楊建軍表示,我們過去關注生成內容本身是否違法、是否屬於不良信息,當下,則更需要關注用戶基於合理信任採信錯誤內容后,引發的人身損害、財產損失乃至各類衍生風險。“這讓‘合理性’的標准界定成為當前法律適用和風險防范的核心痛點。”他說。

  一個核心問題是:當AI的專業性不斷逼近甚至超越用戶認知,法律層面的合理性該如何界定,用戶能不能對AI生成內容形成合法的合理信賴,在哪些前提下信賴才能被認定為合理?這是破解后續責任認定難題的邏輯起點。

  “更關鍵的是,在醫療診斷、法律研判、金融投資等高風險決策場景下,用戶對AI輸出內容的專業可信度要求極高,‘合理性’的標准顯然不能一刀切,必須做出差異化適配。”楊建軍強調。

  在實踐中,AI服務提供者普遍會使用“僅供參考”等免責聲明、風險提示,這類條款能不能直接作為幻覺致損后免除責任的依據,也存在巨大爭議。“如果一概認定告知有效,會變相弱化平台方的內容管控義務﹔如果一概否定,又會過度限制AI產業的創新發展。”楊建軍說,未來需要明確“合理性”的適用邊界,平衡用戶權益保護與產業發展,既不讓用戶盲目承擔全部風險,也不能讓合理的風險提示完全失去效力。

  “生成式人工智能不是單一主體就能完成的,往往涉及模型的研發提供者、系統部署的運營方、插件及工具的提供者等多個主體,各方在技術掌控能力、風險預見可能性、實際介入系統運營的深度上都有明顯差異。因此,必須綜合考慮不同主體的功能、義務、能力等,既要壓實各方的風險防控責任,守住用戶合理合法權益,又要為產業發展預留空間。”許可說。

  AI產業發展需要法治“護航”

  AI法治的研究不光關注人,也關注這個行業。近年來,人工智能發展愈加迅猛,成為驅動新興產業躍升的關鍵引擎。這背后,就有國家相關政策的深度介入和公共資源的系統性投入。比如,公共機構持有的數據資源、基礎設施建設能力以及合規治理工具等,正在成為支撐大模型訓練、應用落地與風險防控的重要制度要素。

  但隨著AI產業的不斷發展,問題也愈發凸顯。“產業政策在推動技術創新和產業集聚的同時,也可能通過資源配置與合規導向,對市場競爭結構、技術路徑選擇以及主體行為產生深遠影響。如何確保政策在法治軌道上運行,需要引起注意。”北京大學法學院副院長戴昕說。

  具體來看,有如下幾個突出問題:一是公共機構持有數據用於大模型訓練的規則及機制不夠完善,如何在堅守公共利益原則的前提下,確保數據利用活動不背離公共數據產出價值,把公共數據有序納入AI的研發過程﹔二是關於人工智能公共基礎設施及社會生態建設,要通過制度和政策不斷地推動並保証持續的資源供給。

  “人工智能產業的健康發展離不開合理有效的產業政策,這些產業政策需要在法治軌道上謀劃、設計、實施。產業發展是需要在法治的框架之下來推動的,從而實現社會福祉的整體提升。”戴昕強調說。

  在這場聚焦“AI法治”的研討會上,擬人化AI、AI企業出海、AI法律治理等諸多議題都得到了充分討論。

  在四川大學法學院教授左衛民看來,此次發布的十大議題是當前AI發展面臨的現實前沿問題,但視角還主要偏向學界和產業界,從公眾、消費者的角度,怎麼解決上述法律問題,還需要進一步思考和探討。同時,在這10個議題之外,還有很多相關的問題需要研究,比如AI技術發展背后的國家安全、公共安全等。(賈驥業)

(責編:木勝玉、徐前)

分享讓更多人看到

返回頂部