人民網
人民網>>雲南頻道>>法治

給AI生成內容加標識的治理啟示(金台銳評)

倪 弋
2025年03月27日08:03 | 來源:人民網-人民日報
小字號

原標題:給AI生成內容加標識的治理啟示(金台銳評)

  近日,國家網信辦、工業和信息化部、公安部、國家廣播電視總局聯合發布《人工智能生成合成內容標識辦法》(以下簡稱《辦法》),將於今年9月1日起施行。《辦法》聚焦人工智能“生成合成內容標識”關鍵點,通過標識提醒用戶辨別虛假信息,明確相關服務主體的標識責任義務,規范內容操作、傳播各環節標識行為。

  總結《辦法》的核心內容,就是要求給人工智能生成合成內容“打水印”,讓人能夠有效區分是否為“人工智能生成合成內容”。通過建立“生產即標注”的強制性規則,將技術透明度轉化為法律義務,既保障公眾知情權,也為評估、追溯等監管建立制度錨點。這種治理模式在技術應用中嵌入法治思維,跳出了“事后滅火”的傳統路徑,體現了“以透明度對沖風險性”的治理智慧。

  放在現實情境中,這種制度設計無疑正當其時。當前,我國人工智能迅猛發展,在賦能千行百業、促進經濟社會高質量發展的同時,技術狂飆突進帶來的“算法黑箱”“數據偏見”“深度偽造”等問題也日益凸顯。某地公安機關破獲的“AI換臉”詐騙案中,犯罪分子偽造企業負責人面容,10分鐘內騙取100多萬元﹔某短視頻平台上,AI生成的“虛擬專家”散布養生謠言,誤導眾多中老年人。這些亂象警示我們,缺乏法治規范的技術創新可能成為脫缰野馬﹔沒有正確價值引領的算法進步,極易陷入工具理性陷阱。

  人工智能治理不僅僅是技術命題,也是深刻的法治課題,需要構建“法律規范+技術標准+價值共識”的多維制度體系。法律規范層面,既要不斷夯實完善網絡安全法、數據安全法等基礎性法律,也要針對深度偽造、算法歧視等新問題有針對性地制定專門規則。在技術標准層面,需建立涵蓋數據採集、模型訓練、內容生成的全流程安全評估體系,將抽象的法律規則轉化為可操作的技術指引。在價值共識層面,則應推動形成以人為本的價值共識,防止技術異化為侵害人的權利、破壞公序良俗的工具。

  人工智能治理還需汲取法治“剛柔並濟”的治理之道。在明確禁止深度偽造生物特征、生成違禁信息等“負面清單”的同時,也要建立“容錯機制”包容和鼓勵有益創新。例如,在處理人工智能生成內容侵權類案件時,既要充分把握現行法律中的“實質性相似”“合理使用”等原則,也要不斷探索新型權利的認定規則。這種治理智慧在於:既以制度剛性守護安全底線,又以機制彈性釋放創新活力﹔既強調技術的可控性,又尊重技術發展規律,在恪守秩序與鼓勵創新的動態平衡中,尋求治理效能的最大公約數。

  網絡空間從來不是法外之地,人工智能技術的應用和發展在法治軌道上運行,才能行穩致遠。更好發揮法治對於人工智能治理的引領、規范和保障作用,將法治精神融入技術應用,讓制度創新緊跟技術迭代,既為技術創新鋪設“快車道”,又為安全發展安裝“緩沖帶”,方能真正實現“以人為本、科技向善”,讓人工智能更好地造福人民。

(責編:木勝玉、朱紅霞)

分享讓更多人看到

返回頂部