人民網
人民網

為人工智能創新劃清底線(金台隨筆)

陳哲立
2026年05月07日08:20 | 來源:人民網-《人民日報》
訂閱已訂閱已收藏收藏小字號

  面對可能深刻改變生活的新技術,必須靠法治劃界明責、定分止爭,讓創新始終服務公共安全、社會秩序和人的尊嚴

  

  擅長處理海量信息,卻常常無法給出清晰價值判斷﹔能夠生成萬千文本,卻容易觸發侵權責任……生成式人工智能走進日常,不斷抬升效率上限,但在人的尊嚴、公共秩序、生命健康、生態環境、可持續發展等方面,也可能帶來科技倫理風險挑戰。如何為人工智能校准前行的航向?

  監管在完善。3月印發的《人工智能科技倫理審查與服務辦法(試行)》,明確提出開展人工智能科技活動應將科技倫理要求貫穿全過程,遵守我國憲法、法律法規和有關規定。

  平台在發力。為應對人工智能魔改影視、仿冒名人、換臉直播等引發的侵權問題,一家短視頻平台升級防控體系,2026年以來已累計下架人工智能侵權視頻超53.8萬條,處罰違規賬號4000余個。

  擁抱人工智能,是為了讓生活更美好、社會更公平、未來更可期,而非任由技術濫用問題發生。面對可能深刻改變生活的新技術,必須靠法治劃界明責、定分止爭,讓創新始終服務公共安全、社會秩序和人的尊嚴。推動人工智能走向良善,法治是最穩定的力量。

  回顧人類技術發展史,新技術的勃興必然需要法治的引導與托舉。汽車大規模進入社會生活,交通規則、車輛安全標准、事故責任制度逐步建立,守護出行平安﹔無線電改變通信格局,頻譜分配、通信秩序、電信規則相繼確立,避免相互干擾與無序爭奪﹔現代醫藥和生物技術快速發展,藥品審批、臨床試驗、倫理審查等制度不斷健全,防止突破安全底線與倫理邊界。由此來看,決定技術走向的,從來不只是技術本身,更包括治理的完善與法治的規范。

  強化人工智能法治建設的首要價值,在於防范風險。人工智能系統具有不可解釋性和數據依賴性,若無明確的責任歸屬、算法透明度和安全標准,技術失控就可能引發隱私泄露、算法歧視等風險。法治通過設立紅線規則,明確增進人類福祉、尊重生命權利、堅持公平公正、合理控制風險、保持公開透明、保護隱私安全等科技倫理原則,能確保技術發展始終服務於人的尊嚴與福祉。

  法治的價值,也在於構建可信市場環境。創新不僅需要技術突破,更需要社會信任。如何讓人們相信人工智能會有益於人類、有助於生活?不久前,AI(人工智能)演員引發不少爭議。AI演員涉及肖像與聲音授權、內容審核、虛擬藝人管理等新命題。當一種創新建構於侵權之上,便很容易引發信任危機,難獲公眾認可。法治的價值,在於提供責任歸屬、數據合規與倫理審查的基本框架,為社會接納技術創新奠定信任基礎。

  成熟、敏捷的法治體系是劃定安全邊界、降低系統性風險的制度基礎設施,可以為創新劃定安全試錯區。法治抑制的是短視、粗暴、不負責任的“偽創新”,而真正的技術突破,往往是在規則清晰、權責明確的環境中生長出來的。

  法治為盾,守護安全底線﹔人心為舵,校准前行方向。剛柔相濟、德法並舉,方能讓人工智能始終走在造福人類、守護文明的正道之上。這既是技術命題,更是治理命題﹔既關乎當下秩序,也關乎長遠文明。

  《 人民日報 》( 2026年05月07日 05 版)

(責編:郭婷婷、張雋)

分享讓更多人看到

推薦閱讀
2026年05月07日
05 版
返回頂部