央視主播李梓萌被AI仿冒帶貨深海魚油,已故“茶界泰斗”張?zhí)旄1籄I“復活”為茶企代言……近期兩起AI濫用事件,再次將一道緊迫的命題擺在公眾面前:在技術狂奔的時代,如何為AI技術應用劃定清晰的邊界與不可逾越的底線?
隨著人工智能技術的快速迭代,AI換臉的逼真度不斷提升,技術門檻也大幅降低。從全紅嬋“帶貨”土雞蛋,到張文宏醫(yī)生“售賣”蛋白棒,再到張伯禮院士“推銷”美白產品……不法商家正以極低的成本,通過AI換臉、語音合成、AI生成等技術打造“數(shù)字替身”,以此誘騙消費者下單。AI技術濫用,直接侵犯了名人的肖像權與聲音權,讓消費者淪為虛假宣傳的受害者,更侵蝕著數(shù)字社會的信任基石。
北京市場監(jiān)管部門對利用AI仿冒李梓萌帶貨的企業(yè)依法作出行政處罰,這是當?shù)夭樘幍氖桌鼳I虛假廣告案,為執(zhí)法破局提供了示范。而AI“復活”張?zhí)旄_M行商業(yè)代言事件則更為復雜,“數(shù)字再生”帶來的法律與倫理挑戰(zhàn)亟待回應。肖像權能否被繼承、授權,并以AI形式進行再創(chuàng)作?若家屬間對授權存在分歧,該以何種標準裁定?AI復現(xiàn)逝者形象被用于商業(yè)廣告,是否涉嫌違法?這些現(xiàn)實困境,呼喚法律規(guī)范上的及時跟進——需在法律層面確立數(shù)字人格繼承或生前預囑制度,讓個體有權在生前通過有效法律文件,明確授權其身后肖像、聲音等數(shù)字人格要素能否被使用以及如何使用。
人們在享用AI技術高效便捷的同時,其所帶來潛在的各種風險也日益凸顯。加強AI風險治理,必須重視隱私保護、倫理、安全等方面的標準制定。9月1日起施行的《人工智能生成合成內容標識辦法》要求,所有AI生成的文字、圖片、視頻等內容都要“亮明身份”。這無疑是規(guī)范AI應用的重要一步,但遠非終點。隨著技術普及,相關的爭議只會越來越多,需要完善細化的規(guī)范也將越來越多。例如,如果醫(yī)用機器人發(fā)生診療錯誤,責任應該由誰承擔?當無人駕駛汽車在危急關頭必須作出抉擇時,我們能否接受其算法替代人類作出道德判斷?可以肯定的是,技術的發(fā)展應堅持向善原則,這不僅關乎法律法規(guī),更關乎一個社會的道德底線和文明尺度。
技術本身是中性的,但技術的使用必然承載著價值判斷和倫理選擇。事實上,AI發(fā)展的真正挑戰(zhàn)不在技術本身,而在于倫理層面的價值權衡。有人形象地比喻,AI倫理治理是“給高速列車裝剎車”。剎車不是為了阻止列車前進,而是為了讓它更安全地駛向遠方。倫理不是AI的“事后補丁”,而應是它的“底層操作系統(tǒng)”。從設計之初就給AI植入一顆“善芯”,秉持“以人為本、安全可控、公平透明、可追溯問責”的原則。從算法設計到產品上線,從內容審核到違規(guī)處置,每一個環(huán)節(jié)都應建立嚴格的審查機制。平臺方也必須承擔起主體責任,主動清理利用AI進行的虛假宣傳和欺詐行為,維護清朗的網(wǎng)絡空間。
歸根結底,AI治理需要建立涵蓋政府、企業(yè)、學術界、行業(yè)組織與公眾在內的多元協(xié)同治理機制,構建一個“負責任”的創(chuàng)新生態(tài)系統(tǒng)。以法律責任框架明確各方責任,邊發(fā)展邊治理,使AI系統(tǒng)能夠動態(tài)調整與校準,達成人機協(xié)作的社會契約,確保這項技術始終向善,始終惠及人們的美好生活。

新華報業(yè)網(wǎng)
Android版
iPhone版