發(fā)布日期:2026-01-01 18:45點擊次數(shù):131

開欄語:預(yù)應(yīng)力鋼絞線價格
\nAI技術(shù)正以前所未有的速度重塑世界,也在現(xiàn)實中投射出重重亂象。幾天前,“slop”(AI批量產(chǎn)出的劣質(zhì)內(nèi)容)被評為年度熱詞。過去這一年,我們見證了AI“一鍵脫衣”打開潘多拉,捏個“假偶像”直播撈金;賽博算命、智商稅學習機屢屢上新,學術(shù)圈和詐騙團伙也都在狂刷AI本……上游新聞特別出“年度AI亂象調(diào)查”題,盤點六大AI“翻車”現(xiàn)場,帶你看透亂象背后的層邏輯和監(jiān)管難點,探討AI亂象綜合整治之道。
\n技術(shù)無善惡,道德有底線。這場AI安全保衛(wèi)戰(zhàn),沒有局外人和旁觀者。
\n2025年,AI技術(shù)以驚人速度滲透到社會生活的方方面面,從“一鍵脫衣”到“AI論文”,從“偽人帶貨”到“擬聲詐騙”,各種AI亂象層出不窮,映射出技術(shù)快速發(fā)展引發(fā)的層問題。面對這一現(xiàn)狀,近日,上游新聞(報料郵箱baoliaosy@163.com)記者采訪了重慶大學大數(shù)據(jù)與軟件學院博士生導師黃晟教授,他從多個維度系統(tǒng)提出了自己的治理建議。
\n源頭治理:法律、模型、數(shù)據(jù)三管齊下


黃晟教授認為,在源頭治理上,應(yīng)從法律、模型、數(shù)據(jù)三個層面遏制AI技術(shù)造惡。
\n9月1日起,國網(wǎng)信辦等4部門聯(lián)合發(fā)布的《人工智能生成合成內(nèi)容標識辦法》正式施行,要求所有AI生成的文字、圖片、視頻等內(nèi)容須“亮明身份”,防止虛假信息傳播。
\n黃晟表示,在法律層面,關(guān)鍵在于壓實技術(shù)提供者的主體責任。須嚴格執(zhí)行《人工智能生成合成內(nèi)容標識辦法》,要求所有AI生成的圖片、音頻、視頻等合成內(nèi)容,均嵌入不可移除的顯標識和隱式標識(數(shù)字水?。?。這不僅有助于公眾識別內(nèi)容來源,更能為公安機關(guān)偵查取證和司法機關(guān)追究責任提供可靠的技術(shù)依據(jù)。
\n\n廣州一名年輕女子乘坐地鐵時,照片遭“一鍵去衣”。據(jù)澎湃新聞
\n在模型層面,黃晟表示,服務(wù)提供者須確保模型在上線前通過安全與倫理評估,尤其對支持人臉合成、語音克隆、開放域文本生成等風險功能的系統(tǒng),應(yīng)將其活體檢測、聲紋驗證、敏感內(nèi)容過濾及生成水印等防濫用機制作為模型內(nèi)建能力予以實現(xiàn)和驗證。
\n在數(shù)據(jù)層面,訓練數(shù)據(jù)須合法合規(guī),嚴禁使用未經(jīng)許可的版權(quán)作品或未經(jīng)授權(quán)的個人隱私數(shù)據(jù)進行模型訓練。同時,應(yīng)建立嚴格的內(nèi)容審核機制,篩查并剔除包含違法不良信息,如涉黃、暴力恐怖、電信詐騙等內(nèi)容,以及具有歧視或偏見的數(shù)據(jù),防止模型因訓練數(shù)據(jù)污染而生成有害、違法或違背社會公序良俗的內(nèi)容。
\n“數(shù)據(jù)是AI的‘食物’,若輸入的是盜版素材、隱私信息或違法內(nèi)容,模型便難免‘習得’偏差甚至惡意?!秉S晟表示,須從源頭守住數(shù)據(jù)合法合規(guī)的底線,杜偏見與違法內(nèi)容進入訓練集。
\n倫理邊界:從口號到可執(zhí)行標準
\n黃晟教授強調(diào),AI倫理不能只停留在口號或原則層面,須轉(zhuǎn)化為可量化、可執(zhí)行、可驗證的技術(shù)標準與制度安排。
\n“作為一名AI技術(shù)從業(yè)者,預(yù)應(yīng)力鋼絞線我建議,先是制定AI倫理‘負面清單’。”黃晟表示,應(yīng)明確禁止將人工智能技術(shù)用于風險、危害場景,例如利用度偽造技術(shù)實施詐騙或誹謗、生成傳播情暴力內(nèi)容、批量偽造學術(shù)論文或考試答案,以及針對未成年人進行誘導營銷或行為操控等。
\n黃晟強調(diào):“這份清單不應(yīng)只是道德倡導,應(yīng)成為模型設(shè)計、產(chǎn)品上線和平臺審核的硬約束條件。”
\n\n央視曝光博主利用AI仿冒奧運冠軍全紅嬋聲音帶貨土雞蛋的視頻。網(wǎng)絡(luò)圖
\n“其次是廣‘可解釋AI’。”黃晟表示,在司法、教育等關(guān)乎人身權(quán)益的關(guān)鍵領(lǐng)域,系統(tǒng)應(yīng)能清晰說明“為何做出此判斷”,“這些場景中的算法決策直接影響人的健康、自由與發(fā)展,不能是‘黑箱’?!?/p>\n
“比如司法輔助系統(tǒng)展示量刑參考因素,教育薦引擎揭示內(nèi)容篩選邏輯。只有做到過程透明、依據(jù)可查、結(jié)果可復(fù)核,才能真正建立公眾信任。”黃晟說。
\n“后是將AI素養(yǎng)納入國民基礎(chǔ)教育體系。面對AI生成內(nèi)容日益逼真、信息污染無處不在的現(xiàn)實,下一代須具備基本的數(shù)字辨識能力?!秉S晟建議,在中小學課程中融入AI素養(yǎng)教育,通過案例教學、互動實驗等方式,教會學生識別度偽造視頻、質(zhì)疑AI生成信息、理解算法偏見,并在此基礎(chǔ)上培養(yǎng)立思考與批判思維。
\n監(jiān)管轉(zhuǎn)型:從“事后追責”到“技術(shù)前置”
\n10月16日人民日報發(fā)表評論《人工智能監(jiān)管應(yīng)因時而變》,文中稱,近年來,《中華人民共和國網(wǎng)絡(luò)安全法》《互聯(lián)網(wǎng)信息服務(wù)度合成管理規(guī)定》《生成式人工智能服務(wù)管理暫行辦法》《人工智能生成合成內(nèi)容標識辦法》等法律法規(guī)的出臺,為人工智能的有監(jiān)管奠定了基礎(chǔ)。然而,技術(shù)發(fā)展日新月異,規(guī)則具有滯后,二者不可避免存在時間差。
\n“進一步健全法律體系,其關(guān)鍵在于讓規(guī)則具備技術(shù)可執(zhí)行?!秉S晟認為,當前監(jiān)管偏重“事后追責”,“但AI濫用往往是‘秒生成、分鐘傳播’,等發(fā)現(xiàn)時危害已擴散,監(jiān)管部門更應(yīng)動技術(shù)前置治理?!?/p>\n
黃晟建議,監(jiān)管部門可以關(guān)注三方面:一是強制風險AI服務(wù)開放安全接口,比如要求換臉、擬聲類模型須提供“內(nèi)容真實驗證API(應(yīng)用程序接口)”,供平臺或警方快速核驗是否為合成內(nèi)容。
\n\n民警將正欲出門向詐騙人員交付現(xiàn)金的老人攔下。四川公安公眾號視頻截圖
\n二是建立AI模型備案與檢測標準。參考APP備案,對具備度合成能力的模型,要求提交安全測試報告,如活體檢測通過率、敏感詞攔截率等指標,并允許三方用標準數(shù)據(jù)集進行“壓力測試”。
\n三是支持建設(shè)國AI內(nèi)容檢測基礎(chǔ)設(shè)施,監(jiān)管部門可牽頭開發(fā)開源的識別工具包,并強制社交平臺接入,實現(xiàn)“上傳即檢測”。
\n四是健全行業(yè)制度,在于構(gòu)建跨平臺協(xié)同防御機制,通過標準化與互操作,使社交平臺、支付系統(tǒng)、應(yīng)用商店等能夠快速聯(lián)動響應(yīng),將作惡者擋在整個生態(tài)之外。
天津市瑞通預(yù)應(yīng)力鋼絞線有限公司\n“技術(shù)防御須跑在詐騙和謠言前面。”黃晟表示:“說到底,好的監(jiān)管不是限制創(chuàng)新,而是設(shè)定技術(shù)底線,讓作惡的成本遠于守規(guī)的成本。”
\n上游新聞記者 湯皓預(yù)應(yīng)力鋼絞線價格
三明預(yù)應(yīng)力鋼絞線價格 彩訊股份擬參設(shè)基金 投資人形機器人公司
15.24鋼絞線每米重量 大神之作《海上升明月》,忍不住每天
預(yù)應(yīng)力鋼絞線廠 暢銷之作《叩天門》,熱血澎湃的篇章,越追越發(fā)
預(yù)應(yīng)力鋼絞線價格 工智道聚力工賦上海大會
錨索廠 雅克科技漲4.08%,成交額1.89億元,主力資金凈
錨索價格 中辦、國辦調(diào)整應(yīng)急管理部職責、機構(gòu)、編制
預(yù)應(yīng)力鋼絞線廠 加快建設(shè)綠智慧的數(shù)字生態(tài)文明
錨索價格 要價6000萬!阿斯:皇馬對19歲中場斯米特感興趣
15.24鋼絞線每米重量 怒批:CBA解說早晚要出事,把直播
錨索廠 [新浪彩票]足彩25190期投注策略:尤文坐和望贏