中國提出生成式AI模型訓練數據黑名單 遏止有害內容

路透周四 (12 日) 報導,中國針對供應生成式人工智慧 (AI) 服務公司發布了擬議的安全要求,其中包括一份不能用於訓練 AI 模型來源的黑名單。

報導指出,這些要求是由中國全國信息安全標準化技術委員會 (National Information Security Standardization Committee) 於周三 (11 日) 發布的,該委員會成員包括來自中國網信辦 (CAC)、工信部(MIIT) 以及警方的官員。

該委員會提議對用於訓練面向大眾的生成式 AI 模型裡每個內容主體進行安全評估,其中只要包含「超過 5% 的非法和有害訊息」內容將被列入黑名單。這些訊息包括「宣揚恐怖主義」或暴力,以及「推翻社會主義制度」、「損害國家形象」、「破壞民族團結和社會穩定」。

該草案還規定,中國網路上經過審查的資訊不應用於訓練模型。就在一個多月前,中國監管機構允許搜尋引擎巨擘百度 (BIDU-US)(9988-HK) 在內的幾家中國科技公司向大眾推出其 AI 聊天機器人。

自今年 4 月來,中國網信辦一直表示,希望企業在向大眾推出生成式 AI 之前,向有關部門呈交安全評估。隨後在今年 7 月,該機構發布管理此類服務的措施。有分析人士指出,這些措施遠沒有 4 月草案概述的那般繁重。

至於中國當局本周三公布的草案只要求培訓這些 AI 模型的機構會徵求個人同意,這些個人資訊 (包括生物特徵數據) 用於培訓目的。另外當局還就如何避免侵犯智慧財產權制定詳細指導方針。

報導指出,全球各國都努力在替這項技術設置安全護欄。中國將 AI 視為與美國競爭領域的一環,打算在 2030 年成為該領域的全球領導者。

由於 OpenAI 的 ChatGPT 聊天機器人的成功,生成式 AI 開始普及,其可以學習如何從過去的數據中採取行動,並在訓練的基礎上創建文本或圖像等新內容。