谷歌也擔憂洩密風險 警告自家員工謹慎使用AI工具
鉅亨網編譯凌郁涵
知情人士表示,谷歌母公司 Alphabet(GOOGL-US) 在全球推廣 AI 聊天機器人的同時,也在警告自家員工注意聊天機器人的使用,包括 ChatGPT 以及自家推出的 Bard。
知情人士稱,谷歌已建議員工不要將機密數據輸入 AI 聊天機器人,同時該公司也要求 IT 工程師避免直接使用聊天機器人生成的代碼。
人們在與聊天機器人對話並得到各式答案時,人類審閱者很可能會閱讀到聊天記錄。此外,研究人員也發現 AI 可能重現或複製出現過的對話數據給其他人,從而造成洩密風險。
不過,谷歌表示,提出建議的原因是 Bard 可能做出不受歡迎的代碼建議,但仍能對工程師帶來幫助。 谷歌還表示,公司目標是對 AI 技術保持足夠透明度。
有「AI 教父」之稱的傑佛瑞.辛頓 (Geoffrey Hinton) 已從谷歌離職,他受訪時坦言「對畢生的工作感到後悔」,並警告 AI 可能變得比人類更聰明。
辛頓警告 AI 有可能演變成殺人機器,因為 AI 經常從他們分析的大量數據中學習意外行為。他指出,AI 驚人的發展速度已經遠超出他與其他人的預期,他擔心有一天,真正的自主武器——那些殺手機器人,將成為現實。
辛頓進一步說,「有一種想法認為,AI 真的會變得比人類更聰明,我也曾覺得太離譜,我認為還差了 30 到 50 年,甚至更久的時間。顯然,我不再這麼認為了。」