生成式AI小心「深假危機」暗黑情境!KPMG建議三大策略降低資安風險

生成式 AI 衍生出深假 (Deepfake) 危機,KPMG 安侯建業建議,企業可透過「人工加工人智慧」、「智慧型主動式」及「MFA 多因子認證」三大策略降低 AI 產生的資安風險。

ChatGPT 成為近期熱門趨勢,ChatGPT 更在短時間內,推出 ChatGPT Plus 版本,讓 AI 進入營利變現時代,台灣使用者已經可以花每月 20 元美金,取得更高的回應速度。

KPMG 安侯企業管理 (股) 公司董事總經理謝昀澤表示,生成式 AI 不只拚演算法、功能炫技,各大廠短期的決戰重點仍是聚焦「正確性」、「可靠性」,至於誰能持續稱霸 AI 進化世界的關鍵,還是在有沒有足夠的 AI「科技治理」能力。

謝昀澤指出,影響未來生成式 AI 風險,需要被嚴格治理的三大「暗黑情境」,包含「更迷離的深假 (Deepfake)」、「更智慧的駭客」,及「更暴露的使用者隱私」等危機。

以「深假技術」為例,目前已經可以做到,使用甲的臉孔,搭配乙的身材與動作,自然的用丙的嘴型說出的變造的內容,但生成式 AI 技術好比雙面刃,如果駭客或是犯罪組織使用相同的技術,將會造成重大的損失。

舉例來說,當駭客用 ChatGPT 針對不同企業,產生數萬封釣魚郵件後,再運用偽造聲紋假冒財務長致電財務人員進行匯款,或用生成式 AI 的強大分析與歸納功能,找出藏於企業內部未曾發現的弱點,藉此進行網路進階攻擊或機密竊取。

此外,生成式 AI 可撰寫程式,讓惡意程式開發門檻將大幅降低,連不會寫程式的人都可能當駭客等危機。

 KPMG 安侯企業管理 (股) 公司執行副總經理林大馗建議,企業資安除標配防火牆與防毒軟體外,還需透過「人工加工人智慧」的打假工具及內容確認工程師等協作有效降低 AI 所帶來的資安風險。

林大馗表示,企業成可以建立「智慧型主動式」的防護能量,例如在公開影片中添加專屬的雜湊值或安全憑證,或利用深假技術尚未能完整學習受複製對象側面的技術缺陷,於視訊會議中請客戶往左或右轉頭 90 度並維持一小段時間,確保來源的真實性並防止駭客暗中蒐集與惡意竄改,避免駭客用以對其他消費者進行欺詐。

另外,擴大運用「MFA 多因子認證」讓消費者透過兩種以上的認證機制,才能取得授權,如再搭配實體安全金鑰等控制技術與避免單一持有設備取得所有認證資訊等方式,應可有效降低「深假技術」與「更智慧的駭客」帶來的威脅

KPMG 表示,為降低駭客攻擊的的風險及提升使用者隱私安全性,企業可以參考零信任 (Zero Trust) 資訊架構,避免以一次驗證後即可長時間與完全取用所有服務的傳統做法,改採依據不同的服務風險等級、搭配多次且不同方式之驗證,降低單一識別方法失效的災損程度。