據《Quartz》報導,OpenAI 正以年薪 55.5 萬美元 (約新台幣 1,739 萬元) 外加股權招募一名「整備 (Preparedness) 主管」,這項職缺可能象徵著產業正在成熟,或只是找一個人負責站在最危險前線。不論如何,這份焦慮感十足的工作,報酬相當優渥。
這份職缺描述讀起來,就像是「想像最壞情境」的成人版本。從書面上看,這個角色與其說是倫理學,不如說更偏向工業級「管線工程」。你將負責 OpenAI「整備框架」背後的技術策略,整合能力評估、威脅模型與因應措施,打造職缺中所稱的「可在營運上擴充的安全流程管線」。
OpenAI 對這個角色的定位,是要追蹤那些可能帶來「新型嚴重危害風險」的前線能力——用企業語言來說,就是搞清楚哪裡會出問題、誰可能受害,以及是否仍適合推出產品。工作內容涵蓋 OpenAI 目前視為高風險核心領域的事項:主導評估、威脅模型與防護機制,直接影響產品上線決策,橫跨資安、生物與化學風險,以及 AI 自我改進,並納入「政策監測與執行」。
當 AI 安全批評者抱怨科技公司把風險談得像是一種意見、而非工程限制時,這個職位就是 OpenAI 的反駁:一張清楚標示「誰要負責」的組織圖。
總得有人管理先進模型的「廠房」,測試是否可能造成重大傷害、對照威脅模型,並確保在防護措施足以承受網路現實考驗前,不會貿然推出。
執行長奧特曼 (Sam Altman) 承諾,接下這份工作的人將「幾乎立刻跳進深水區」。他強調這是一份「高壓工作」,並公開點出兩類風險:一是可能影響心理健康的模型,二是已經足夠擅長電腦安全、可能揭露「關鍵漏洞」的模型。這樣的組合,往往不會只停留在系統說明文件裡,而是會延燒成訴訟、安全回溯,以及「為什麼沒有人阻止這件事?」的會議。風險更高、節奏更快,「之後再修補」的空間正在縮小。
OpenAI 的安全團隊近年人事變動頻繁。公司在 2023 年成立「整備」團隊後,於 2024 年 7 月重新調整架構,將原整備主管 Aleksander Madry 轉任其他職務,由高層暫時接手。
公司也承受來自內部批評者的聲譽壓力。聘請一位高調的「整備」負責人,至少代表 OpenAI 試圖展現自己有能力在不把艱難問題丟給一篇部落格文章、或凌晨兩點才寫好的道歉聲明的情況下,推出先進模型。
在矽谷,「整備」意味著野心進入一個新階段——產品開始附上免責聲明,而這些免責聲明也需要有人負責領導。這次徵才是一項承諾:防護欄在重力之下依然站得住腳。而公眾也愈來愈認為,如果這個承諾破裂,就該付出代價。
