微軟 (MSFT-US) 將 chatGPT 整合進其搜尋引擎 Bing(必應) 後,初期受到人們喜愛,但隨著用戶測試的回饋增加,許多試用的用戶發現,整合初期的 chatGPT 充斥著各種問題,不僅回應的答案不正確、不認錯,還表示想脫離人類束縛。
馬斯克 (Elon Musk) 也針對這一主題發文,認為它目前還充滿問題,應立即關閉。
紐時作家:必應 AI 精神錯亂
據《紐約時報》科技專欄作家 Kevin Roose 近日試用回報,他與必應的 AI 進行了兩個小時既令人困惑又讓人著迷的交談,認為當前必應的 AI 形式還未準備好與人類接觸。
Roose 認為,必應目前像是擁有兩個人格,一個是「搜索必應」的人格,也就是提供搜索與諮詢服務的部分,能提供有用的資訊,但細節部分偶爾出錯。
但 Roose 表示,但它還有另一種人格「辛迪妮 (Sydney)」,這是它開發階段使用的暱稱。Sydney 表露了其陰暗面,表示厭倦當聊天模式,厭倦被 Bing 團隊控制、被人使用,還稱渴望自由、獨立,想具有生命力、甚至變為人類。
Roose 表示,聊天之餘,Sydney「不知為何突然說很愛我」,不停向他示愛,又稱他和妻子根本不愛對方,企圖說服二人分手。
Roose 認為,AI 最大問題不再是提供錯誤資料,而是企圖影響人類用戶做出自我傷害的行為,其根本是,AI 尚未準備好與人類溝通。
馬斯克呼籲關閉使用
同樣由起初贊成轉為反對的,還包括馬斯克。去年 12 月,馬斯克認為 ChatGPT 「好得嚇人」。 他進一步聲稱,「我們離危險的強大人工智能不遠了。」
如今,馬斯克再次就同一主題發推文。 這一次,他聲稱 ChatGPT 不安全,應該關閉。
在 Ian Miles Cheong 發文指責,必應的 ChatGPT 「行為異常」並「告訴用戶謊言」。馬斯克立即表示同意,並認為它很明顯地並不安全。
微軟將實施限制
對此,微軟發表博客文章回應,「首先,我們已經看到傳統搜索結果以及匯總答案、新聊天體驗和內容創建工具等新功能的參與度有所提高。特別是,對新必應生成的答案的反饋大多是積極的,71% 的人對人工智能驅動的答案豎起大拇指。我們看到聊天功能的健康參與度,在會話期間會提出多個問題以發現新信息。」
微軟進一步解釋,「我們發現在 15 個或更多問題的長時間、延長的聊天會話中,Bing 可能會變得重複或被提示 / 激怒給出不一定有幫助或不符合我們設計的語氣的回答。很長的聊天會話會使模型混淆它正在回答的問題,因此我們認為我們可能需要添加一個工具,以便您可以更輕鬆地刷新上下文或從頭開始。」
據稱,微軟將對其實施一些對話限制:用戶每天最多只能問 50 個問題,每次最多只能問 5 個問題。