久久ER99热精品一区二区-久久精品99国产精品日本-久久精品免费一区二区三区-久久综合九色综合欧美狠狠

新聞中心

EEPW首頁 > 智能計算 > 業界動態 > 問題出在薩姆?奧爾特曼身上:OpenAI內部人士不信任CEO

問題出在薩姆?奧爾特曼身上:OpenAI內部人士不信任CEO

作者: 時間:2026-04-07 來源: 收藏

就在 發布政策建議、聲稱要確保超級智能 AI 能真正造福人類的同一天,《紐約客》刊出了一篇重磅調查 —— 質疑 是否真的能兌現 最重要的承諾。

將兩份內容放在一起看,會讓人感到強烈的割裂感。

一方面, 宣稱,當 AI 開始 “在人類輔助下仍能超越最聰明的人” 時,公司將推動相關政策,堅持以人為本。為實現這一目標,OpenAI 承諾會清醒、透明地披露風險,包括監控 AI 擺脫人類控制、政府利用 AI 破壞民主等極端場景。該公司警告稱,如果不妥善管控這些風險,“人類將受到傷害”,隨后又描繪了一幅值得信賴的未來圖景:實現超級智能將意味著全人類更高的生活質量。

另一方面,《紐約客》采訪了超 100 位熟悉奧爾特曼行事風格的人士,查閱了內部備忘錄,并對奧爾特曼本人進行了超 12 次訪談。這篇長篇調查給出了完全相反的結論:無論 OpenAI 的愿景多么美好,公眾都很難信任這位 去 “掌控 AI 的未來”。

整體來看,內部人士將奧爾特曼描繪成一個討好型、權力欲極強、永遠把自己放在第一位的人。正如一位董事會成員總結他的兩種特質:

  1. 極強的討好欲,希望在每一次互動中都被喜歡;

  2. 近乎反社會人格般,不在乎欺騙他人可能帶來的后果。

《紐約客》并未找到所謂 “實錘證據”,但記者查閱了 OpenAI 前首席科學家伊利亞?蘇茨克弗與前研究負責人達里奧?阿莫迪的內部信息,記錄了一系列被指欺騙與操縱的行為。這些事件單獨看或許微不足道,但放在一起,兩人都認定:奧爾特曼沒有為先進 AI 營造安全的研發環境。

“OpenAI 的問題,” 阿莫迪寫道,“就是薩姆本人。”

憂心忡忡的公眾對 AI 好感度持續下滑

奧爾特曼要么否認報道中的指控,要么聲稱忘記了某些事件。他還將自己前后矛盾的說法歸咎于 AI 行業的快速變化,并承認自己過去一直回避沖突。

但隨著政府對其模型依賴度上升、相關訴訟指控其技術不安全,外界對 OpenAI 的審查越來越嚴,奧爾特曼這些看似矛盾的言行已經難以被忽視。

《紐約客》指出,最明顯的一點是:奧爾特曼最近不再將 OpenAI 塑造成阻擋 AI 末日的救世主,轉而采用極度樂觀的口吻。

OpenAI 發布的政策建議也呼應了這種基調。該公司首席全球事務官克里斯?萊哈尼向《華爾街日報》證實,OpenAI 正迫切擔憂公眾對 AI 的負面看法。在宣布這些旨在保護人類免受 AI 危害的宏大構想時,OpenAI 還推出了試點計劃:提供最高10 萬美元獎學金、最高100 萬美元API 額度,用于支持相關政策研究。

但《紐約客》的報道讓人不禁質疑:這些建議是否只是為了轉移公眾對兒童安全、就業替代、數據中心高能耗等日益加劇的恐慌?據 Axios 報道,哈佛與 MIT 近期民調顯示,美國人最擔心的是AI 能耗會降低生活質量。《華爾街日報》提到,這些擔憂可能在中期選舉前影響兩黨選情,而可能放緩 AI 發展的數據中心禁令正獲得越來越多支持。

對奧爾特曼和他的公司而言,在這個關鍵節點讓公眾接受其 AI 愿景至關重要。因為一旦共和黨失去國會控制權,可能會出臺更嚴格的 AI 安全法規 —— 而《紐約客》指出,奧爾特曼曾私下游說反對這類法規。

《紐約客》認為,如果不信任奧爾特曼,就很難說服公眾相信:OpenAI 不是為了鞏固自身霸權而隨意承諾。

OpenAI 到底在兜售什么?

OpenAI 表示:“我們并沒有全部答案,甚至大部分答案都沒有。” 該公司將其 “智能時代產業政策” 定位為邁向超級智能過程中以人為本的初步構想。

OpenAI 呼吁 “常識性” 監管與公私合作,快速落地成功方案,并提出了 “雄心勃勃” 的政策理念,確保人人都能使用 AI 并從中獲益。其樂觀愿景承認,它希望實現社會從未做到的事:保障互聯網接入、確保 AI 在美國 “公平部署”,并讓所有人都接受使用培訓。

勞動者保護是 OpenAI 計劃的核心。建議包括:

  • 讓員工參與 AI 系統應用討論,提升生產力、改善職場安全;

  • 為 AI 的有害用途設定明確界限;

  • 對自動化勞動力征稅,用于補貼社保、醫療補助、食品券、住房援助等核心項目;

  • 鼓勵企業與工會試點無薪降、產出不變的 32 小時四天工作制,之后將節省的時間轉為永久縮短工時、可儲存帶薪假期,或兩者兼有。

此外,OpenAI 還提議設立公共財富基金,讓每位公民(包括不參與金融市場投資的人)都能分享 AI 驅動的經濟增長收益。

OpenAI 稱:“基金收益可直接分配給公民,讓更多人無論初始財富與資本獲取能力如何,都能直接分享 AI 增長的紅利。”

OpenAI 提出,隨著 AI 承擔更多任務,人類可以轉向照護類工作,并建議出臺政策幫助失業人員接受培訓,進入醫療、養老、托育、社區服務等領域。為讓人們愿意從事這些歷來被低估的女性主導崗位,OpenAI 建議推動社會認可照護工作是 “具有經濟價值的勞動”。

OpenAI 表示,人類勞動者還需要利用 AI 加速科學進步。

但該公司強調,所有這些承諾的公共福利,只有在我們建設一個有韌性的社會、能快速應對風險實施、并讓 AI 保持安全、可管控、符合民主價值觀的前提下才能實現。

OpenAI 愿景的這一部分,要求像自己這樣的公司開發安全系統,以提升公眾對 AI 的信任。該公司似乎在暗示:我們應該相信這些系統有效,且只有在真正危險來臨時才干預企業。

OpenAI 稱:“隨著我們邁向超級智能,少數高性能模型 —— 尤其是可能顯著加劇化學、生物、放射、核或網絡安全風險的模型 —— 可能需要更嚴格的管控。”

該公司認為,當那一天到來時,應建立全球風險溝通網絡。但只有擁有最先進模型的公司才需要接受嚴格審計,以便小型企業仍能競爭。OpenAI 稱這是確保沒有企業濫用壟斷地位打壓對手、削弱民主價值觀的路徑,同時堅稱公眾參與對 AI 成功至關重要。

《紐約客》報道稱,奧爾特曼過去曾成功說服對科技持懷疑態度的公眾:他們的訴求,即便相互矛盾,也是他的訴求。但對已經聲稱受到 OpenAI 模型傷害的公眾來說,要再相信這位 “他這一代最厲害的推銷員” 提出的宏大構想,可能越來越難。

一位 OpenAI 研究員告訴《紐約客》:奧爾特曼的承諾有時像是暫時堵住批評的權宜之計,直到他達成下一個目標。一些樂觀專家認為,超級智能可能只需兩年就能實現 —— 這比埃隆?馬斯克在 OpenAI 待的時間還長,馬斯克后來公開批評奧爾特曼的管理方式并離職創立了自己的 AI 公司。

這位研究員說:“奧爾特曼會搭建一些理論上未來能約束他的機制,但真到了需要被約束的時候,他就會直接拋棄這些機制。”


評論


相關推薦

技術專區

關閉