給 OpenAI 造機器人的人,看見了可怕的未來

robot
摘要生成中

作者:極客老友

2026 年 3 月 7 日,當我看到 Caitlin Kalinowski 辭職的消息時,第一反應不是震驚,而是——「終於有人用行動說話了」。

Kalinowski 是 OpenAI 的硬體與機器人工程負責人,2024 年 11 月才剛加入,不到一年半就選擇離開。

她的理由直接而沉重——對 OpenAI 與美國國防部簽署合約後可能引發的國內監控和自主武器應用,感到無法接受。

這不是一次普通的人才流失。這是一個親手參與構建 AI 躯體的人,用辭職告訴世界:她不願意為自己造出的東西,負責它可能會做出的事。

要理解 Kalinowski 的離開,必須先回到大約一週前發生的事。

2 月 28 日,Sam Altman 宣布 OpenAI 與美國國防部達成協議,允許五角大樓在其分類網路中使用 OpenAI 的 AI 模型。消息一出,輿論炸鍋。

有意思的是,這份合約的「參照物」是友商 Anthropic。

就在此前不久,Anthropic 拒絕了五角大樓提出的類似合作,堅持要求在合約中寫入更嚴格的倫理護欄,結果國防部長 Pete Hegseth 在 X 上直接點名怒批,稱 Anthropic 的行為是「傲慢與背叛的大師課」,並呼應特朗普政府下令停止與 Anthropic 的合作。

OpenAI 隨後接手了這筆生意。

用戶的反應相當激烈。2 月 28 日當天,ChatGPT 的卸載量較前一天暴增 295%,#QuitGPT 運動迅速席捲社交媒體,數字抵制的支持者在三天內超過 250 萬。Claude 趁勢超越 ChatGPT 成為美國日均下載量第一,登頂 Apple App Store 免費應用榜首。

迫於壓力,Altman 在 3 月 3 日公開承認自己「不應該倉促推出這份合約」,稱「這只是看起來機會主義和草率」,並宣布修訂合約措辭,明確「AI 系統不應被故意用於對美國人員和公民的國內監控」。

但這個「故意」二字,本身就是一個漏洞。電子前沿基金會的律師一針見血地指出,情報和執法機構經常依賴「偶然」或「商業購買」的數據來規避更強的隱私保護——加一個「故意」,並不等於真正的限制。

Kalinowski 的辭職,正是在這個背景下發生的。

01 她看見的,比我們想像的更具體

在大多數人還在討論「OpenAI 是不是在向政府妥協」的時候,Kalinowski 其實面對的是一個更具體、更殘酷的問題——她的團隊,正在造機器人。

硬體與機器人工程,不是寫程式、調參數的抽象工作。這是在給 AI 裝上手、裝上腳、裝上眼睛。當 OpenAI 與國防部的合作從「模型使用」,延伸向未來可能的「具身 AI 軍事應用」,Kalinowski 的工作性質就變了。

自主武器領域的研究者們早就在警告這一天的到來。

現有的美國國防部政策,並不要求自主武器在使用武力前必須經過人工審批。換句話說,OpenAI 簽下的那份合約,在技術上並沒有阻止其模型,成為「讓 GPT 決定殺死某人」的系統的一部分。

這不是危言耸聽。喬治敦大學政府採購法講師 Jessica Tillipman 分析 OpenAI 修訂後的合約時,明確指出合約措辭「沒有給 OpenAI 一個類似 Anthropic 式的自由來禁止合法的政府使用」,它只是聲明五角大樓不能用 OpenAI 技術違反「現有法律和政策」——但現有法律在自主武器的監管上本身就存在巨大空白。

牛津大學的治理專家也有類似判斷,認為 OpenAI 的協議「不太可能彌補」AI 驅動的國內監控和自主武器系統在治理層面留下的結構性漏洞。

Kalinowski 的離開,是她個人對這個判斷的回應。

02 OpenAI 內部,正在發生什麼

Kalinowski 不是第一個走的人,也大概率不是最後一個。

有數據顯示,OpenAI倫理團隊和 AI安全團隊的離職率已經高達 37%,而大多數人給出的離職原因,都是「與公司價值觀不符」或「無法接受 AI 用於軍事用途」。研究科學家 Aidan McLaughlin 在內部發文寫道,「我個人認為這筆交易不值得」。

值得注意的是,這一波離職潮發生的時間點——恰好是 OpenAI 正在快速擴張商業版圖的階段。就在國防合約風波前後,公司宣布與 AWS 將現有的 380 億美元協議擴展至 1000 億美元,期限八年;同時重新調整了對外披露的支出目標,預計到 2030 年總收益將超過 2800 億美元。

商業加速,安全團隊持續出走。這個剪刀差,是理解 OpenAI 當下處境最重要的坐標軸。

一家公司 的價值觀,最終體現在它留住了什麼人、留不住什麼人。當那些最關注「這項技術會被怎麼用」的人開始陸續離開,剩下的組織結構會滑向哪個方向,並不難推斷。

Anthropic 在這場博弈裡選擇了另一條路——拒絕合約,承受國防部的怒火,但贏得了大量用戶的信任。那段時間 Claude 的下載量逆勢上升,某種程度上證明,「有原則的拒絕」在商業上並不一定是輸家策略。

但 Anthropic 也付出了代價——它被政府踢出局,至少暫時如此。

這是真正的困境所在:沒有一種選擇是完美的。

拒絕,意味著可能失去影響力,甚至被排除在規則制定之外。接受,意味著用自己的技術,為自己無法完全控制的行為背書。

Kalinowski 的答案是第三條路——離開。

這是她能做的最誠實的事。

03 硅谷的靈魂之戰,剛剛開始

如果把視角拉遠一點,這件事的意義遠超過一個人的辭職。

AI 與軍事的結合,是整個行業遲早要面對的選擇題。五角大樓有預算、有需求、有技術整合能力,它不會停止向 AI 公司抛出橄欖枝。而 AI 公司——無論是追求 AGI 的 OpenAI、強調安全的 Anthropic,還是其他玩家——遲早都要在這道題前給出自己的答案。

Altman 的策略,是試圖在接受商業現實的同時,通過合約措辭來劃定底線。但正如多位法律和治理專家所指出的,那些措辭更像是公關層面的保護,而非技術層面的硬約束。

更根本的問題是,當 AI 模型被部署進分類網路,當它開始參與軍事決策,外部世界根本沒有能力驗證,那些「保證」是否真的在執行。

透明度的缺失,本身就是最大的風險。

Kalinowski 在 OpenAI 待了不到一年半,卻在這個節點選擇離開。她沒有公開發表長篇聲明,沒有指名道姓地批評任何人,只是用行動劃出了自己的邊界。

某種意義上,這比任何一篇政策文章都更有力量。

AI 硬體和機器人工程,原本是硅谷最令人興奮的前沿領域之一。Kalinowski 走的時候,她帶走的不只是一份履歷,還有一個問題,留給所有還留在這個行業裡的人——

你為自己造的東西,願意負責到哪一步?

查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 留言
  • 轉發
  • 分享
留言
0/400
暫無留言