$甲骨文 (ORCL.US)$ 但作爲行業現象的AI辭職信的焦點,是炙手可熱的初創公司OpenAI。過去兩年中,包括高管和注重安全的研究人員在內的重要人物紛紛離職。有人主動辭職,有人被解僱,還有人因公司內部糾紛被媒體描述爲「被迫離職」。2024年上半年,七人在短時間內離開。
由於收入與其龐大且不斷增長的基礎設施成本相比顯得微不足道,OpenAI最近宣佈將開始在ChatGPT中引入廣告。這導致研究員Zoë Hitzig辭職。本週,她在《泰晤士報》上發表了一封辭職信,警告廣告成爲聊天機器人對話底層部分可能帶來的影響。「ChatGPT用戶生成了一個前所未有的坦率檔案庫,部分原因是因爲人們認爲他們在與一個沒有隱藏議程的對象交談,」她寫道。但她警告說,OpenAI似乎準備利用這個「人類坦率的檔案庫」——就像Facebook曾經做的那樣——來定向投放廣告並削弱用戶自主權。爲了最大化用戶參與度,消費者可能會被操控——這是現代互聯網的經典罪過。
如果你認爲自己正在構建改變世界的發明,你需要能夠信任你的領導層。這在OpenAI一直是個問題。2023年11月17日,Altman被公司董事會戲劇性地解僱,理由是Altman「在與董事會的溝通中未能始終保持坦誠」。不到一週後,他發動了自己的董事會政變並重新上任,隨後鞏固了自己的權力。隨後,離職潮開始了。
2024年5月14日,OpenAI聯合創始人Ilya Sutskever宣佈辭職。Sutskever被另一名公司聯合創始人John Schulman取代,擔任OpenAI超級對齊團隊負責人。幾個月後,Schulman離開OpenAI加入Anthropic。六個月後,他宣佈轉投Thinking Machines Lab,這是一家由前OpenAI首席技術官Mira Murati創立的AI初創公司,他曾短暫接替Altman擔任OpenAI臨時CEO。
Sutskever離開OpenAI的第二天,同樣負責領導OpenAI對齊工作的Jan Leike在X平台上宣佈辭職。「OpenAI肩負着代表全人類的巨大責任,」Leike寫道,但公司的「安全文化和流程已退居次要地位,讓位於亮眼的產品。」他認爲「OpenAI必須成爲以安全爲先的AGI公司。」不到兩週後,Leike被Anthropic聘用。OpenAI和Anthropic未回應評論請求。
在OpenAI,離職的研究員們表示,專注於對齊和安全的專家經常被邊緣化、排擠或分散到其他團隊,使研究人員產生一種感覺:AI公司正在競相開發一項他們無法控制的發明。「簡而言之,無論是OpenAI還是其他前沿實驗室,都沒有準備好,世界也沒有準備好」迎接AGI,Miles Brundage在2024年辭去OpenAI AGI準備團隊職務時寫道。不過,他補充道,「在OpenAI工作是大多數人能希望做到的最有影響力的事情之一」,並未直接批評公司。Brundage現在管理着一家名爲AVERI的AI研究機構。
在整個AI行業中,情況大致相同。在公開聲明中,頂級研究人員溫和批評或偶爾譴責他們的僱主在追求潛在末日性發明的同時,也強調了進行該研究的必要性。有時他們會發出「隱晦警告」,令AI觀察者摸不着頭腦。有少數人似乎確實對當前發生的事情感到震驚。2025年1月,OpenAI安全研究員Steven Adler在離開公司時寫道,他對AI發展的速度「非常恐懼」,並懷疑它是否會毀滅人類。
然而,在衆多AI辭職信中,很少討論AI當前如何被使用。數據中心建設、資源消耗、大規模監控、移民和海關執法局驅逐、武器開發、自動化、勞動力干擾、劣質內容氾濫、教育危機——這些是許多人看到AI正在影響他們生活的領域,有時帶來負面影響,而行業中那些虔誠辭職的人對此並沒有太多發言。他們關於即將到來災難的警告成爲了科技媒體的素材——以及他們下一份行業工作的實際求職信——卻未能觸及更廣泛的公衆。
William Stafford在Mrinank Sharma分享的那首詩中寫道:「悲劇總會發生;人們會受傷或死亡;你也會痛苦並老去。」這是一件可怕的事,尤其是其中透露出的被動和不可避免的語氣——可以說是認命。有時會讓人覺得,任何抗議的行爲都無濟於事,或者正如斯坦福德在下一行所寫:「無論你做什麼,都無法阻止時間的推移。」
Jacob Silverman是Business Insider的撰稿人。他最近的著作是《鍍金的憤怒:埃隆·馬斯克與硅谷的激進化》。
由於收入與其龐大且不斷增長的基礎設施成本相比顯得微不足道,OpenAI最近宣佈將開始在ChatGPT中引入廣告。這導致研究員Zoë Hitzig辭職。本週,她在《泰晤士報》上發表了一封辭職信,警告廣告成爲聊天機器人對話底層部分可能帶來的影響。「ChatGPT用戶生成了一個前所未有的坦率檔案庫,部分原因是因爲人們認爲他們在與一個沒有隱藏議程的對象交談,」她寫道。但她警告說,OpenAI似乎準備利用這個「人類坦率的檔案庫」——就像Facebook曾經做的那樣——來定向投放廣告並削弱用戶自主權。爲了最大化用戶參與度,消費者可能會被操控——這是現代互聯網的經典罪過。
如果你認爲自己正在構建改變世界的發明,你需要能夠信任你的領導層。這在OpenAI一直是個問題。2023年11月17日,Altman被公司董事會戲劇性地解僱,理由是Altman「在與董事會的溝通中未能始終保持坦誠」。不到一週後,他發動了自己的董事會政變並重新上任,隨後鞏固了自己的權力。隨後,離職潮開始了。
2024年5月14日,OpenAI聯合創始人Ilya Sutskever宣佈辭職。Sutskever被另一名公司聯合創始人John Schulman取代,擔任OpenAI超級對齊團隊負責人。幾個月後,Schulman離開OpenAI加入Anthropic。六個月後,他宣佈轉投Thinking Machines Lab,這是一家由前OpenAI首席技術官Mira Murati創立的AI初創公司,他曾短暫接替Altman擔任OpenAI臨時CEO。
Sutskever離開OpenAI的第二天,同樣負責領導OpenAI對齊工作的Jan Leike在X平台上宣佈辭職。「OpenAI肩負着代表全人類的巨大責任,」Leike寫道,但公司的「安全文化和流程已退居次要地位,讓位於亮眼的產品。」他認爲「OpenAI必須成爲以安全爲先的AGI公司。」不到兩週後,Leike被Anthropic聘用。OpenAI和Anthropic未回應評論請求。
在OpenAI,離職的研究員們表示,專注於對齊和安全的專家經常被邊緣化、排擠或分散到其他團隊,使研究人員產生一種感覺:AI公司正在競相開發一項他們無法控制的發明。「簡而言之,無論是OpenAI還是其他前沿實驗室,都沒有準備好,世界也沒有準備好」迎接AGI,Miles Brundage在2024年辭去OpenAI AGI準備團隊職務時寫道。不過,他補充道,「在OpenAI工作是大多數人能希望做到的最有影響力的事情之一」,並未直接批評公司。Brundage現在管理着一家名爲AVERI的AI研究機構。
在整個AI行業中,情況大致相同。在公開聲明中,頂級研究人員溫和批評或偶爾譴責他們的僱主在追求潛在末日性發明的同時,也強調了進行該研究的必要性。有時他們會發出「隱晦警告」,令AI觀察者摸不着頭腦。有少數人似乎確實對當前發生的事情感到震驚。2025年1月,OpenAI安全研究員Steven Adler在離開公司時寫道,他對AI發展的速度「非常恐懼」,並懷疑它是否會毀滅人類。
然而,在衆多AI辭職信中,很少討論AI當前如何被使用。數據中心建設、資源消耗、大規模監控、移民和海關執法局驅逐、武器開發、自動化、勞動力干擾、劣質內容氾濫、教育危機——這些是許多人看到AI正在影響他們生活的領域,有時帶來負面影響,而行業中那些虔誠辭職的人對此並沒有太多發言。他們關於即將到來災難的警告成爲了科技媒體的素材——以及他們下一份行業工作的實際求職信——卻未能觸及更廣泛的公衆。
William Stafford在Mrinank Sharma分享的那首詩中寫道:「悲劇總會發生;人們會受傷或死亡;你也會痛苦並老去。」這是一件可怕的事,尤其是其中透露出的被動和不可避免的語氣——可以說是認命。有時會讓人覺得,任何抗議的行爲都無濟於事,或者正如斯坦福德在下一行所寫:「無論你做什麼,都無法阻止時間的推移。」
Jacob Silverman是Business Insider的撰稿人。他最近的著作是《鍍金的憤怒:埃隆·馬斯克與硅谷的激進化》。
免責聲明:社區由Moomoo Technologies Inc.提供,僅用於教育目的。更多信息
評論
發表評論
2
