本週AI要聞:億萬富豪討論自動化工作

嗨,朋友們,歡迎來到 TechCrunch 的定期AI新聞通訊。如果您想每週三收到此郵件,請在這裡註冊。

也許您已經注意到我們上週跳過了通訊的原因?AI新聞週期本已混亂,而中國人工智能公司DeepSeek的突然崛起更添亂。幾乎各行業和政府都對此做出了回應。

幸運的是,我們已經重新上軌道了​​—考慮到上周末來自OpenAI的新聞發展。

OpenAI首席執行官Sam Altman在東京與日本綜合企業SoftBank的首席執行官孫正義進行了一場舞台上的對話。SoftBank是OpenAI的主要投資者和合作夥伴,承諾幫助資助OpenAI在美國的大型數據中心基礎設施項目。

所以Altman可能覺得自己應該花一些時間去見孫正義。

“通過自動化和自主化所有任務和工作流程,SoftBank Corp.將轉變其業務和服務,創造新價值,”SoftBank在週一的新聞稿中表示。

然而,我想問的是,對於所有這些自動化和自主化,普通工人會怎麼想呢?

就像金融科技公司Klarna的首席執行官Sebastian Siemiatkowski經常吹噓AI取代人類一樣,孫正義似乎認為代理人替工人工作只會帶來巨大財富。被掩蓋的是豐裕的代價。如果工作的普遍自動化成為現實,大規模失業似乎是最有可能的結果。

令人沮喪的是,處於AI競賽前沿的公司,如OpenAI和軟銀這樣的投資者,選擇花費新聞發布會上的時間描繪一幅只有少數工人在薪資單上的自動化公司的圖景。他們當然是企業—而不是慈善機構。AI的開發並不便宜。但也許人們會更信任AI,如果引導其部署的人表現出對自己福祉更多的關注。

值得深思。

新聞

深度研究:OpenAI推出了一個新的AI“代理人”,旨在幫助人們使用公司的AI聊天機器人平台ChatGPT進行深入、復雜的研究。

O3-mini: 另一則OpenAI的消息,該公司推出了一款新的AI“推理”模型o3-mini,繼去年12月的預覽後推出。o3-mini不是OpenAI最強大的模型,但具有改進的效率和反應速度。

歐盟禁止風險AI:截至上週日,在歐盟內,該集團的監管機構可以禁止他們認為構成“不可接受風險”或危害的AI系統的使用。這包括用於社會評分和潛移默化廣告的AI。

關於AI“末日論者”的戲劇:有一部關於AI“末日論者”文化的新戲,基於2023年11月Sam Altman被免職為OpenAI首席執行官的事件。在看完首映後,我的同事多明尼克和麗貝卡分享了他們的想法。

提高作物產量的技術:谷歌的X“月球工廠”本週宣布了最新的畢業生。Heritable Agriculture是一家數據和機器學習驅動的初創公司,旨在改善作物的種植方式。

本週研究論文

推理模型在解決問題方面比普通AI更為出色,尤其是在科學和數學相關的查詢中。但它們並不是萬能的。

來自中國公司騰訊的研究人員進行的一項新研究調查了推理模型中“思維不足”的問題,即模型會對可能有希望的思維鏈提前、莫名其妙地放棄。根據研究結果,“思維不足”模式在更難的問題上更常見,導致模型在不獲答案的情況下在不同推理鏈之間切換。

該團隊提出了一種修復方法,利用“思維切換處罰”來鼓勵模型在考慮其他選擇之前“徹底”發展每條推理鏈,從而提高模型的準確性。

本週模型

圖片來源:YuE

由TikTok所有者字節跳動、中國AI公司Moonshot等支持的研究人員團隊推出了一個能夠根據提示生成相對高質量音樂的新開源模型。

這個名為YuE的模型可以輸出長達幾分鐘的完整歌曲,並包括人聲和伴奏。這個模型受到Apache 2.0許可,意味著可以在商業上無限制地使用。

然而,也存在缺點。運行YuE需要一個強大的GPU;生成一首30秒的歌曲需要一個Nvidia RTX 4090六分鐘的時間。此外,目前尚不清楚該模型是否使用了受版權保護的數據進行訓練;其創作者尚未透露。如果模型確實是使用了受版權保護的歌曲進行訓練,用戶可能面臨未來的知識產權挑戰。

其他資訊包

圖片來源:Anthropic

AI實驗室Anthropic稱已開發出一種更可靠地抵禦AI“越獄”的技術,這種技術可以用於繞過AI系統安全措施的方法。

這種技術稱為憲法分類器,依賴兩組“分類器”AI模型:一個“輸入”分類器和一個“輸出”分類器。輸入分類器將提示附加到一個含有描述越獄和其他不允許內容的模型的模板中,而輸出分類器則計算從模型得到的回應談論有害信息的可能性。

Anthropic表示,憲法分類器可以過濾“壓倒性多數”越獄。但代價是巨大的。每個查詢需要增加25%的計算需求,並且保護模型回答無辜問題的可能性降低了0.38%。