新浪科技訊 9月16日下午消息,日前,OpenAI 發佈 o1-preview,問鼎最強大語言模型,引發業內關注。國內也產生了質疑的聲音:爲何大模型領域國內追趕了一兩年,差距好像沒見縮小,甚至是擴大了。
根據行業專家張俊林的觀點,事實可能並非如此。o1-preview 之所以能夠更強,其方法本質上是思維鏈(Chain-of-Thought, CoT)的自動化。通過 CoT 把一個複雜問題拆解成若干簡單步驟,這有利於大模型解決複雜邏輯問題,但之前這個過程主要靠人工來達成。o1 採用的這種方法,將使得 Prompt 工程逐漸消亡,也就是說所有複雜人工環節的自動化成爲了大勢所趨。
但其實,這種思想和方法並非OpenAI的首創。早在7月底的ISC.AI2024大會上,360集團創始人周鴻禕就宣佈,「用基於智能體的框架打造慢思考系統,從而增強大模型的慢思考能力」。360發佈的CoE(Collaboration-of-Experts,專家協同)技術架構及混合大模型,就是該方法的產物,並且該技術架構已經落地到了多個產品中;值得一提的是,在大模型技術前沿,國內比 OpenAI 在開放協作的道路上走的更遠。比如 CoE 架構並非只接入了一家企業的模型,而是由360牽頭,百度、騰訊、阿里巴巴、智譜AI、Minimax、月之暗面等16家國內主流大模型廠商合作打造,目前已經接入了這些企業的54款大模型產品,未來預計會全量接入100多款大模型產品。