OpenAI 在昨天夜里推出兩款開源的人工智能模型 GPT-OSS-120B 和 GPT-OSS-20B,這些模型采用混合專家架構并且是推理模型,采用開源許可證可以在任意用途使用。
根據 OpenAI 自己的測試,GPT-OSS-20B 在模型能力上可以媲美 o4-mini,而 GPT-OSS-120B 在模型能力上可以媲美 o3-mini,不過這些模型只能進行文本內容互動。
薩姆奧爾特曼在接受采訪時表示,很高興能夠向全世界提供這個模型并將人工智能盡可能交到更多人手中,這些模型不會取代 OpenAI 現有的 GPT 模型,不過新模型采用思維鏈推理可以將大任務分解為較小的任務以產生更好的結果。
像是 GPT-OSS-20B 這樣尺寸較小的模型則可以在筆記本電腦甚至智能手機上使用,根據測試在基于 M4 的 MacBook 上采用 20B 模型每秒可以輸出 30~40tokens,速度還是比較快的。
高通也證實這些新模型可以在高通驍龍處理器上運行,高通稱 OpenAI 的復雜模型以前僅限于云端,現在是首次可以將模型用于本地設備的推理,可以直接支持高通驍龍芯片。
在發布開放權重模型后其他云平臺也火速支持這些模型的調用,而通過云端 GPU 加速時模型的響應速度極其夸張,甚至可以達到每秒 3000tokens 以上,遠超其他同類型模型。
對部分開發者來說如果擁有本地性能較強的 GPU 那運行這個模型是非常簡單的事情,既可以獲得快速響應也不需要通過云端調用浪費資金,還可以進行微調以獲得更好的結果。
當然如果想要通過云端調用的話選擇也非常多,例如 Amazon AWS、Hugging Face、vLLM、Microsoft Azure 等平臺都已經提供或在適配此模型,可以通過 API 直接調用。
以上就是“OpenAI推出GPT-OSS思維鏈推理開源模型 提供媲美o4/o3-mini的能力”的詳細內容,想要了解更多IT圈內資訊歡迎持續關注編程學習網。
掃碼二維碼 獲取免費視頻學習資料
- 本文固定鏈接: http://www.wangchenghua.com/post/13346/
- 轉載請注明:轉載必須在正文中標注并保留原文鏈接
- 掃碼: 掃上方二維碼獲取免費視頻資料