一年之后,AI大模型市場再次嗅到了“價格戰(zhàn)”開戰(zhàn)前空氣中硝煙的味道。
北京時間6月11日,OpenAI和字節(jié)跳動在同日推出了自己的最新模型,并公布了新定價。其中OpenAI在發(fā)布o3-pro后宣布其推理模型o3降價80%,火山引擎總裁譚待則在北京舉辦的Force原動力大會上宣布,新版本大模型豆包1.6的價格降到了此前的三分之一。
會后,譚待接受了新京報貝殼財經(jīng)記者的采訪。對于降價背后的商業(yè)邏輯,他表示,“我們的宗旨是做到一定程度后就盡最大可能釋放技術(shù)紅利,讓業(yè)界所有開發(fā)者和企業(yè)受惠,這樣AI應(yīng)用發(fā)展也會加快。去年豆包1.0的價格降低了99%,業(yè)界很多公司跟隨,之后中國大模型行業(yè)也迎來一波加速發(fā)展?!?/p>
火山引擎總裁譚待接受采訪。 新京報貝殼財經(jīng)記者羅亦丹/攝
詳解降價邏輯:重點在上下文
2024年5月,隨著DeepSeek打響“降價第一槍”,豆包等大模型迅速跟進,最終開啟了第一輪大模型“價格戰(zhàn)”,在價格戰(zhàn)打響的17天里,一些輕量級模型甚至直接免費。
而本次再度大幅降價,譚待詳細講解了大模型成本的“基本原理”:大模型按tokens(詞元)收費,雖然市面上有包括支持深度思考、支持多模態(tài)等不同類型的模型,但實際上對于同結(jié)構(gòu)同參數(shù)的模型而言,真正影響成本的是上下文長度,而不是是否開啟了思考和多模態(tài)功能。
譚待告訴貝殼財經(jīng)記者,此前業(yè)界習慣按照模型能力定價,如深度思考和圖文理解更貴,非深度思考相對便宜,但本次發(fā)布的豆包1.6將上述能力融合到了一起,進行了統(tǒng)一,因此可以采取統(tǒng)一定價模式,并基于對上下文長度分布的調(diào)度優(yōu)化,創(chuàng)新性實現(xiàn)區(qū)間定價。
具體來看,在輸入?yún)^(qū)間32K~128K的范圍內(nèi),豆包1.6的價格是輸入1.2元(每百萬tokens,下同),輸出16元(每百萬tokens,下同);在輸入?yún)^(qū)間128K~256K的范圍內(nèi),豆包1.6的價格是輸入2.4元,輸出24元。
譚待表示,當前絕大部分企業(yè)使用大模型的范圍集中在0-32K區(qū)間,針對該區(qū)間,通過技術(shù)的優(yōu)化,豆包1.6的價格是每百萬tokens 輸入0.8元,輸出8元。相比之下,豆包1.5 thinking和DeepSeek-R1的價格為輸入4元,輸出16元。照此進行綜合計算,豆包1.6成本下降了63%,為原來三分之一左右的價格,“用戶不用區(qū)別模型到底做不做深度思考和圖像理解,這不管從成本還是便利性上都是很大的提升?!?/p>
而在模型能力層面,豆包1.6在各項測評指數(shù)上相比1.5均有提升,且是國內(nèi)首個支持256K上下文的思考模型。此前記者曾測試發(fā)現(xiàn),輸入內(nèi)容過長容易導(dǎo)致智能體“宕機”,因此該改進對復(fù)雜智能體的構(gòu)建非常重要。
PC時代主體是網(wǎng)頁 AI時代的主體是智能體
譚待告訴貝殼財經(jīng)記者,“就像去年一樣,我們希望這件事(降價)能促進AI智能體的普及?!?/p>
在他看來,影響大模型成本的關(guān)鍵因素并非是否開啟深度思考,而主要與上下文窗口相關(guān),因此結(jié)合具體應(yīng)用場景對此進行了優(yōu)化,他希望通過降本促進AI智能體的進一步普及,“如果說2024年是中國大模型應(yīng)用的元年,那2025年將很可能是中國Agent落地的元年,Agent將逐步進入企業(yè)的各個業(yè)務(wù)流程。而在這個階段,深度思考、多模態(tài)理解和工具自主調(diào)用是模型進化的關(guān)鍵方向?!?/p>
譚待表示,由于智能體每次執(zhí)行任務(wù)都會消耗大量tokens,模型使用成本也要降下來,才能推動智能體的規(guī)?;瘧?yīng)用,“可能一個人跟模型聊一個小時會耗費20多萬tokens,但智能體處理一個復(fù)雜任務(wù)就要花費20萬tokens,因此降價很關(guān)鍵。另外,做好智能體最重要的是底層模型一定是既有多模態(tài)也有深度思考的模型,否則智能體所做的事就很有限?!?/p>
“當前正處于PC到移動到AI三個時代的變化之中。在這三個時代里,技術(shù)主體在發(fā)生變化,PC時代的主體是web(網(wǎng)頁),移動時代是APP,AI時代是Agent(智能體)。Agent能夠自主地感知,規(guī)劃和反思,完成復(fù)雜任務(wù)。軟件第一次從被動的工具,變成主動的執(zhí)行者。”譚待表示。
“豆包APP的C端用戶非常多,服務(wù)用戶的過程就是我們對如何做好復(fù)雜智能體進行的最佳實踐,我們再把這種能力通過火山引擎對外進行了提供?!弊T待告訴記者。
新京報貝殼財經(jīng)記者 羅亦丹
編輯 岳彩周
校對 楊許麗