家電網-HEA.CN報道:北京市社會科學院副研究員王鵬分析稱,當一家企業采取低價策略時,其他競爭對手為了保持或擴大市場份額,往往也會采取相應的降價措施。因此,豆包的低價策略很可能觸發大模型行業的“價格戰”。
在2024火山引擎FORCE原動力大會上,火山引擎總裁譚待宣布,字節跳動內部自研的豆包大模型正式在火山引擎上對外開放服務,主要包括通用模型pro、通用模型lite、語音識別模型、語音合成模型、文生圖模型等9款模型。
在大模型競速賽上被遠遠甩在后面的字節跳動,這次憑借“極致性價比”的標簽狠狠刷了一波眼球。譚待在大會現場公布了這一消息:“豆包通用模型Pro 32k模型,正式定價是0.8厘/千tokens,比行業價格降低99.3%。”“對,沒有聽錯,是降低99.3%。”這種直播帶貨式的叫賣方式引發一片嘩然。
根據火山引擎公布的價格計算顯示,一元錢能買到豆包主力模型的125萬tokens,大約是200萬個漢字。相較之下,市面上同規格模型的定價一般為0.12元/千tokens,是豆包模型價格的150倍。豆包通用模型pro-128k版本,推理輸入價格為0.005元/千tokens,僅是GPT4-Turbo128K (0.07元/千tokens)定價的7%。
譚待認為,降低成本是推動大模型快進到“價值創造階段”的一個關鍵因素。過去一年時間中,許多企業已經從探索嘗試大模型到成功將大模型與核心業務流結合。不論是探索階段的小場景試錯環節,還是大流量的核心業務流結合環節,大模型成本高昂問題始終是制約大模型在千行百業落地的關鍵要素之一。
“定價的基礎是對技術的信心,”譚待表示,“我們不是以虧損為代價做這件事的,虧損是接受不了的。”據他透露,字節團隊在技術上有非常多優化手段,包括通過模型結構的優化調整,把成本做低、效果做好,通過分布式推理、混合調度大幅度降低部署成本等。
據了解,目前業內大模型壓縮的常見手段主要有三種:量化、剪枝、知識蒸餾。其中,量化相當于“抽脂”,直接降低模型的參數精度,“抽”去一部分細節性信息,從而減少占用空間,同時也不過于降低推理能力;剪枝,相當于直接減去一些旁枝,比如冗余結構、神經元等;知識蒸餾相當于“蒸桑拿”,對千億模型進行蒸餾,產出若干個性能接近、結構更簡的小模型,降低落地成本。根據目前已公開信息,暫時還無法判斷字節跳動的豆包大模型屬于哪一類。
不過,某位長期關注大模型領域的業內專家在接受記者采訪時對豆包的“極致性價比”表示質疑:“有可能是技術優化,比如優化算法和參數,但也有可能是通過補貼和降低模型質量來實現這么低的價格。”
北京市社會科學院副研究員王鵬分析稱,當一家企業采取低價策略時,其他競爭對手為了保持或擴大市場份額,往往也會采取相應的降價措施。因此,豆包的低價策略很可能觸發大模型行業的“價格戰”。
(家電網? HEA.CN)
責任編輯:編輯K組