AI云,火山引擎如何“激進”?

創(chuàng)新場景
隨著深度推理模型的發(fā)布,AI工具的Tokens消耗在快速增長,5個月增長了4.4倍。

圖片系AI生成

圖片系AI生成

“火山引擎,你的下一朵云。”不知何時起,火山引擎的宣傳語霸占了一線城市的機場大屏。

商務人士出行必經之路,也是政企業(yè)務營銷必爭之地,與之并列的往往是另外幾家云廠或者IT企業(yè),有時為了搶一塊牌子,或者誰的牌子更靠前一點,還免不了一些暗中較勁。

彼時火山引擎作為后進者,“下一朵云”的定位正合時宜,到了最近一年,宣傳語傳播的意思就沒那么到位。“還是下一朵么,那不就相當于客戶一直沒用上么?”,朋友們私下討論,火山引擎主打的就是AI云,沒必要再做下一朵云。

也許是火山引擎也意識到了其中的bug,火山引擎總裁譚待透露,最近已經打算更換logo語為“火山引擎,你的 AI 云。”AI云,對于所有云廠商來說都是大機會,對于火山引擎尤為特別,在通用計算搶客戶,那是存量市場,在智算市場拓新,則是指數(shù)級增長市場。

2025年,譚待用“激進”來形容火山引擎的增長目標。雖然譚待沒有直接言明,有消息指出,火山引擎今年的營收目標是翻倍,其中很大一部分要靠AI相關的云服務來來實現(xiàn)。

火山引擎“激進”的目標如何實現(xiàn),要看兩個大方面,其一是模型本身的效價比,在提供第一梯隊大模型效果的同時供給極低的價格,其二是卷Agent,不是只做Agent開發(fā)工具或者平臺,而是補全Agent落地生產場景的全鏈路。

6月11日,字節(jié)跳動旗下火山引擎舉辦Force原動力大會,發(fā)布豆包大模型1.6、視頻生成模型Seedance 1.0 pro等新模型,并升級了Agent開發(fā)平臺等AI云原生服務。

豆包1.6,做更適合Agent的大模型

本次大會上,譚待透露,去年12月,豆包大模型的日均tokens調用量是4萬億。今年3月份,豆包大模型的日均調用數(shù)是12.7萬億。而截至今年5月底,這個數(shù)字已經超過了16.4萬億,仍然保持著高速增長。

大模型調用量激增,很大程度來源于非聊天以外的新場景。如果對比今年5月份和去年12月的火山引擎Tokens消耗構成數(shù)據(jù),可以看到,隨著深度推理模型的發(fā)布,AI工具的Tokens消耗在快速增長,5個月增長了4.4倍。

其中AI搜索增長10倍,AI 編程增長了8.4倍,視覺理解模型則是另一個助推器。比如,K12的在線教育,由于VLM模型能力不斷提升,Tokens消耗5個月增長了12倍,而新出現(xiàn)的智能巡檢,視頻檢索等數(shù)個場景也快速實現(xiàn)日均百億tokens的突破。

在企業(yè)級市場,大模型的應用也在不斷深化,遍布消費電子、汽車、金融和教育等行業(yè),以在金融行業(yè)為例,火山引擎為客戶提供智能展業(yè)、投顧、投研等大模型應用方案,已服務華泰證券、國信證券等數(shù)十家券商和基金公司,招商銀行、浦發(fā)、民生等70%的系統(tǒng)重要性銀行。

“做好Agent最重要的是底層模型,一定是一個多模態(tài)深度思考的模型,如果不是基于多模態(tài)深度思考模型,Agent能做出來的事情很有限而且很初級,豆包1.6就把這件事情做好了。”譚待說。

本次升級的豆包1.6系列由三個模型組成,分別是doubao-seed-1.6;doubao-seed-1.6-thinking和doubao-seed-1.6-flash。

doubao-seed-1.6是all-in-one的綜合模型,支持深度思考,多模態(tài)理解,圖形界面操作等多項能力。特別是在深度思考方面,支持多種模式,開發(fā)者可以選擇關閉深度思考、開啟深度思考和自適應思考三種方式。

其中自適應思考下,模型可以根據(jù)prompt難度自動決定是否開啟thinking,在提升效果情況下,大幅減少tokens開銷。doubao-seed-1.6也是國內首個支持256K上下文的思考模型,這對于復雜agent的構建來說非常重要。

doubao-seed-1.6-thinking,則是1.6系列在深度思考方面的強化版本,它只支持深度思考模式, 但在coding、math、 邏輯推理等基礎能力上都有進一步提升,同樣也支持256K上下文。

doubao-seed-1.6-flash,則是1.6系列的極速版本。1.6 flash同樣支持深度思考,多模態(tài)理解,256K窗口;但延遲極低,tpot僅需10ms,適用于延遲敏感場景。flash仍然有不錯的性能,文本理解能力超過doubao 1.5 lite,視覺理解能力可以比肩其他旗艦模型。

此外,豆包視頻生成模型Seedance 1.0 pro也正式亮相。該模型支持文字與圖片輸入,可生成多鏡頭無縫切換的1080P高品質視頻,主體運動穩(wěn)定性與畫面自然度較高。在國際知名評測榜單 Artificial Analysis 上,Seedance在文生視頻、圖生視頻兩項任務上均排名首位,超越Veo3、可靈2.0等優(yōu)秀模型。

降價,帶著一點激進

云計算行業(yè)的價格戰(zhàn)并不少見,數(shù)年前行業(yè)也曾掀起此起彼伏的低價競爭,當利潤空間被極致壓縮,價格戰(zhàn)變成惡意降價,云計算的商業(yè)生態(tài)也就失去正向循環(huán),行業(yè)都不想再次重演這一幕。

火山引擎沒有經歷過上一次通算時代的價格戰(zhàn),但是譚待并不想用低價卷市場。在他看來,降價是技術和規(guī)模的體現(xiàn)。

在技術層面,目前火山引擎降本很大程度都是在工程上的優(yōu)化;在規(guī)模層面,火山引擎的市場規(guī)模不算第一梯隊,但是距離頭部也很近,如果算上字節(jié)跳動集團海量的用云規(guī)模,規(guī)模效應已經能夠帶來足夠的降本空間。

值得一提的是,火山引擎將用戶成本拆開來看,給出了針對性降本的策略。譚待指出,首先,大模型按tokens來收費,市面上有不同類型的模型,支持深度思考的,不支持深度思考的,支持多模態(tài)的等等,但實際上對于同結構同參數(shù)的模型而言,對成本真正影響的是上下文長度長度,而不是是否開啟了思考和多模態(tài)功能。”

其次,上下文長度對成本的影響是累加的,上下文越長,或者簡單說輸入越長,每一個輸出的成本就會遞增累加。

最后,模型輸入輸出長度的分布是有一定規(guī)律的。當前,大部分的調用,其輸入范圍都在32K以內。

基于這些觀察,如果大模型能在推理層做好按照上下文長度進行調度,就能夠讓占大比例的模型請求,實現(xiàn)更低的成本和更快的速度。

豆包1.6的的定向降價也以此為基礎,首創(chuàng)按“輸入長度”區(qū)間定價,深度思考、多模態(tài)能力與基礎語言模型統(tǒng)一價格。在企業(yè)使用量最大的0-32K輸入?yún)^(qū)間,豆包1.6的輸入價格為0.8元/百萬tokens、輸出8元/百萬tokens,綜合成本只有豆包1.5深度思考模型或DeepSeek R1的三分之一。Seedance 1.0 pro模型每千 tokens僅0.015元,每生成一條5秒的1080P視頻只需3.67元,為行業(yè)最低。

譚待表示,Agent的Token消耗量很大,以前AI大模型最早的應用就是聊天,一個人和模型聊一個小時也就是20多萬Token,現(xiàn)在Agent做一個復雜任務就要消耗20萬Token。深度思考、多模態(tài)和工具調用等模型能力提升,是構建Agent的關鍵要素,同時,由于Agent每次執(zhí)行任務都會消耗大量tokens,模型使用成本也要降下來,才能推動Agent的規(guī)?;瘧?。

此外,為了更好地支持Agent開發(fā)與應用,火山引擎AI云原生全棧服務升級,發(fā)布了火山引擎MCP服務、PromptPilot 智能提示工具、AI知識管理系統(tǒng)、veRL強化學習框架等產品,并推出多模態(tài)數(shù)據(jù)湖、AICC私密計算、大模型應用防火墻,以及一系列AI Infra套件。

譚待認為,技術主體經歷了三個時代變化,AI時代會推動開發(fā)范式與技術架構全面升級。他說:“PC時代主體是Web,移動時代是APP,AI時代則是Agent。Agent能夠自主感知、規(guī)劃和反思,完成復雜任務。從被動工具轉變?yōu)橹鲃訄?zhí)行者。豆包大模型和AI云原生將持續(xù)迭代,助力企業(yè)構建和大規(guī)模應用Agent。”(本文首發(fā)于鈦媒體APP,作者 | 張帥,編輯 | 蓋虹達)

轉載請注明出處、作者和本文鏈接。
聲明:文章內容僅供參考、交流、學習、不構成投資建議。
想和千萬鈦媒體用戶分享你的新奇觀點和發(fā)現(xiàn),點擊這里投稿 。創(chuàng)業(yè)或融資尋求報道,點擊這里。

敬原創(chuàng),有鈦度,得贊賞

贊賞支持
發(fā)表評論
0 / 300

根據(jù)《網(wǎng)絡安全法》實名制要求,請綁定手機號后發(fā)表評論

登錄后輸入評論內容

掃描下載App