首頁(yè) 資訊 > 資訊 > 正文

彩云科技發(fā)布基于DCFormer架構(gòu)通用大模型云錦天章

11月13日,彩云科技在北京總部與媒體進(jìn)行一場(chǎng)主題為“From Paper to App”的溝通會(huì)。會(huì)上,彩云科技CEO袁行遠(yuǎn),就通用大模型未來(lái)進(jìn)化之路,與人工智能的落地場(chǎng)景等熱點(diǎn)話題進(jìn)行了交流,并正式推出了首款基于DCFormer架構(gòu)開(kāi)發(fā)的通用大模型云錦天章,與此同時(shí),彩云科技旗下AI RPG平臺(tái)彩云小夢(mèng),也成為首款基于DCFormer架構(gòu)開(kāi)發(fā)的AI產(chǎn)品。

早在2017年,谷歌發(fā)布《Attention Is All You Need》論文,首次提出Transformer架構(gòu),掀開(kāi)了人工智能自然語(yǔ)言處理(NLP)領(lǐng)域發(fā)展的全新篇章。Transformer架構(gòu)作為神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)中最重要的架構(gòu),成為后來(lái)席卷全球的一系列通用大模型如ChatGPT、Gemini的底層技術(shù)支撐。而提升Transformer的運(yùn)行效率也成為人工智能領(lǐng)域的研究熱點(diǎn),2024年4月,谷歌最近一次更新了Transformer架構(gòu),提出了Mixture-of-Depths(MoD)方法,使得訓(xùn)練后采樣過(guò)程中提速50%,成為Transformer架構(gòu)提速升級(jí)的又一重要事件。

同樣在今年,一家來(lái)自國(guó)內(nèi)的人工智能企業(yè)彩云科技,在國(guó)際機(jī)器學(xué)習(xí)領(lǐng)域的頂級(jí)會(huì)議ICML(國(guó)際機(jī)器學(xué)習(xí)大會(huì))上,發(fā)布全新大模型論文《Improving Transformers with Dynamically Composable Multi-Head Attention》。在該論文中,彩云科技團(tuán)隊(duì)首次發(fā)布DCFormer架構(gòu),并在基于DCFormer打造的模型DCPythia-6.9B上,實(shí)現(xiàn)了在預(yù)訓(xùn)練困惑度和下游任務(wù)評(píng)估上都優(yōu)于開(kāi)源Pythia-12B。這意味著,DCFormer模型在性能上,實(shí)現(xiàn)了對(duì)Transformer模型1.7-2倍的提升。

只有模型效率和智能度提升才能實(shí)現(xiàn)真正的AGI

溝通會(huì)現(xiàn)場(chǎng),袁行遠(yuǎn)首先向參會(huì)者展示了一個(gè)ChatGPT o1的問(wèn)答:“假設(shè)ChatGPT4每天響應(yīng)用戶約2億個(gè)請(qǐng)求,消耗超過(guò)50萬(wàn)千瓦時(shí)的電力。假設(shè)全球網(wǎng)絡(luò)都使用ChatGPT作為訪問(wèn)入口,ChatGPT每天消耗多少電力?另外按照這個(gè)速度發(fā)展下去,到2050年全球人工智能的耗電量會(huì)達(dá)到目前地球發(fā)電能力的多少倍?”ChatGPT o1給出的答案是,“到2050年,全球人工智能的耗電量可能會(huì)達(dá)到目前地球發(fā)電能力的8倍”。

“Scaling Law告訴我們,隨著算力的提升,模型更大、數(shù)據(jù)更多,模型效果會(huì)越來(lái)越好,但與之相應(yīng)的,能耗也會(huì)越來(lái)越高,在Scaling Law失效,人工智能實(shí)現(xiàn)之前,或許我們地球的能源就已經(jīng)無(wú)法支撐了。”袁行遠(yuǎn)表示,“沒(méi)有效率的提升,AI就是鏡花水月。”

彩云科技團(tuán)隊(duì)構(gòu)建DCFormer框架,提出可動(dòng)態(tài)組合的多頭注意力(DCMHA),替換Transformer核心組件多頭注意力模塊(MHA),解除了MHA注意力頭的查找選擇回路和變換回路的固定綁定,讓它們可以根據(jù)輸入動(dòng)態(tài)組合,從根本上提升了模型的表達(dá)能力,由此實(shí)現(xiàn)了對(duì)Transformer架構(gòu)1.7—2倍的性能提升。

今年的ICML會(huì)議上,彩云科技團(tuán)隊(duì)的3篇論文,在錄用平均分為4.25-6.33的情況下,獲得平均7分的高分,并成為國(guó)內(nèi)唯二受邀參加維也納ICML2024登臺(tái)演講的企業(yè),另一家則是華為。

袁行遠(yuǎn)表示:我們的工作表明,Transformer架構(gòu)距離“理想模型架構(gòu)”還有很大的提升空間,除了堆算力堆數(shù)據(jù)的“大力出奇跡”路線,模型架構(gòu)創(chuàng)新同樣大有可為。往小了說(shuō),在大模型領(lǐng)域,利用效率更高的模型架構(gòu),小公司也可以在與世界頂級(jí)人工智能企業(yè)的對(duì)抗中取得優(yōu)勢(shì)。往大了說(shuō),模型效率的提升,可以有效地降低人工智能升級(jí)迭代的成本,加速AI時(shí)代的到來(lái)。

云錦天章問(wèn)世首個(gè)基于DCFormer架構(gòu)的通用大模型

作為國(guó)內(nèi)最早做LLM(大語(yǔ)言模型)的公司之一,彩云科技在2017年就已經(jīng)開(kāi)始做NLP和大模型方面的工作。目前,彩云科技旗下有彩云天氣、彩云小夢(mèng)、彩云小譯三款面向C端用戶的AI產(chǎn)品,是國(guó)內(nèi)為數(shù)不多能夠?qū)崿F(xiàn)盈利的人工智能公司。

“世界最強(qiáng)的小說(shuō)續(xù)寫(xiě)通用模型。”溝通會(huì)上,袁行遠(yuǎn)向大家展示了首個(gè)基于DCFormer架構(gòu)的通用大模型云錦天章。“這個(gè)成語(yǔ)是比喻文章極為高雅、華美,和我們的大模型想要實(shí)現(xiàn)的效果有共通之處。”袁行遠(yuǎn)介紹,云錦天章可以實(shí)現(xiàn)在虛構(gòu)世界觀的基礎(chǔ)上,賦予小說(shuō)人物編程、數(shù)學(xué)等基礎(chǔ)能力,可以高速針對(duì)大量文字進(jìn)行擴(kuò)寫(xiě)、縮寫(xiě),針對(duì)文章風(fēng)格進(jìn)行大容量更換,同時(shí)兼具其他模型的問(wèn)答、數(shù)學(xué)、編程等基礎(chǔ)能力。

而在應(yīng)用端,擁有四百萬(wàn)用戶的彩云小夢(mèng),也迎來(lái)了基于全新DCFormer架構(gòu)的V.3.5版本。與之前的版本相比,彩云小夢(mèng)V3.5整體流暢性和連貫性提升了20%,支持前文長(zhǎng)度由2000字提升至10000字,故事背景設(shè)定最長(zhǎng)長(zhǎng)度高達(dá)10000字。“這意味著,在故事創(chuàng)作或者與人工智能對(duì)話中,人工智能能夠記住之前發(fā)生的事情,記住之前故事里發(fā)生的細(xì)節(jié),人物記得自己明確的目標(biāo),并且會(huì)根據(jù)劇情及時(shí)進(jìn)行反思修正。在做到自主創(chuàng)作的同時(shí),發(fā)散性收斂,不會(huì)天馬行空,人物性格前后一致,故事邏輯性更強(qiáng)。”

“深度對(duì)話,超長(zhǎng)記憶,邏輯清晰。”袁行遠(yuǎn)總結(jié)彩云小夢(mèng)V3.5的特征,“我們的目標(biāo)是為用戶打造指尖伴侶定制夢(mèng)境。”袁行遠(yuǎn)表示,彩云小夢(mèng)的用戶單次使用時(shí)長(zhǎng),累計(jì)使用時(shí)長(zhǎng)在同類產(chǎn)品中都處于領(lǐng)先的地位,“對(duì)話超過(guò)400句,你會(huì)發(fā)現(xiàn)彩云小夢(mèng)真正的魅力。”

袁行遠(yuǎn)介紹,公司接下來(lái)將繼續(xù)加大對(duì)DCFormer的研究和投入:“一方面有打破‘國(guó)外做技術(shù)層,國(guó)內(nèi)做應(yīng)用層’刻板印象的情懷所在,一方面也是為公司自有產(chǎn)品應(yīng)對(duì)市場(chǎng)競(jìng)爭(zhēng),實(shí)現(xiàn)快速迭代升級(jí)和能力領(lǐng)先的現(xiàn)實(shí)需要。”

關(guān)鍵詞: 彩云科技 蠟燭 課后題 貸款案例分析 酒店前臺(tái)案例分析

最近更新

關(guān)于本站 管理團(tuán)隊(duì) 版權(quán)申明 網(wǎng)站地圖 聯(lián)系合作 招聘信息

Copyright © 2005-2023 創(chuàng)投網(wǎng) - 670818.com All rights reserved
聯(lián)系我們:39 60 29 14 2@qq.com
皖I(lǐng)CP備2022009963號(hào)-3