清華大學(xué)OpenBMB正式開(kāi)源部署至OpenI啟智社區(qū):讓大模型飛入千家萬(wàn)戶

近年來(lái),隨著預(yù)訓(xùn)練語(yǔ)言模型技術(shù)引發(fā)人工智能領(lǐng)域性能革命,大規(guī)模預(yù)訓(xùn)練模型技術(shù)的成熟標(biāo)志著“大模型時(shí)代”的到來(lái)。然而在大模型的具體應(yīng)用與落地中,卻存在著“訓(xùn)練難、微調(diào)難、應(yīng)用難”三大挑戰(zhàn)。

為此,清華大學(xué)自然語(yǔ)言處理實(shí)驗(yàn)室智源研究院語(yǔ)言大模型加速技術(shù)創(chuàng)新中心共同支持發(fā)起了OpenBMB(Open Lab for Big Model Base)開(kāi)源社區(qū),旨在打造大規(guī)模預(yù)訓(xùn)練語(yǔ)言模型庫(kù)與相關(guān)工具,加速百億級(jí)以上大模型的訓(xùn)練、微調(diào)與推理,降低大模型使用門(mén)檻,實(shí)現(xiàn)大模型的標(biāo)準(zhǔn)化、普及化和實(shí)用化。

為了讓大模型飛入千家萬(wàn)戶,OpenBMB開(kāi)源社區(qū)鵬城實(shí)驗(yàn)室,以及OpenI啟智社區(qū)已攜手進(jìn)行國(guó)內(nèi)獨(dú)家開(kāi)源合作,將共同推動(dòng)大模型在人工智能開(kāi)源領(lǐng)域的發(fā)展與普及。目前,OpenBMB社區(qū)已正式入駐并將其部分模型套件開(kāi)源部署至OpenI啟智社區(qū),計(jì)劃通過(guò)OpenI啟智社區(qū)進(jìn)行代碼和數(shù)據(jù)集的開(kāi)放管理,匯聚更多開(kāi)源開(kāi)發(fā)者的力量,以及基于鵬城云腦科學(xué)裝置提供的算力資源,進(jìn)一步推進(jìn)OpenBMB系列大模型套件的開(kāi)發(fā)與訓(xùn)練。

歡迎大家訪問(wèn)OpenBMB開(kāi)源社區(qū)主頁(yè)鏈接,參與代碼貢獻(xiàn)與支持社區(qū)建設(shè)。

https://git.openi.org.cn/OpenBMB

1、OpenBMB開(kāi)源社區(qū)成立背景:從大數(shù)據(jù)到大模型

近年來(lái)人工智能和深度學(xué)習(xí)技術(shù)飛速發(fā)展,極大改變了我們的日常工作與生活。伴隨人類(lèi)社會(huì)信息化產(chǎn)生海量數(shù)據(jù),人工智能技術(shù)能夠有效學(xué)習(xí)數(shù)據(jù)的分布與特征,對(duì)數(shù)據(jù)進(jìn)行深入分析并完成復(fù)雜智能任務(wù),產(chǎn)生巨大的經(jīng)濟(jì)與社會(huì)價(jià)值,人類(lèi)社會(huì)步入了“大數(shù)據(jù)時(shí)代”

當(dāng)前人工智能算法的典型流程為:準(zhǔn)備數(shù)據(jù)、訓(xùn)練模型和部署模型。其挑戰(zhàn)在于,針對(duì)給定任務(wù)人工標(biāo)注訓(xùn)練數(shù)據(jù)注費(fèi)時(shí)費(fèi)力,數(shù)據(jù)規(guī)模往往有限,需要承擔(dān)算法性能不達(dá)標(biāo)、模型泛化能力差等諸多風(fēng)險(xiǎn),導(dǎo)致人工智能面臨研發(fā)周期長(zhǎng)、風(fēng)險(xiǎn)大、投入成本高的困局,阻礙了人工智能算法的落地與推廣。

2018年預(yù)訓(xùn)練語(yǔ)言模型技術(shù)橫空出世,形成了“預(yù)訓(xùn)練-微調(diào)”的新研發(fā)范式,極大地改變了上述困局。在這個(gè)新范式下,我們可以非常容易地搜集大規(guī)模無(wú)標(biāo)注語(yǔ)料,采用自監(jiān)督學(xué)習(xí)技術(shù)預(yù)訓(xùn)練語(yǔ)言模型;然后可以利用特定下游任務(wù)對(duì)應(yīng)的訓(xùn)練數(shù)據(jù),進(jìn)一步微調(diào)更新模型參數(shù),讓該模型掌握完成下游任務(wù)的能力。大量研究結(jié)果證明,預(yù)訓(xùn)練語(yǔ)言模型能夠在自然語(yǔ)言處理等領(lǐng)域的廣大下游任務(wù)上取得巨大的性能提升,并快速成長(zhǎng)為人工智能生態(tài)中的基礎(chǔ)設(shè)施。

預(yù)訓(xùn)練 – 微調(diào)范式對(duì)比傳統(tǒng)范式

通過(guò)充分利用互聯(lián)網(wǎng)上近乎無(wú)窮的海量數(shù)據(jù),預(yù)訓(xùn)練模型正在引發(fā)一場(chǎng)人工智能的性能革命。研究表明,更大的參數(shù)規(guī)模為模型性能帶來(lái)質(zhì)的飛躍。對(duì)十億、百億乃至千億級(jí)超大模型的探索成為業(yè)界的熱門(mén)話題,引發(fā)國(guó)內(nèi)外著名互聯(lián)網(wǎng)企業(yè)和研究機(jī)構(gòu)的激烈競(jìng)爭(zhēng),將模型規(guī)模和性能不斷推向新的高度。除Google、OpenAI等國(guó)外知名機(jī)構(gòu)外,近年來(lái)國(guó)內(nèi)相關(guān)研究機(jī)構(gòu)與公司也異軍突起,形成了大模型的研究與應(yīng)用熱潮。圍繞大模型展開(kāi)的"軍備競(jìng)賽"日益白熱化,成為對(duì)海量數(shù)據(jù)、并行計(jì)算、模型學(xué)習(xí)和任務(wù)適配能力的全方位考驗(yàn),人工智能進(jìn)入“大模型時(shí)代”

國(guó)內(nèi)外知名機(jī)構(gòu)在大模型訓(xùn)練中持續(xù)投入

然而在“大模型時(shí)代”,因?yàn)榇竽P途薮蟮膮?shù)量和算力需求,在大范圍內(nèi)應(yīng)用大模型仍然存在著較大的挑戰(zhàn)。如何讓更多開(kāi)發(fā)者方便享用大模型,如何讓更多企業(yè)廣泛應(yīng)用大模型,讓大模型不再“大”不可及,是實(shí)現(xiàn)大模型可持續(xù)發(fā)展的關(guān)鍵。與普通規(guī)模的深度學(xué)習(xí)模型相比,大模型訓(xùn)練與應(yīng)用需要重點(diǎn)突破三大挑戰(zhàn):

?  訓(xùn)練難:訓(xùn)練數(shù)據(jù)量大,算力成本高。

 微調(diào)難:微調(diào)參數(shù)量大,微調(diào)時(shí)間長(zhǎng)。

?  應(yīng)用難:推理速度慢,響應(yīng)時(shí)間長(zhǎng),難以滿足線上業(yè)務(wù)需求。

為了讓大模型技術(shù)更好地普及應(yīng)用,針對(duì)這些挑戰(zhàn),清華大學(xué)自然語(yǔ)言處理實(shí)驗(yàn)室和智源研究院語(yǔ)言大模型加速技術(shù)創(chuàng)新中心成立了OpenBMB開(kāi)源社區(qū)。

2、OpenBMB能力體系:應(yīng)用便捷的大規(guī)模預(yù)訓(xùn)練模型庫(kù)

謀定而動(dòng),OpenBMB將從數(shù)據(jù)、工具、模型、協(xié)議四個(gè)層面構(gòu)建應(yīng)用便捷、能力全面、使用規(guī)范的大規(guī)模預(yù)訓(xùn)練模型庫(kù)。

OpenBMB 能力體系

OpenBMB能力體系具體包括:

? 數(shù)據(jù)層:構(gòu)建大規(guī)模數(shù)據(jù)自動(dòng)收集、自動(dòng)清洗、高效存儲(chǔ)模塊與相關(guān)工具,為大模型訓(xùn)練提供數(shù)據(jù)支持。

工具層:聚焦模型訓(xùn)練、模型微調(diào)、模型推理、模型應(yīng)用四個(gè)大模型主要場(chǎng)景,推出配套開(kāi)源工具包,提升各環(huán)節(jié)效率,降低計(jì)算和人力成本。

模型層:構(gòu)建OpenBMB工具支持的開(kāi)源大模型庫(kù),包括BERT、GPT、T5等通用大模型和CPM、EVA、GLM等悟道開(kāi)源大模型,并不斷完善添加新模型,形成覆蓋全面的模型能力。

協(xié)議層:發(fā)布通用模型許可協(xié)議,規(guī)范與保護(hù)大模型發(fā)布使用過(guò)程中發(fā)布者與使用者權(quán)利與義務(wù),目前協(xié)議初稿已經(jīng)開(kāi)源(https://www.openbmb.org/license)。

大模型相關(guān)工具在OpenBMB能力體系中發(fā)揮著核心作用。OpenBMB將努力建設(shè)大模型開(kāi)源社區(qū),團(tuán)結(jié)廣大開(kāi)發(fā)者不斷完善大模型從訓(xùn)練、微調(diào)、推理到應(yīng)用的全流程配套工具。基于發(fā)起人團(tuán)隊(duì)前期工作,OpenBMB設(shè)計(jì)了大模型全流程研發(fā)框架,并初步開(kāi)發(fā)了相關(guān)工具,這些工具各司其職、相互協(xié)作,共同實(shí)現(xiàn)大模型從訓(xùn)練、微調(diào)到推理的全流程高效計(jì)算。

OpenBMB 工具架構(gòu)圖

3、OpenBMB工具:解決大模型三大難題

模型訓(xùn)練套件

BMTrain:大模型訓(xùn)練“發(fā)動(dòng)機(jī)”。BMTrain進(jìn)行高效的大模型預(yù)訓(xùn)練與微調(diào)。與DeepSpeed等框架相比,BMTrain訓(xùn)練模型成本可節(jié)省90%

開(kāi)源地址如下:

https://git.openi.org.cn/OpenBMB/BMTrain

 

BMCook:大模型“瘦身”工具庫(kù)。BMCook進(jìn)行大模型高效壓縮,提高運(yùn)行效率。通過(guò)量化、剪枝、蒸餾、專(zhuān)家化等算法組合,可保持原模型90%+效果,模型推理加速10倍。

開(kāi)源地址如下:

https://git.openi.org.cn/OpenBMB/BMCook

BMData:大模型“原料”收集器。BMData進(jìn)行高質(zhì)量數(shù)據(jù)清洗、處理與存儲(chǔ),為大模型訓(xùn)練提供全面、綜合的數(shù)據(jù)支持。

模型微調(diào)套件

OpenPrompt:大模型提示學(xué)習(xí)利器。OpenPrompt提供統(tǒng)一接口的提示學(xué)習(xí)模板語(yǔ)言,2021年發(fā)布以來(lái)在國(guó)外某開(kāi)源社區(qū)獲得1.3k星標(biāo),每周訪問(wèn)量10k+。

OpenDelta:“小”參數(shù)撬動(dòng)“大”模型。OpenDelta進(jìn)行參數(shù)高效的大模型微調(diào),僅更新極少參數(shù)(小于5%)即可達(dá)到全參數(shù)微調(diào)的效果。

Delta Center:“人人為我,我為人人” – Delta Object分享中心。Delta Center提供Delta Object的上傳、分享、檢索、下載功能,鼓勵(lì)社區(qū)開(kāi)發(fā)者共享大模型能力。

模型推理套件

BMInf:千元級(jí)顯卡玩轉(zhuǎn)大模型推理。BMInf實(shí)現(xiàn)大模型低成本高效推理計(jì)算,使用單塊千元級(jí)顯卡(GTX 1060)即可進(jìn)行百億參數(shù)大模型推理。2021年發(fā)布以來(lái)在國(guó)外某開(kāi)源社區(qū)獲得200+星標(biāo)。

開(kāi)源地址如下:

https://git.openi.org.cn/OpenBMB/BMInf

 

近期,OpenBMB開(kāi)源社區(qū)已將部分完成開(kāi)發(fā)的推理套件BMInf、訓(xùn)練套件BMCook和BMTrain上傳與開(kāi)源至OpenI啟智社區(qū),而后續(xù)也會(huì)將全部工具開(kāi)源上來(lái)。未來(lái),OpenBMB將依托自有開(kāi)源社區(qū)和OpenI啟智社區(qū)開(kāi)源的力量,與廣大開(kāi)發(fā)者一道共同打磨和完善大模型相關(guān)工具,助力大模型應(yīng)用與落地。期待廣大開(kāi)發(fā)者關(guān)注和貢獻(xiàn)OpenBMB!

4、OpenBMB團(tuán)隊(duì)介紹:國(guó)內(nèi)頂尖高校科研力量

OpenBMB開(kāi)源社區(qū)由清華大學(xué)自然語(yǔ)言處理實(shí)驗(yàn)室和智源研究院語(yǔ)言大模型加速技術(shù)創(chuàng)新中心共同支持發(fā)起。

發(fā)起團(tuán)隊(duì)擁有深厚的自然語(yǔ)言處理和預(yù)訓(xùn)練模型研究基礎(chǔ),曾最早提出知識(shí)指導(dǎo)的預(yù)訓(xùn)練模型ERNIE并發(fā)表在自然語(yǔ)言處理頂級(jí)國(guó)際會(huì)議ACL 2019上,累計(jì)被引超過(guò)600次,被學(xué)術(shù)界公認(rèn)為融合知識(shí)的預(yù)訓(xùn)練語(yǔ)言模型的代表方法,被美國(guó)國(guó)家醫(yī)學(xué)院院士團(tuán)隊(duì)用于研制醫(yī)學(xué)診斷領(lǐng)域的自動(dòng)問(wèn)答系統(tǒng);團(tuán)隊(duì)依托智源研究院研發(fā)的“悟道·文源”中文大規(guī)模預(yù)訓(xùn)練語(yǔ)言模型CPM-1、CPM-2,參數(shù)量最高達(dá)到1980億,在眾多下游任務(wù)中取得優(yōu)異性能;團(tuán)隊(duì)近年來(lái)圍繞模型預(yù)訓(xùn)練、提示學(xué)習(xí)、模型壓縮技術(shù)等方面在頂級(jí)國(guó)際會(huì)議上發(fā)表了數(shù)十篇高水平論文,2022年面向生物醫(yī)學(xué)的預(yù)訓(xùn)練模型KV-PLM發(fā)表在著名綜合類(lèi)期刊Nature Communications上,并入選該刊亮點(diǎn)推薦文章,相關(guān)論文列表詳見(jiàn)文末。

團(tuán)隊(duì)還有豐富的自然語(yǔ)言處理技術(shù)的開(kāi)源經(jīng)驗(yàn),發(fā)布了OpenKE、OpenNRE、OpenNE等一系列有世界影響力的工具包,在GitHub上累計(jì)獲得超過(guò)5.8萬(wàn)星標(biāo),位列全球機(jī)構(gòu)第148位,曾獲教育部自然科學(xué)一等獎(jiǎng)、中國(guó)中文信息學(xué)會(huì)錢(qián)偉長(zhǎng)中文信息處理科學(xué)技術(shù)獎(jiǎng)一等獎(jiǎng)等成果獎(jiǎng)勵(lì)。

發(fā)起團(tuán)隊(duì)面向OpenBMB開(kāi)源社區(qū)研制發(fā)布的BMInf、OpenPrompt、OpenDelta等工具包已陸續(xù)發(fā)表在自然語(yǔ)言處理頂級(jí)國(guó)際會(huì)議ACL 2022上。

OpenBMB主要發(fā)起人介紹

孫茂松 

清華大學(xué)計(jì)算機(jī)系教授,智源研究院自然語(yǔ)言處理方向首席科學(xué)家,清華大學(xué)人工智能研究院常務(wù)副院長(zhǎng),清華大學(xué)計(jì)算機(jī)學(xué)位評(píng)定分委員會(huì)主席,歐洲科學(xué)院外籍院士。主要研究方向?yàn)樽匀徽Z(yǔ)言處理、人工智能、社會(huì)人文計(jì)算和計(jì)算教育學(xué)。在人工智能領(lǐng)域的著名國(guó)際期刊和會(huì)議發(fā)表相關(guān)論文400余篇,Google Scholar統(tǒng)計(jì)引用超過(guò)2萬(wàn)次。曾獲全國(guó)優(yōu)秀科技工作者、教育部自然科學(xué)一等獎(jiǎng)、中國(guó)中文信息學(xué)會(huì)錢(qián)偉長(zhǎng)中文信息處理科學(xué)技術(shù)獎(jiǎng)一等獎(jiǎng),享受?chē)?guó)務(wù)院政府特殊津貼。

劉知遠(yuǎn)  

清華大學(xué)計(jì)算機(jī)系副教授,智源青年科學(xué)家。主要研究方向?yàn)樽匀徽Z(yǔ)言處理、知識(shí)圖譜和社會(huì)計(jì)算。在人工智能領(lǐng)域著名國(guó)際期刊和會(huì)議發(fā)表相關(guān)論文200余篇,Google Scholar統(tǒng)計(jì)引用超過(guò)2萬(wàn)次。曾獲教育部自然科學(xué)一等獎(jiǎng)(第2完成人)、中國(guó)中文信息學(xué)會(huì)錢(qián)偉長(zhǎng)中文信息處理科學(xué)技術(shù)獎(jiǎng)一等獎(jiǎng)(第2完成人)、中國(guó)中文信息學(xué)會(huì)漢王青年創(chuàng)新獎(jiǎng),入選國(guó)家青年人才計(jì)劃、2020年Elsevier中國(guó)高被引學(xué)者、《麻省理工科技評(píng)論》中國(guó)區(qū)35歲以下科技創(chuàng)新35人榜單、中國(guó)科協(xié)青年人才托舉工程。

韓旭 

清華大學(xué)計(jì)算機(jī)系博士生,研究方向?yàn)樽匀徽Z(yǔ)言處理、預(yù)訓(xùn)練語(yǔ)言模型和知識(shí)計(jì)算,在人工智能領(lǐng)域著名國(guó)際期刊和會(huì)議ACL、EMNLP上發(fā)表多篇論文,悟道·文源中文預(yù)訓(xùn)練模型團(tuán)隊(duì)骨干成員,CPM-1、CPM-2、ERNIE的主要作者之一。曾獲2011年全國(guó)青少年信息學(xué)競(jìng)賽金牌(全國(guó)40人)、國(guó)家獎(jiǎng)學(xué)金、清華大學(xué)“蔣南翔”獎(jiǎng)學(xué)金、清華大學(xué)“鐘士模”獎(jiǎng)學(xué)金、微軟學(xué)者獎(jiǎng)學(xué)金(亞洲12人)、清華大學(xué)優(yōu)良畢業(yè)生等榮譽(yù)。

曾國(guó)洋 

清華大學(xué)計(jì)算機(jī)系畢業(yè)生,智源研究院語(yǔ)言大模型加速技術(shù)創(chuàng)新中心副主任。擁有豐富人工智能項(xiàng)目開(kāi)發(fā)與管理經(jīng)驗(yàn),悟道·文源中文預(yù)訓(xùn)練模型團(tuán)隊(duì)骨干成員,BMTrain、BMInf的主要作者之一。曾獲2015年全國(guó)青少年信息學(xué)競(jìng)賽金牌(全國(guó)50人)、亞太地區(qū)信息學(xué)競(jìng)賽金牌、清華大學(xué)挑戰(zhàn)杯一等獎(jiǎng)、首都大學(xué)生挑戰(zhàn)杯一等獎(jiǎng)。

丁寧 

清華大學(xué)計(jì)算機(jī)系博士生,研究方向?yàn)闄C(jī)器學(xué)習(xí)、預(yù)訓(xùn)練語(yǔ)言模型和知識(shí)計(jì)算,在人工智能領(lǐng)域著名國(guó)際期刊和會(huì)議ICLR、ACL、EMNLP上發(fā)表多篇論文,悟道·文源中文預(yù)訓(xùn)練模型團(tuán)隊(duì)骨干成員,OpenPrompt、OpenDelta的主要作者之一。曾獲國(guó)家獎(jiǎng)學(xué)金、清華大學(xué)“清峰”獎(jiǎng)學(xué)金、百度獎(jiǎng)學(xué)金(全國(guó)10人)等榮譽(yù)。

張正彥 

清華大學(xué)計(jì)算機(jī)系博士生,研究方向?yàn)樽匀徽Z(yǔ)言處理和預(yù)訓(xùn)練語(yǔ)言模型,在人工智能領(lǐng)域著名國(guó)際期刊和會(huì)議ACL、EMNLP、TKDE上發(fā)表多篇論文,悟道·文源中文預(yù)訓(xùn)練模型團(tuán)隊(duì)骨干成員,CPM-1、CPM-2、ERNIE的主要作者之一。曾獲國(guó)家獎(jiǎng)學(xué)金、清華大學(xué)優(yōu)良畢業(yè)生、清華大學(xué)優(yōu)秀本科畢業(yè)論文等榮譽(yù)。

結(jié)語(yǔ)

OpenI啟智社區(qū)是以鵬城云腦科學(xué)裝置及軟件開(kāi)發(fā)群智范式為基礎(chǔ),由新一代人工智能產(chǎn)業(yè)技術(shù)創(chuàng)新戰(zhàn)略聯(lián)盟(AITISA)組織產(chǎn)學(xué)研用協(xié)作共建共享的開(kāi)源平臺(tái)與社區(qū)。

無(wú)論你正在從事大模型研究,研發(fā)大模型應(yīng)用,還是對(duì)大模型技術(shù)充滿興趣,歡迎來(lái)OpenI啟智社區(qū)使用OpenBMB開(kāi)源工具和模型庫(kù)。OpenBMB開(kāi)源社區(qū)推崇簡(jiǎn)捷,追求極致,相信數(shù)據(jù)與模型的力量。歡迎志同道合的你加入,共同為大模型應(yīng)用落地添磚加瓦,早日讓大模型飛入千家萬(wàn)戶。

OpenBMB相關(guān)鏈接

?  開(kāi)源主頁(yè):

https://git.openi.org.cn/OpenBMB

?  官方網(wǎng)站:

https://www.openbmb.org

?  交流QQ群:

735930538

?  微博:

http://weibo.cn/OpenBMB

?  郵箱:

openbmb@gmail.com

?  知乎:

https://www.zhihu.com/people/OpenBMB

?  Twitter:

https://twitter.com/OpenBMB

附錄 團(tuán)隊(duì)論文發(fā)布列表

1. Zhengyan Zhang, Xu Han, Zhiyuan Liu et al. ERNIE: Enhanced Language Representation with Informative Entities. ACL 2019.

2. Xiaozhi Wang, Tianyu Gao, Zhaocheng Zhu et al. KEPLER: A Unified Model for Knowledge Embedding and Pre-trained Language Representation. TACL 2021.

3. Yujia Qin, Yankai Lin, Ryuichi Takanobu et al. ERICA: Improving Entity and Relation Understanding for Pre-trained Language Models via Contrastive Learning. ACL-IJCNLP 2021.

4. Xu Han, Zhengyan Zhang, Ning Ding et al. Pre-Trained Models: Past, Present and Future. AI Open 2021.

5. Zhengyan Zhang, Xu Han, Hao Zhou et al. CPM: A Large-scale Generative Chinese Pre-trained Language Model. AI Open 2021.

6. Zheni Zeng, Yuan Yao, Zhiyuan Liu, Maosong Sun. A Deep-learning System Bridging Molecule Structure and Biomedical Text with Comprehension Comparable to Human Professionals. Nature Communications 2022.

7. Ning Ding, Yujia Qin, Guang Yang et al. Delta Tuning: A Comprehensive Study of Parameter Efficient Methods for Pre-trained Language Models. Arxiv 2022.

8. Zhengyan Zhang, Yuxian Gu, Xu Han et al. CPM-2: Large-scale Cost-effective Pre-trained Language Models. AI Open 2022.

9. Ganqu Cui, Shengding Hu, Ning Ding et al. Prototypical Verbalizer for Prompt-based Few-shot Tuning. ACL 2022.

10. Shengding Hu, Ning Ding, Huadong Wang et al. Knowledgeable Prompt-tuning: Incorporating Knowledge into Prompt Verbalizer for Text Classification. ACL 2022.

11. Yujia Qin, Jiajie Zhang, Yankai Lin et al. ELLE: Efficient Lifelong Pre-training for Emerging Data. Findings of ACL 2022.

12. Yuan Yao, Bowen Dong, Ao Zhang et al. Prompt Tuning for Discriminative Pre-trained Language Models. Findings of ACL 2022.

13. Ning Ding, Shengding Hu, Weilin Zhao et al. OpenPrompt: An Open-source Framework for Prompt-learning. ACL 2022 Demo.

14. Han Xu, Guoyang Zeng, Weilin Zhao et al. BMInf: An Efficient Toolkit for Big Model Inference and Tuning. ACL 2022 Demo.

Share this article:

Facebook
Twitter
LinkedIn
WhatsApp

More articles