行業(yè)資訊 – 啟智社區(qū) http://www.hualongw.cn 新一代人工智能開(kāi)源開(kāi)放平臺(tái) Wed, 29 Dec 2021 07:24:24 +0000 zh-Hans hourly 1 https://wordpress.org/?v=6.8.1 http://www.hualongw.cn/wp-content/uploads/2025/04/favicon.png 行業(yè)資訊 – 啟智社區(qū) http://www.hualongw.cn 32 32 解讀人工智能的 2021:超大規(guī)模預(yù)訓(xùn)練模型爆發(fā),自動(dòng)駕駛迎來(lái)商業(yè)化前夜 http://www.hualongw.cn/%e8%a7%a3%e8%af%bb%e4%ba%ba%e5%b7%a5%e6%99%ba%e8%83%bd%e7%9a%84-2021%ef%bc%9a%e8%b6%85%e5%a4%a7%e8%a7%84%e6%a8%a1%e9%a2%84%e8%ae%ad%e7%bb%83%e6%a8%a1%e5%9e%8b%e7%88%86%e5%8f%91%ef%bc%8c%e8%87%aa/ http://www.hualongw.cn/%e8%a7%a3%e8%af%bb%e4%ba%ba%e5%b7%a5%e6%99%ba%e8%83%bd%e7%9a%84-2021%ef%bc%9a%e8%b6%85%e5%a4%a7%e8%a7%84%e6%a8%a1%e9%a2%84%e8%ae%ad%e7%bb%83%e6%a8%a1%e5%9e%8b%e7%88%86%e5%8f%91%ef%bc%8c%e8%87%aa/#respond Wed, 29 Dec 2021 07:24:24 +0000 https://new.openi.org.cn/%e8%a7%a3%e8%af%bb%e4%ba%ba%e5%b7%a5%e6%99%ba%e8%83%bd%e7%9a%84-2021%ef%bc%9a%e8%b6%85%e5%a4%a7%e8%a7%84%e6%a8%a1%e9%a2%84%e8%ae%ad%e7%bb%83%e6%a8%a1%e5%9e%8b%e7%88%86%e5%8f%91%ef%bc%8c%e8%87%aa/ 微信圖片_20211229153113.jpg

即將過(guò)去的 2021 年,又是跌宕起伏的一年。疫情仍沒(méi)有結(jié)束的苗頭,缺芯造成的供應(yīng)鏈中斷此起彼伏,與此同時(shí),數(shù)字化、智能化轉(zhuǎn)型已是大勢(shì)所趨。全球企業(yè)和機(jī)構(gòu)在不斷學(xué)會(huì)適應(yīng)“新常態(tài)”,并從中捕捉新的商業(yè)機(jī)會(huì)。

2021 年, 人工智能領(lǐng)域依然熱潮洶涌。AphaFold2 成功預(yù)測(cè) 98%蛋白質(zhì)結(jié)構(gòu),預(yù)訓(xùn)練大模型迎來(lái)大爆發(fā),自動(dòng)駕駛邁入商業(yè)化試點(diǎn)探索新階段,元宇宙概念東風(fēng)勁吹,首個(gè)關(guān)于 AI 倫理的全球協(xié)議通過(guò),商湯科技即將摘得“AI 第一股”… 前沿技術(shù)突破令人欣喜,落地應(yīng)用“潤(rùn)物細(xì)無(wú)聲”般深入各行業(yè),業(yè)界也開(kāi)始正視人工智能的問(wèn)題和挑戰(zhàn)。

在歲末年初之際,InfoQ 采訪了眾多行業(yè)專家,回顧了 2021 年人工智能大模型、深度學(xué)習(xí)框架、 NLP、智能語(yǔ)音、自動(dòng)駕駛、知識(shí)圖譜等各項(xiàng) AI 技術(shù)的發(fā)展情況,并展望了未來(lái)一年可能的技術(shù)趨勢(shì)。

2021 年度 AI 技術(shù)突破

人工智能預(yù)測(cè)蛋白質(zhì)結(jié)構(gòu)

12 月 15 日,Nature 發(fā)布了《2021 年十大科學(xué)新聞》;12 月 17 日,Science 緊隨其后,公布了《2021 年度十大科學(xué)突破》。Nature 和 Science 都將「人工智能預(yù)測(cè)蛋白質(zhì)結(jié)構(gòu)」評(píng)為本年度最重要的發(fā)現(xiàn),Science 更是將其列為“2021 年十大科學(xué)突破進(jìn)展”之首。

長(zhǎng)期以來(lái),蛋白質(zhì)結(jié)構(gòu)的預(yù)測(cè)一直是生物學(xué)領(lǐng)域的研究熱點(diǎn)和難點(diǎn)。傳統(tǒng)的蛋白質(zhì)結(jié)構(gòu)探測(cè)方法主要有三種:X 射線晶體學(xué)、核磁共振和冷凍電鏡。但這些方法成本較高,研究周期漫長(zhǎng),且進(jìn)展有限。

人工智能為這一困擾生物學(xué)界數(shù)十年的難題按下了快進(jìn)鍵。

今年 7 月,蛋白結(jié)構(gòu)兩大 AI 預(yù)測(cè)算法 —— DeepMind 的 AphaFold2 和華盛頓大學(xué)等機(jī)構(gòu)研發(fā)的 RoseTTAFold 相繼開(kāi)源。

AphaFold2“解鎖”98%人類蛋白質(zhì)組

7 月 16 日,DeepMind 在 Nature 發(fā)表論文,宣布已利用 Alpha Fold2 預(yù)測(cè)了 35 萬(wàn)種蛋白質(zhì)結(jié)構(gòu),涵蓋了 98.5%的人類蛋白質(zhì)組,及其他 20 種生物幾乎完整的蛋白質(zhì)組。研究團(tuán)隊(duì)還公布了 AlphaFold2 的開(kāi)源代碼和技術(shù)細(xì)節(jié)。

RoseTTAFold 可十分鐘內(nèi)計(jì)算出蛋白質(zhì)結(jié)構(gòu)

同日,華盛頓大學(xué)蛋白設(shè)計(jì)研究所 David Baker 教授課題組及其他合作機(jī)構(gòu)在 Science 上發(fā)表論文 ,公布了其開(kāi)源蛋白質(zhì)預(yù)測(cè)工具 RoseTTAFold 的研究結(jié)果。研究團(tuán)隊(duì)探索了結(jié)合相關(guān)思想的網(wǎng)絡(luò)架構(gòu),并通過(guò)三軌網(wǎng)絡(luò)獲得了最佳性能。三軌網(wǎng)絡(luò)產(chǎn)生的結(jié)構(gòu)預(yù)測(cè)精度接近 CASP14 中的 DeepMind 團(tuán)隊(duì)的 AlphaFold2,且速度更快、所需計(jì)算機(jī)處理能力更低。僅用一臺(tái)游戲計(jì)算機(jī),在短短十分鐘內(nèi)就能可靠地計(jì)算出蛋白質(zhì)結(jié)構(gòu)。

其他研究進(jìn)展

8 月,中國(guó)研究人員使用 Alpha Fold2 繪制了近 200 種與 DNA 結(jié)合的蛋白質(zhì)結(jié)構(gòu)圖。11 月,德國(guó)和美國(guó)的研究人員利用 Alpha Fold2 和冷凍電鏡繪制了核孔復(fù)合物的結(jié)構(gòu)圖。12 月 22 日,深勢(shì)科技推出了蛋白結(jié)構(gòu)預(yù)測(cè)工具 Uni-Fold,在國(guó)內(nèi)首次復(fù)現(xiàn)谷歌 Alphafold2 全規(guī)模訓(xùn)練并開(kāi)源訓(xùn)練、推理代碼。

AI 技術(shù) 2021 年發(fā)展總結(jié)與展望

人工智能邁向“煉大模型”階段

今年是超大規(guī)模預(yù)訓(xùn)練模型的爆發(fā)之年。

去年,GPT-3 橫空出世,這個(gè)具有 1750 億參數(shù)規(guī)模的預(yù)訓(xùn)練模型所表現(xiàn)出來(lái)的零樣本與小樣本學(xué)習(xí)能力刷新了人們的認(rèn)知,也引爆了 2021 年 AI 大模型研究的熱潮。

谷歌、微軟、英偉達(dá)、智源人工智能研究院、阿里、百度、浪潮等國(guó)內(nèi)外科技巨頭和機(jī)構(gòu)紛紛展開(kāi)大模型研究和探索。

超大規(guī)模預(yù)訓(xùn)練模型的“軍備競(jìng)賽”

2021 年 1 月,Google 推出的 Switch Transformer 模型以高達(dá) 1.6 萬(wàn)億的參數(shù)量打破了 GPT-3 作為最大 AI 模型的統(tǒng)治地位,成為史上首個(gè)萬(wàn)億級(jí)語(yǔ)言模型。

國(guó)內(nèi)研究機(jī)構(gòu)也不甘示弱。今年 6 月,北京智源人工智能研究院發(fā)布了超大規(guī)模智能模型“悟道 2.0”,達(dá)到 1.75 萬(wàn)億參數(shù),超過(guò) Switch Transformer 成為全球最大的預(yù)訓(xùn)練模型。

值得一提的是,今年國(guó)產(chǎn)化大模型研發(fā)工作進(jìn)展飛速,華為、浪潮、阿里、百度等都發(fā)布了自研的大模型。

浪潮人工智能研究院首席研究員吳韶華向 InfoQ 表示,現(xiàn)在業(yè)界提高模型參數(shù)量有兩種技術(shù)路線,產(chǎn)生兩種不同的模型結(jié)構(gòu),一種是單體模型,一種是混合模型。如浪潮的源大模型,華為的盤(pán)古大模型、百度的文心大模型、英偉達(dá)聯(lián)合微軟發(fā)布的自然語(yǔ)言生成模型 MT-NLG 等走的都是單體模型路線;而智源的悟道模型、阿里 M6 等走的是混合模型路線。

預(yù)訓(xùn)練模型技術(shù)新進(jìn)展

OPPO 小布智能中心、 NLP 算法工程師曾冠榮認(rèn)為,預(yù)訓(xùn)練模型在今年取得的重要技術(shù)進(jìn)展有:

  • 知識(shí)表示和學(xué)習(xí)機(jī)理進(jìn)一步創(chuàng)新突破 隨著對(duì)預(yù)訓(xùn)練模型的深入理解,預(yù)訓(xùn)練模型的知識(shí)學(xué)習(xí)和表征的機(jī)理逐步明確,人們得以更加順利地往模型里注入需要其學(xué)習(xí)的知識(shí),在這些知識(shí)的加持下,對(duì)復(fù)雜任務(wù)的應(yīng)對(duì)能力得到了大幅提升。

  • 對(duì)比學(xué)習(xí)、自監(jiān)督和知識(shí)增強(qiáng)

以對(duì)比學(xué)習(xí)為中心,多種增強(qiáng)方法為工具的方式能進(jìn)一步提升預(yù)訓(xùn)練模型的語(yǔ)義理解和表征能力,增強(qiáng)方法的深入讓模型自監(jiān)督成為可能,讓對(duì)比學(xué)習(xí)對(duì)樣本,尤其是正樣本的依賴降低,數(shù)據(jù)依賴的降低勢(shì)必讓模型對(duì)少樣本甚至無(wú)樣本任務(wù)的適應(yīng)性提升,模型能更好地完成這類型的任務(wù),這將讓預(yù)訓(xùn)練模型落地的成本再降低一個(gè)層次。

降低 AI 規(guī)模化落地的門(mén)檻

預(yù)訓(xùn)練大模型降低了 AI 應(yīng)用的門(mén)檻,解決了 AI 應(yīng)用的兩個(gè)難題:數(shù)據(jù)和行業(yè)知識(shí)。它既不需要大量的標(biāo)注數(shù)據(jù),又保障了基礎(chǔ)底座。

在預(yù)訓(xùn)練模型的業(yè)務(wù)定制優(yōu)化和應(yīng)用方面,曾冠榮認(rèn)為,從第一個(gè)預(yù)訓(xùn)練語(yǔ)言模型 BERT 發(fā)布至今,已在多個(gè)熱門(mén)任務(wù)下得到應(yīng)用,逐步從一種“潮流”變成前沿技術(shù)的“基本操作”,如預(yù)訓(xùn)練模型已成為機(jī)器翻譯領(lǐng)域的基礎(chǔ)關(guān)鍵性技術(shù)。此外,預(yù)訓(xùn)練模型也成為大系統(tǒng)中的一部分,發(fā)揮著其語(yǔ)義理解的優(yōu)勢(shì)。

無(wú)論是業(yè)界還是科研,對(duì)預(yù)訓(xùn)練模型的使用方式逐漸靈活,能從預(yù)訓(xùn)練模型中拆解出適合任務(wù)的部分并組裝到自己的實(shí)際任務(wù)模型中。

時(shí)至今日,對(duì)預(yù)訓(xùn)練大模型的性能優(yōu)化仍未終止,在學(xué)界,仍有大量的研究在預(yù)訓(xùn)練模型的落地能力上努力,壓縮、剪枝、蒸餾的工作仍起到重要作用。不止于算法本身,編譯、引擎、硬件等方面的優(yōu)化也在大步邁進(jìn)。

小結(jié)和展望

吳韶華認(rèn)為,整體而言,現(xiàn)在大規(guī)模預(yù)訓(xùn)練模型的研究,包括模型結(jié)構(gòu)的演進(jìn)和落地仍處在探索階段,各家的持續(xù)探索正在不斷擴(kuò)大對(duì)大規(guī)模預(yù)訓(xùn)練模型的認(rèn)知邊界。

“大規(guī)模預(yù)訓(xùn)練模型是人工智能的最新技術(shù)高地,是對(duì)海量數(shù)據(jù)、高性能計(jì)算和學(xué)習(xí)理論原始創(chuàng)新的全方位考驗(yàn)”,清華大學(xué)教授、智源大模型技術(shù)委員會(huì)成員劉知遠(yuǎn)在接受 InfoQ 采訪時(shí)展望了明年大模型的發(fā)展趨勢(shì)。

劉知遠(yuǎn)表示,他明年將重點(diǎn)關(guān)注兩個(gè)層面的問(wèn)題:

一是人工智能技術(shù)正呈現(xiàn)“大一統(tǒng)”趨勢(shì),如預(yù)訓(xùn)練模型在 Prompt Tuning 等技術(shù)的支持下可用于很多不同的任務(wù),再如 Transformer 模型框架正在從自然語(yǔ)言處理擴(kuò)展到計(jì)算機(jī)視覺(jué)模態(tài),接下來(lái)我們也許會(huì)看到更多的從框架、模型和任務(wù)等方面推進(jìn)人工智能技術(shù)趨向統(tǒng)一的工作;另一個(gè)問(wèn)題是,隨著預(yù)訓(xùn)練模型規(guī)模增大,如何更好更高效地實(shí)現(xiàn)任務(wù)適配和推理計(jì)算,將是讓大模型飛入千家萬(wàn)戶的重要技術(shù)。

國(guó)產(chǎn)深度學(xué)習(xí)框架不再是“技術(shù)的跟隨者”

過(guò)去十年涌現(xiàn)了大量的 AI 算法和應(yīng)用,這背后都離不開(kāi)開(kāi)源深度學(xué)習(xí)框架提供的支持。

開(kāi)源深度學(xué)習(xí)框架是 AI 算法研發(fā)和 AI 應(yīng)用落地的“腳手架”,幫助 AI 研究員和開(kāi)發(fā)者大幅降低算法研發(fā)門(mén)檻,提升研發(fā)效率。

IDC 的調(diào)研顯示,中國(guó)人工智能領(lǐng)域 90%以上的產(chǎn)品都使用了開(kāi)源的框架、庫(kù)或者其他工具包。

新進(jìn)展,新趨勢(shì)

深度學(xué)習(xí)框架的發(fā)展核心是跟隨著深度學(xué)習(xí)領(lǐng)域的發(fā)展而前進(jìn)的。

開(kāi)源深度學(xué)習(xí)框架曠視天元 MegEngine 研發(fā)負(fù)責(zé)人許欣然在接受 InfoQ 采訪時(shí),分享了過(guò)去這一年他所觀察到的深度學(xué)習(xí)的新進(jìn)展:

(1)以 ViT、Swin 為代表的 Transformer 類模型開(kāi)始向 NLP 以外的領(lǐng)域進(jìn)軍,在更多場(chǎng)景中展現(xiàn)威力,讓“大”模型的趨勢(shì)愈演愈烈。

相應(yīng)的,深度學(xué)習(xí)框架也在訓(xùn)練大模型方面進(jìn)展頗多(如 DeepSpeed+ZeRO),多種混合并行方案層出不窮。無(wú)論是深度學(xué)習(xí)框架還是硬件廠商,都在思考 Transformer 是否是會(huì)長(zhǎng)期固定的計(jì)算 pattern。

(2)A100 這類顯卡的誕生,催生了一股從動(dòng)態(tài)圖回到靜態(tài)圖的趨勢(shì)。本身對(duì)動(dòng)態(tài)圖更友好的框架也紛紛嘗試通過(guò)編譯的方式提升效率,比如 PyTorch 的 LazyTensor、Jax 的 XLA。 很多國(guó)產(chǎn)框架也在嘗試通過(guò)動(dòng)靜結(jié)合的方式提升效率,比如曠視天元 MegEngine 推出的 Tensor Interpreter、MindSpore 的 Python 代碼轉(zhuǎn)靜態(tài)圖的方案等。

此外,MLIR 和 TVM 這兩個(gè)深度學(xué)習(xí)編譯器領(lǐng)域的燈塔都在快速增長(zhǎng),如何靠機(jī)器做好編譯也正成為各個(gè)深度學(xué)習(xí)框架研發(fā)的主要方向。同時(shí)隨著深度學(xué)習(xí)方法的持續(xù)發(fā)展,也誕生了更多的新興框架,如圖神經(jīng)網(wǎng)絡(luò)領(lǐng)域的 DGL。

技術(shù)自立之路

近兩年,國(guó)產(chǎn)深度學(xué)習(xí)框架陸續(xù)開(kāi)源且發(fā)展迅速,逐漸在開(kāi)源框架市場(chǎng)占有一席之地。

在技術(shù)研發(fā)方面,國(guó)產(chǎn)框架不再是技術(shù)的“跟隨者”的角色,研發(fā)出了很多領(lǐng)先的創(chuàng)新點(diǎn),比如 MegEngine 的 DTR 技術(shù)、OneFlow 的 SBP 并行方案和 MindSpore 的 AKG 等等。此外,在功能、代碼質(zhì)量和文檔等方面都達(dá)到了很高的水準(zhǔn)。

在開(kāi)源生態(tài)建設(shè)方面,各家也都持續(xù)投入,通過(guò)開(kāi)源社區(qū)扶植、產(chǎn)學(xué)研合作等方式,助力國(guó)產(chǎn)開(kāi)源生態(tài)的發(fā)展和人才培養(yǎng)。

業(yè)界現(xiàn)有的主流深度學(xué)習(xí)框架多來(lái)自國(guó)外大廠,目前,國(guó)內(nèi)企業(yè)自研的深度學(xué)習(xí)框架還沒(méi)有哪一款進(jìn)階成為國(guó)際主流的學(xué)習(xí)框架。

許欣然坦言,國(guó)產(chǎn)深度學(xué)習(xí)框架在生態(tài)建設(shè)上還有很長(zhǎng)的路要走,既需要持續(xù)投入、不斷完善生態(tài)建設(shè),也需要找到差異化的技術(shù)競(jìng)爭(zhēng)點(diǎn),充分結(jié)合我國(guó)國(guó)情和國(guó)產(chǎn)硬件,發(fā)揮好自身的技術(shù)優(yōu)勢(shì)和更好的生態(tài)洞察力。

研發(fā)難點(diǎn)

現(xiàn)階段,在深度學(xué)習(xí)框架方面,業(yè)界普遍面臨的研發(fā)難點(diǎn)主要體現(xiàn)在以下三個(gè)方面:

(1)在訓(xùn)練側(cè),NPU 開(kāi)始入場(chǎng),不少?gòu)S商已經(jīng)做出自己的訓(xùn)練芯片,如何高效對(duì)接訓(xùn)練 NPU 仍待解決;

(2)學(xué)術(shù)研究發(fā)展迅速,框架技術(shù)需要持續(xù)跟進(jìn),這為框架研發(fā)帶來(lái)了一定挑戰(zhàn)。接下來(lái)一段時(shí)間會(huì)持續(xù)一段大 Transformer 的趨勢(shì),那么,下一個(gè)趨勢(shì)是什么?

(3)算力提升速度更多地開(kāi)始依賴 DSA 硬件,只是單純的手寫(xiě) kernel 已難以支撐,框架需要更多的編譯技術(shù)、domain knowledge 才能不斷提升訓(xùn)練效率。 隨著 NPU、GPU 等芯片的快速迭代,包括 MLIR、XLA、TVM 在內(nèi)的編譯技術(shù)將受到更多關(guān)注。

將更好地支持大模型訓(xùn)練

隨著大模型的持續(xù)火熱,預(yù)期深度學(xué)習(xí)框架將在并行策略、重計(jì)算等能力上不斷提升,以更好地支持大模型的訓(xùn)練。

同時(shí),目前訓(xùn)練大模型仍需消耗大量資源,如何依靠深度學(xué)習(xí)框架的力量節(jié)省計(jì)算資源,甚至在更小規(guī)模上完成任務(wù),將是一個(gè)值得探索的技術(shù)方向。

智能語(yǔ)音這一年:技術(shù)突破不斷,工業(yè)落地加速

語(yǔ)?領(lǐng)域的?規(guī)模預(yù)訓(xùn)練模型層出不窮

字節(jié)跳動(dòng) AILAB 語(yǔ)?技術(shù)總監(jiān)?澤君向 InfoQ 表示,2021 年度,智能語(yǔ)音技術(shù)的演進(jìn)呈現(xiàn)出三個(gè)層面的趨勢(shì):

(1)基礎(chǔ)建模技術(shù)在打破領(lǐng)域邊界加速融合,如 Transformer 系列模型在?然語(yǔ)?、視覺(jué)和語(yǔ)?領(lǐng)域都展現(xiàn)出?致性的優(yōu)勢(shì),頗有“?統(tǒng)江湖”的意思。

(2) 超?規(guī)模?監(jiān)督學(xué)習(xí)技術(shù)(self-supervised learning)在上述多個(gè)領(lǐng)域展現(xiàn)出很強(qiáng)的通?學(xué)習(xí)能?,即在海量?標(biāo)簽數(shù)據(jù)上訓(xùn)練?規(guī)模通?預(yù)訓(xùn)練模型,然后?少量有標(biāo)簽數(shù)據(jù)做精細(xì)調(diào)整就能取得?常好的效果。

過(guò)去?年里,基于這種兩段訓(xùn)練模式的超?模型不斷刷新各項(xiàng)學(xué)術(shù)算法競(jìng)賽紀(jì)錄,在?業(yè)界也成為?種模型訓(xùn)練和調(diào)優(yōu)范式。

最近?年,F(xiàn)acebook、亞?遜、?歌和微軟等公司的研究學(xué)者陸續(xù)提出語(yǔ)?領(lǐng)域的?規(guī)模預(yù)訓(xùn)練模型, 如 Wav2vec、 HuBERT、 DecoAR、 BigSSL、WavLM 等。

(3)除基礎(chǔ)技術(shù)外,在不同應(yīng)?場(chǎng)合場(chǎng)景下,多個(gè)領(lǐng)域模態(tài)的技術(shù)也在快速相互融合,形成視覺(jué)、語(yǔ)?和語(yǔ)義結(jié)合的多模態(tài)綜合系統(tǒng),如虛擬數(shù)字?。

工業(yè)界落地加速

整體來(lái)說(shuō),智能語(yǔ)?技術(shù)在?業(yè)界的落地不斷加速,來(lái)?業(yè)務(wù)和技術(shù)兩個(gè)?向的合?共同作?牽引和驅(qū)動(dòng)應(yīng)?落地。

從應(yīng)?場(chǎng)景的牽引看,???如短中?視頻業(yè)務(wù),在全球仍保持著較?的增?速度,視頻內(nèi)容創(chuàng)作者和內(nèi)容消費(fèi)者活躍度很?;另???,疫情令居家辦公和遠(yuǎn)程協(xié)作的需求增?,智能語(yǔ)?技術(shù)能在視頻會(huì)議中提供通信增強(qiáng)和語(yǔ)?識(shí)別等關(guān)鍵能?,為參會(huì)者提供更佳的會(huì)議體驗(yàn);以智能汽?和虛擬現(xiàn)實(shí) VR/AR 為代表的新場(chǎng)景不斷出現(xiàn),需要更?便、更低延遲、更沉浸式的語(yǔ)?交互體驗(yàn)。

從核?技術(shù)的驅(qū)動(dòng)看,基礎(chǔ)模型改進(jìn)和?監(jiān)督技術(shù)不斷提升著模型性能上限,同時(shí)多模態(tài)技術(shù)融合使得技術(shù)?案的能?越來(lái)越強(qiáng),可?持更復(fù)雜的場(chǎng)景并帶來(lái)更好的體驗(yàn)。

商業(yè)化難點(diǎn)主要在于商業(yè)模式選擇

馬澤君認(rèn)為,現(xiàn)階段,智能語(yǔ)音商業(yè)化的難點(diǎn)主要是商業(yè)模式探索和路線選擇的問(wèn)題,具體包括如何更好地滿?需求,控制成本以及保證交付質(zhì)量。

???,AI 商業(yè)模式探索需要始終圍繞需求展開(kāi),提升模型效果和在真實(shí)場(chǎng)景中解決用戶或客戶的問(wèn)題不能等同。解決實(shí)際問(wèn)題需要 AI 研發(fā)?員深?業(yè)務(wù)場(chǎng)景,理解需求和條件限制,找到合理的產(chǎn)品技術(shù)?案,并不斷思考和抽象功能和技術(shù),沉淀通?的技術(shù)解決?案,探索驗(yàn)證可規(guī)模化的標(biāo)準(zhǔn)產(chǎn)品,降低定制周期和代價(jià)。

另???,AI 技術(shù)研發(fā)成本?常?,如何通過(guò)優(yōu)化算法低對(duì)領(lǐng)域數(shù)據(jù)依賴,建設(shè)?動(dòng)化平臺(tái)降低??消耗和提升研發(fā)流程效率對(duì)成本控制?常關(guān)鍵。

最后還要重視交付質(zhì)量和售后服務(wù)。只有同時(shí)做好上述三個(gè)環(huán)節(jié),才能完成從需求到交付到服務(wù)的整個(gè)鏈路,從而奠定規(guī)模商業(yè)化的基礎(chǔ)。

端到端和預(yù)訓(xùn)練等技術(shù)仍然值得關(guān)注

  • 端到端序列建模技術(shù)

(1)準(zhǔn)確率和推理速度更上?層樓的端到端技術(shù)值得期待,其中對(duì)?機(jī)制(alignment

mechanism)是端到端序列建模的關(guān)鍵。字節(jié)跳動(dòng) AILAB 正在探索的連續(xù)整合發(fā)放 CIF 模型(Continuous Integrate-and-Fire)是一種創(chuàng)新的序列端到端建模對(duì)齊機(jī)制,具有軟對(duì)齊、計(jì)算代價(jià)低和容易擴(kuò)展的特性。

(2)在端側(cè)設(shè)備上的端到端語(yǔ)?識(shí)別和合成技術(shù)落地值得關(guān)注,特別是輕量級(jí)、低功耗、?準(zhǔn)確度和定制靈活的端到端語(yǔ)?識(shí)別和合成技術(shù)。

(3)端到端語(yǔ)?識(shí)別技術(shù)?向的熱詞定制和領(lǐng)域?適應(yīng)技術(shù)?常可能有重?進(jìn)展。

  • ?監(jiān)督預(yù)訓(xùn)練技術(shù) (1)超?數(shù)據(jù)規(guī)模和模型 size 的語(yǔ)??監(jiān)督預(yù)訓(xùn)練技術(shù)值得關(guān)注,語(yǔ)??監(jiān)督預(yù)訓(xùn)練的 BERT 已經(jīng)出現(xiàn)(Wav2vec2.0/Hubert), 語(yǔ)??監(jiān)督預(yù)訓(xùn)練的 GPT-3 很可能在 2022 年到來(lái)。

(2)多模態(tài)語(yǔ)??監(jiān)督預(yù)訓(xùn)練技術(shù)也?常吸引?,該技術(shù)可能會(huì)極?地提升預(yù)訓(xùn)練模型的表征能?,從?帶來(lái)?監(jiān)督預(yù)訓(xùn)練技術(shù)更?范圍的落地應(yīng)?。

(3)無(wú)監(jiān)督預(yù)訓(xùn)練技術(shù)在語(yǔ)?合成、?樂(lè)分類、?樂(lè)識(shí)別領(lǐng)域的應(yīng)?同樣值得關(guān)注,借助?監(jiān)督預(yù)訓(xùn)練的聲學(xué)?頻表征,可以有效提升下游任務(wù)的性能。

  • 語(yǔ)?對(duì)抗攻擊與防御技術(shù)。 (1)語(yǔ)?領(lǐng)域的對(duì)抗攻擊,從攻擊?段上來(lái)看,將從當(dāng)前的?盒攻擊,進(jìn)?步進(jìn)化成?盒攻擊;從攻擊內(nèi)容來(lái)看,將從當(dāng)前流?的 untarget 攻擊進(jìn)化成 target 攻擊。

群雄逐鹿,誰(shuí)能贏得自動(dòng)駕駛之戰(zhàn)?

2021 年,自動(dòng)駕駛領(lǐng)域格外熱鬧。

造車(chē)熱

今年,互聯(lián)網(wǎng)大廠、新造車(chē)勢(shì)力和傳統(tǒng)企業(yè)紛紛進(jìn)場(chǎng)布局自動(dòng)駕駛,可以說(shuō)能下場(chǎng)的巨頭們基本上都下場(chǎng)造車(chē)了,自動(dòng)駕駛“戰(zhàn)場(chǎng)”群雄逐鹿,不知未來(lái)誰(shuí)執(zhí)牛耳?

在資本市場(chǎng)上,自動(dòng)駕駛也備受追捧。據(jù)零壹智庫(kù)分析,繼 2016-2018 年熱潮之后,2021 年自動(dòng)駕駛領(lǐng)域迎來(lái)第二次投資熱潮。今年 11 月,Momenta 完成超 10 億美元 C 輪系列融資,創(chuàng)下本年度自動(dòng)駕駛領(lǐng)域最大規(guī)模融資記錄。

商業(yè)化前夜

Robotaxi 是自動(dòng)駕駛最有價(jià)值的商業(yè)模式,現(xiàn)階段,很多自動(dòng)駕駛技術(shù)公司都在做 Robotaxi 的嘗試。今年,很多自動(dòng)駕駛車(chē)輛從封閉路測(cè)場(chǎng)地走向真實(shí)道路。百度、小馬智行、文遠(yuǎn)知行、等企業(yè)已實(shí)現(xiàn)面向公眾的示范運(yùn)營(yíng),開(kāi)始探索商業(yè)化。11 月,國(guó)內(nèi)首個(gè)自動(dòng)駕駛出行服務(wù)商業(yè)化試點(diǎn)在北京正式啟動(dòng),百度和小馬智行成為首批獲許開(kāi)展商業(yè)化試點(diǎn)的企業(yè)。業(yè)內(nèi)人士認(rèn)為,這標(biāo)志著國(guó)內(nèi)自動(dòng)駕駛領(lǐng)域從測(cè)試示范邁入商業(yè)化試點(diǎn)探索新階段。

今年,自動(dòng)駕駛卡車(chē)賽道也格外火熱,量產(chǎn)和商業(yè)化均提速,頭部玩家走向上市。近日,毫末智行董事長(zhǎng)張凱在接受 InfoQ 等媒體采訪時(shí)談到了自動(dòng)駕駛卡車(chē)的發(fā)展,他表示,相對(duì)乘用車(chē)輔助自動(dòng)駕駛運(yùn)行場(chǎng)景的復(fù)雜性,RoboTruck 具有一些優(yōu)勢(shì),例如長(zhǎng)時(shí)間運(yùn)行在較暢通的高速公路上,運(yùn)行場(chǎng)景相對(duì)簡(jiǎn)單。現(xiàn)階段,RoboTruck 走得是類似于乘用車(chē)般從輔助駕駛到無(wú)人駕駛漸進(jìn)式的發(fā)展路線。從發(fā)展前景看,Robotruck 具備商業(yè)化閉環(huán)的可行性,但自動(dòng)駕駛系統(tǒng)的量產(chǎn)將會(huì)是一個(gè)坎。

毫末智行 COO 侯軍認(rèn)為,2021 年是自動(dòng)駕駛的爆發(fā)之年。一方面,得益于技術(shù)的持續(xù)進(jìn)步、市場(chǎng)需求、政策加持、資本看好等各方面因素,高級(jí)別自動(dòng)駕駛在落地探索方面,已有了初步的成果;另一方面,智能駕駛商業(yè)化落地也在快速滲透,開(kāi)始走向量產(chǎn)時(shí)代。

2022,這些技術(shù)將是下半場(chǎng)競(jìng)爭(zhēng)勝負(fù)的關(guān)鍵

根據(jù)張凱的預(yù)判,“2022 年將是自動(dòng)駕駛行業(yè)發(fā)展最為關(guān)鍵的一年。乘用車(chē)輔助駕駛領(lǐng)域的競(jìng)爭(zhēng)將會(huì)正式進(jìn)入下半場(chǎng),而下半場(chǎng)競(jìng)爭(zhēng)的場(chǎng)景將會(huì)是城市開(kāi)放場(chǎng)景。其他場(chǎng)景的自動(dòng)駕駛也將正式進(jìn)入商業(yè)化元年”。

張凱認(rèn)為,2022 年,多項(xiàng)自動(dòng)駕駛技術(shù)值得關(guān)注。

(1)數(shù)據(jù)智能將成為自動(dòng)駕駛量產(chǎn)決勝的關(guān)鍵。 數(shù)據(jù)智能體系是自動(dòng)駕駛商業(yè)化閉環(huán)的關(guān)鍵所在,搭建高效、低成本的數(shù)據(jù)智能體系有助于推動(dòng)自動(dòng)駕駛系統(tǒng)不斷迭代前行。

(2)Transformer 與 CNN 技術(shù)深度融合,將會(huì)成為自動(dòng)駕駛算法整合的粘合劑。Transformer 技術(shù)幫助自動(dòng)駕駛感知系統(tǒng)理解環(huán)境語(yǔ)義更深刻,與 CNN 技術(shù)深度融合能解決 AI 大模型量產(chǎn)部署的難題,這是自動(dòng)駕駛行業(yè)下半場(chǎng)競(jìng)爭(zhēng)的關(guān)鍵技術(shù)。

(3)大算力計(jì)算平臺(tái)將在 2022 年正式量產(chǎn)落地,Transformer 技術(shù)與 ONESTAGE CNN 技術(shù)都需要大算力計(jì)算平臺(tái)做支撐。

(4)隨著自動(dòng)駕駛系統(tǒng)的量產(chǎn)和規(guī)模化,激光雷達(dá)與機(jī)器視覺(jué)組成的 AI 感知技術(shù),將與大算力計(jì)算平臺(tái)深度融合,這將大幅提升自動(dòng)駕駛感知、認(rèn)知模塊的運(yùn)行效率。

NLP,黃金時(shí)代持續(xù)?

這幾年,NLP 處于快速發(fā)展階段。去年,多位 NLP 專家評(píng)判,NLP 迎來(lái)了大爆發(fā)的黃金時(shí)代。那么今年,NLP 的發(fā)展情況如何?

基于提示的微調(diào)技術(shù)迅速流行

作業(yè)幫產(chǎn)研中心蔣宏飛博士告訴 InfoQ,今年基于提示的微調(diào) (prompt-based tuning)的技術(shù)迅速流行起來(lái),這是一種人類知識(shí)和大模型較高效的結(jié)合模式。該技術(shù)是今年較值得關(guān)注的新進(jìn)展。

“今年 NLP 在基礎(chǔ)模型方面沒(méi)有大的突破。預(yù)訓(xùn)練模型方面,今年涌現(xiàn)了很多很大的模型,但整體上同質(zhì)化也較嚴(yán)重,對(duì)于工業(yè)界實(shí)踐效果來(lái)講,往往按照‘奧卡姆剃刀’原則,傾向于使用最適當(dāng)?shù)娜?Bert 往往就夠了”蔣宏飛表示。

現(xiàn)階段,NLP 技術(shù)在發(fā)展過(guò)程中還存在不少技術(shù)挑戰(zhàn),其中之一便是很難獲取到大量高質(zhì)量的標(biāo)注數(shù)據(jù)。深度學(xué)習(xí)依賴大規(guī)模標(biāo)注數(shù)據(jù),對(duì)于語(yǔ)音識(shí)別、圖像處理等感知類任務(wù),標(biāo)注數(shù)據(jù)相對(duì)容易,但 NLP 往往是認(rèn)識(shí)類任務(wù),人的理解都有主觀性,且任務(wù)和領(lǐng)域眾多,導(dǎo)致大規(guī)模語(yǔ)料標(biāo)注的時(shí)間成本和人力成本都很大。

與 CV、語(yǔ)音識(shí)別相比,NLP 項(xiàng)目在業(yè)務(wù)中落地往往較慢

NLP 落地項(xiàng)目往往和業(yè)務(wù)強(qiáng)相關(guān)。不像圖像識(shí)別、語(yǔ)音識(shí)別,通用能力在具體業(yè)務(wù)也有大量落地場(chǎng)景,業(yè)務(wù)和算法協(xié)作邊界和指標(biāo)相對(duì)好確定。而 NLP 項(xiàng)目在業(yè)務(wù)中落地往往會(huì)比較慢,需要上下游不斷深度磨合對(duì)齊。

NLP 解決的是最難的認(rèn)知智能,而人類語(yǔ)言的歧義性、復(fù)雜性、動(dòng)態(tài)性令其挑戰(zhàn)重重。但 NLP 商業(yè)化落地必須面對(duì)這些本質(zhì)的難題,所以不太可能有通用性的“一招吃遍天”的技術(shù)方案。

“盡管現(xiàn)在的預(yù)訓(xùn)練模型一直在往這個(gè)方向努力,但我認(rèn)為起碼目前這種 Transformer 式的,或者更通用地說(shuō),DNN 這種蜂巢智能式的技術(shù)范式不太行。所以,大家能看到也有不少研究學(xué)者在知識(shí)圖譜類的各種其他范式上在做努力”蔣宏飛說(shuō)。

通用性的模型既然走不通,那垂類單一具體場(chǎng)景任務(wù)為什么也不能快速搭建?這個(gè)問(wèn)題又涉及到數(shù)據(jù)的問(wèn)題。數(shù)據(jù)標(biāo)準(zhǔn)的對(duì)齊、數(shù)據(jù)標(biāo)注一致且高效、數(shù)據(jù)覆蓋度和均衡度、長(zhǎng)尾數(shù)據(jù)的處理、數(shù)據(jù)動(dòng)態(tài)漂移等都是 NLP 從業(yè)者每天面對(duì)的麻煩事。而相關(guān)的方法論和基礎(chǔ)工具還很不系統(tǒng)、不齊備,這是未來(lái)想達(dá)到快速商業(yè)化目的前必須打好的基礎(chǔ)。

明年,NLP 將在哪些場(chǎng)景實(shí)現(xiàn)規(guī)模化落地?

2022 年,NLP 的大規(guī)模化應(yīng)用可能會(huì)出現(xiàn)在以下行業(yè)出現(xiàn)突破:

  • 教育智能化

  • 場(chǎng)景化高標(biāo)準(zhǔn)機(jī)器輔助翻譯,如專業(yè)領(lǐng)域文檔翻譯、會(huì)議實(shí)時(shí)翻譯等。

  • 服務(wù)運(yùn)營(yíng)智能化:培訓(xùn)、銷售、營(yíng)銷、服務(wù)等場(chǎng)景的智能化。

  • 外文學(xué)習(xí)/寫(xiě)作智能輔助,參考 Grammarly 和 Duolingo 的快速發(fā)展。

  • 醫(yī)療智能化。文本廣泛存在于電子病歷、臨床試驗(yàn)報(bào)告、醫(yī)學(xué)產(chǎn)品說(shuō)明書(shū)、醫(yī)學(xué)文獻(xiàn)中。分析、挖掘和利用這些文本,有大量且能直接使用的場(chǎng)景,可能會(huì)有突破式發(fā)展。

  • 代碼智能分析。代碼 bug 識(shí)別、代碼智能優(yōu)化等。

2022 年,NLP 值得關(guān)注的技術(shù)點(diǎn)

  • 基于提示的微調(diào) (prompt-based tuning)的技術(shù)。

  • 具有邏輯推理的文本生成技術(shù)、具有良好控制性以及一致性的文本生成技術(shù)。文本生成要在嚴(yán)肅場(chǎng)景用起來(lái)就必須滿足這些,否則只能應(yīng)用在娛樂(lè)場(chǎng)景。

  • 多模態(tài)技術(shù)。如 NLP+CV、 NLP + Image、 NLP+ Speech 等。

  • 主動(dòng)學(xué)習(xí)、數(shù)據(jù)增強(qiáng)等。NLP 大規(guī)模快速落地時(shí)的很多痛點(diǎn)需要這些技術(shù)來(lái)緩解。

  • 代碼智能。代碼問(wèn)題識(shí)別、代碼翻譯、自動(dòng)代碼優(yōu)化、代碼工作量評(píng)估(如 Merico 的方案)。

元宇宙概念大火,計(jì)算機(jī)視覺(jué)是基石技術(shù)之一

回首過(guò)去的一年,OPPO AI 技術(shù)產(chǎn)品化專家(語(yǔ)音語(yǔ)義和計(jì)算機(jī)視覺(jué)以及多模態(tài)融合方向)何苗總結(jié)了計(jì)算機(jī)視覺(jué)在工業(yè)界和學(xué)術(shù)界的進(jìn)展。

具身智能,從被動(dòng)式 AI 轉(zhuǎn)向主動(dòng)式人工智能

具身智能(embodied AI),強(qiáng)調(diào)智能體(agent)要與真實(shí)世界進(jìn)行交互,并通過(guò)多模態(tài)的交互 — 不僅僅是讓 AI 學(xué)習(xí)提取視覺(jué)上的高維特征,被“輸入”的認(rèn)知世界,而是通過(guò)“眼耳鼻舌身意”六根來(lái)主動(dòng)獲取物理世界的真實(shí)反饋,通過(guò)反饋進(jìn)一步讓智能體學(xué)習(xí)并使其更“智能”、乃至“進(jìn)化”。

今年 2 月,李飛飛提出了一套新的計(jì)算框架—— DERL(deep evolution reinforcement learning)深度進(jìn)化強(qiáng)化學(xué)習(xí)。她提到了生物進(jìn)化論與智能體進(jìn)化的關(guān)系,并借鑒了進(jìn)化論的理論應(yīng)用于假設(shè)的智能體的進(jìn)化學(xué)習(xí)中。

進(jìn)入元宇宙,需要智能感知和交互這張門(mén)票

今年,元宇宙概念大火,各家紛紛入局。

Facebook 極為推崇元宇宙,為了表示投入元宇宙的決心,今年,F(xiàn)acebook 改名為 meta,并宣布 “all in 元宇宙”。

扎克伯格提出云宇宙需要具備八要素,其中之一是 Presence 開(kāi)發(fā)平臺(tái)/套件。Presence 是 meta 為 Oculus VR 頭顯開(kāi)發(fā)者提供的元宇宙基礎(chǔ)開(kāi)發(fā)套件,提供的即為基于計(jì)算機(jī)視覺(jué)和智能語(yǔ)音技術(shù)的工具集,分別是 insight sdk、interaction sdk 和 voice sdk。

進(jìn)入元宇宙需要智能感知與交互技術(shù)這張門(mén)票,而這張門(mén)票里的視覺(jué)和語(yǔ)音技術(shù)是最重要的基石。

趨勢(shì)一:面向內(nèi)容生成的 AIGC

元宇宙世界需要孿生大量現(xiàn)實(shí)世界的物體或是對(duì)于現(xiàn)實(shí)世界的人物進(jìn)行重建,而這些海量的重建必然不能按照傳統(tǒng)游戲世界中的方法,由 CG 工程師一個(gè)個(gè)手工制作,這樣效率遠(yuǎn)遠(yuǎn)無(wú)法滿足實(shí)際場(chǎng)景的需求。因此面向內(nèi)容生成的 AIGC(算法層面)是必要的。相關(guān)技術(shù)方向包括:圖像超分、domain 遷移、外推、類似 CLIP(對(duì)比式語(yǔ)言圖像預(yù)訓(xùn)練模型,可以從自然語(yǔ)言監(jiān)督中有效學(xué)習(xí)視覺(jué)模型)的隱式神經(jīng)表示 — 通過(guò)文字描述來(lái)生成圖像等多模態(tài)的(CV+NLP)等相關(guān)技術(shù)。

趨勢(shì)二:SCV 合成

虛擬現(xiàn)實(shí)引擎有專門(mén)的生成合成數(shù)據(jù)的組件,這些合成數(shù)據(jù)不僅美觀,而且有助于訓(xùn)練更好的算法。

生成/合成的數(shù)據(jù)不僅是元宇宙的必備要素,也是訓(xùn)練模型的重要原料。如果有合適的工具來(lái)構(gòu)建數(shù)據(jù)集,就可省去繁瑣的給數(shù)據(jù)手工打標(biāo)的過(guò)程,更好地對(duì)計(jì)算機(jī)視覺(jué)算法進(jìn)行開(kāi)發(fā)和訓(xùn)練。

知名數(shù)據(jù)分析公司 Gartner 認(rèn)為在未來(lái) 3 年中,合成數(shù)據(jù)將比真實(shí)數(shù)據(jù)更占優(yōu)勢(shì)。在合成計(jì)算機(jī)視覺(jué)(SCV)中,我們使用虛擬現(xiàn)實(shí)引擎訓(xùn)練計(jì)算機(jī)視覺(jué)模型,并將訓(xùn)練好的模型部署到現(xiàn)實(shí)世界。

制約知識(shí)圖譜商業(yè)化落地的主要問(wèn)題在于標(biāo)準(zhǔn)化

重要技術(shù)進(jìn)展

知識(shí)圖譜技術(shù)在過(guò)去這一年取得的重要技術(shù)進(jìn)展有:

知識(shí)抽取方面,多模態(tài)信息抽取在同時(shí)處理文本和視頻方面取得了進(jìn)展;知識(shí)表示方面,自注意力機(jī)制的知識(shí)表示方法越來(lái)越走向?qū)嵱茫恢R(shí)應(yīng)用方面,很多行業(yè)開(kāi)始構(gòu)建行業(yè)知識(shí)庫(kù),用于各類下游任務(wù)。

明略科技資深科學(xué)家張杰在接受 InfoQ 采訪時(shí)指出,現(xiàn)階段,在知識(shí)圖譜方面,業(yè)界普遍面臨的研發(fā)難點(diǎn)主要體現(xiàn)在兩個(gè)方面:算法方面,針對(duì)非結(jié)構(gòu)化數(shù)據(jù)的信息抽取和實(shí)體對(duì)齊的準(zhǔn)確度難以保障直接商用,需人工校驗(yàn);工程方面,行業(yè)圖譜構(gòu)建成本高,需要大量的人工標(biāo)注,另外構(gòu)建進(jìn)度也不是一蹴而就,需要業(yè)務(wù)專家不斷運(yùn)維。

張杰預(yù)測(cè),2022 年,領(lǐng)域預(yù)訓(xùn)練語(yǔ)言模型和 Prompt 在知識(shí)圖譜中的應(yīng)用,有望使得信息抽取環(huán)節(jié)得到進(jìn)一步提升。針對(duì)技能性知識(shí)的抽取技術(shù)和多模態(tài)抽取技術(shù),商用前景廣闊。

應(yīng)用落地進(jìn)展

2021 年,知識(shí)圖譜技術(shù)的應(yīng)用落地,在 ToC 場(chǎng)景中仍主要用于搜索、推薦的提升,在 ToB 場(chǎng)景中集中在可視化上。

張杰認(rèn)為,現(xiàn)階段,制約知識(shí)圖譜商業(yè)化落地的主要因素在于標(biāo)準(zhǔn)化,行業(yè)圖譜的 schema 很難在企業(yè)內(nèi)部大范圍內(nèi)達(dá)成認(rèn)知的一致性,影響了后續(xù)的標(biāo)注、抽取、應(yīng)用。

2022 年,知識(shí)圖譜技術(shù)的大規(guī)模化應(yīng)用可能會(huì)在制造業(yè)出現(xiàn)突破,制造業(yè)的知識(shí)密度高、重視標(biāo)準(zhǔn)化,頭部企業(yè)重視數(shù)字化建設(shè),積累了大量原始數(shù)據(jù)。

2022 年,值得關(guān)注的重要技術(shù)趨勢(shì)

人工智能工程化

近兩年,人工智能工程化(AI Engineering)格外受關(guān)注。在 Gartner 發(fā)布的 2021 年和 2022 年重要戰(zhàn)略技術(shù)趨勢(shì)中,人工智能工程化都被列入其中。人工智能工程化是一種實(shí)現(xiàn)人工智能模型操作化的綜合方法。

不久前,Gartner 高級(jí)研究總監(jiān)高挺曾在接受 InfoQ 采訪時(shí)表示,AI 工程化本質(zhì)上是 AI 在企業(yè)中大規(guī)模、全流程的落地過(guò)程,盡管目前大家現(xiàn)在對(duì) AI 期待很高,但實(shí)際上 AI 目前的應(yīng)用仍然是被低估的。因?yàn)椋芏?AI 項(xiàng)目的價(jià)值只能體現(xiàn)在一些“點(diǎn)對(duì)點(diǎn)”的一次性的方案中。將 AI 大規(guī)模落地的工程化方法(包含 DataOps、ModelOps 和 DevOps)總和起來(lái),便是“AI 的工程化”的一整套體系。

人工智能工程化對(duì)企業(yè)有很多好處,企業(yè)在進(jìn)行人工智能落地的時(shí)候,落地效率、落地廣泛度會(huì)更高。

可以預(yù)見(jiàn),人工智能工程化將會(huì)是未來(lái) 2-3 年需要持續(xù)關(guān)注的方向,人工智能工程化應(yīng)該關(guān)注三大核心要點(diǎn):數(shù)據(jù)運(yùn)維、模型運(yùn)維、開(kāi)發(fā)運(yùn)維。

Gartner 預(yù)測(cè),到 2025 年,10%建立人工智能工程化最佳實(shí)踐的企業(yè)從其人工智能工作中產(chǎn)生的價(jià)值將至少比 90%未建立該實(shí)踐的企業(yè)高出三倍。

生成式 AI 漸成趨勢(shì)

生成式人工智能(Generative Artificial Intelligence)也被 Gartner 評(píng)為 2022 年重要戰(zhàn)略技術(shù)趨勢(shì)之一。

該機(jī)器學(xué)習(xí)方法從其數(shù)據(jù)中學(xué)習(xí)內(nèi)容或?qū)ο螅⑦\(yùn)用數(shù)據(jù)生成全新、完全原創(chuàng)的實(shí)際工件。人們可以用 AI 來(lái)創(chuàng)造出一些新事物,如內(nèi)容創(chuàng)作、創(chuàng)建軟件代碼、輔助藥物研發(fā)等。

近日,機(jī)器學(xué)習(xí)大牛吳恩達(dá)發(fā)文回顧了 AI 在 2021 年的四個(gè)重要進(jìn)展,其中之一便是,AI 生成音頻內(nèi)容呈現(xiàn)出主流化傾向。現(xiàn)在音樂(lè)家和電影制作人們,已經(jīng)習(xí)慣于使用 AI 支持型音頻制作工具。

在國(guó)內(nèi)的優(yōu)酷、愛(ài)奇藝等視頻平臺(tái),AI 也已經(jīng)廣泛用于音、視頻的內(nèi)容生產(chǎn)和創(chuàng)作中,如 AI 輔助視頻制作、智能字幕生成、智能翻譯、特效生成等。

Gartner 認(rèn)為,未來(lái)一段時(shí)間內(nèi),AI 會(huì)逐漸從一個(gè)做判斷的機(jī)器變成一個(gè)做創(chuàng)造的機(jī)器。預(yù)計(jì)到 2025 年,生成式人工智能將占所有生成數(shù)據(jù)的 10%,而目前這一比例還不到 1%。

不過(guò)該技術(shù)還存在一定的爭(zhēng)議,如會(huì)被濫用于詐騙、欺詐、政治造謠、偽造身份等,存在道德和法律風(fēng)險(xiǎn)。

元宇宙,狂熱的新風(fēng)口

2021 年,可能沒(méi)什么技術(shù)名詞比“元宇宙”熱度更高了。全球很多公司都在講元宇宙的概念,認(rèn)為元宇宙是指向互聯(lián)網(wǎng)的“終極形態(tài)”。如今,移動(dòng)互聯(lián)網(wǎng)的紅利已經(jīng)見(jiàn)頂,不知道互聯(lián)網(wǎng)的盡頭是否會(huì)是元宇宙?

所謂元宇宙,是一個(gè)虛擬時(shí)空間的集合, 由一系列的增強(qiáng)現(xiàn)實(shí)(AR), 虛擬現(xiàn)實(shí)(VR) 和互聯(lián)網(wǎng)(Internet)所組成。元宇宙的實(shí)現(xiàn),仰賴一系列前沿技術(shù)作支撐,包括人工智能、VR/VR、5G、云計(jì)算、大數(shù)據(jù)、區(qū)塊鏈等基礎(chǔ)設(shè)施。

元宇宙中可以重點(diǎn)關(guān)注的細(xì)分賽道有 VR/AR 、游戲、社交、Metahuman 等。文娛基金易凱資本在其元宇宙報(bào)告中也表示,長(zhǎng)期看好基于上述形態(tài)的底層技術(shù)公司。易凱資本預(yù)測(cè),在未來(lái)十年,元宇宙概念將依舊集中于社交、游戲、內(nèi)容等娛樂(lè)領(lǐng)域,到 2030 年會(huì)滲透到提升生產(chǎn)生活效率的領(lǐng)域。

寫(xiě)在最后

總結(jié)人工智能在 2021 年的發(fā)展,涌現(xiàn)了不少激動(dòng)人心的重大突破,人工智能也正在賦能、改變甚至顛覆許多行業(yè)。當(dāng)然也仍有很多難點(diǎn)需要投入更多時(shí)間攻克。

近日,李彥宏對(duì) AI 的未來(lái)發(fā)表評(píng)論:“人機(jī)共生”時(shí)代,中國(guó)將迎來(lái) AI 黃金十年。而未來(lái)十年,AI 技術(shù)應(yīng)用門(mén)檻將顯著降低,為各行各業(yè)的智能化轉(zhuǎn)型提供技術(shù)“大底座”。

人工智能發(fā)展已漸入深水區(qū),期待明年以及之后的 10 年,人工智能能夠在技術(shù)和落地上取得更多進(jìn)展,為下一個(gè)“黃金十年”而努力。

采訪嘉賓介紹(按姓名首字母排序):

何苗,OPPO AI 技術(shù)產(chǎn)品化專家

侯軍,毫末智行 COO

蔣宏飛,作業(yè)幫產(chǎn)研中心

劉知遠(yuǎn),清華大學(xué)教授、智源大模型技術(shù)委員會(huì)成員

?澤君,字節(jié)跳動(dòng) AILAB 語(yǔ)?技術(shù)總監(jiān)

吳韶華,浪潮人工智能研究院首席研究員

許欣然,曠視天元 MegEngine 研發(fā)負(fù)責(zé)人

曾冠榮,OPPO 小布智能中心、 NLP 算法工程師

張杰,明略科技資深科學(xué)家

張凱,毫末智行董事長(zhǎng)

來(lái)源 | InfoQ

]]>
http://www.hualongw.cn/%e8%a7%a3%e8%af%bb%e4%ba%ba%e5%b7%a5%e6%99%ba%e8%83%bd%e7%9a%84-2021%ef%bc%9a%e8%b6%85%e5%a4%a7%e8%a7%84%e6%a8%a1%e9%a2%84%e8%ae%ad%e7%bb%83%e6%a8%a1%e5%9e%8b%e7%88%86%e5%8f%91%ef%bc%8c%e8%87%aa/feed/ 0
北航成立人工智能研究院:整合全校AI資源,建設(shè)“新工科”典范 http://www.hualongw.cn/%e5%8c%97%e8%88%aa%e6%88%90%e7%ab%8b%e4%ba%ba%e5%b7%a5%e6%99%ba%e8%83%bd%e7%a0%94%e7%a9%b6%e9%99%a2%ef%bc%9a%e6%95%b4%e5%90%88%e5%85%a8%e6%a0%a1ai%e8%b5%84%e6%ba%90%ef%bc%8c%e5%bb%ba%e8%ae%be/ http://www.hualongw.cn/%e5%8c%97%e8%88%aa%e6%88%90%e7%ab%8b%e4%ba%ba%e5%b7%a5%e6%99%ba%e8%83%bd%e7%a0%94%e7%a9%b6%e9%99%a2%ef%bc%9a%e6%95%b4%e5%90%88%e5%85%a8%e6%a0%a1ai%e8%b5%84%e6%ba%90%ef%bc%8c%e5%bb%ba%e8%ae%be/#respond Fri, 17 Jan 2020 08:14:06 +0000 https://new.openi.org.cn/%e5%8c%97%e8%88%aa%e6%88%90%e7%ab%8b%e4%ba%ba%e5%b7%a5%e6%99%ba%e8%83%bd%e7%a0%94%e7%a9%b6%e9%99%a2%ef%bc%9a%e6%95%b4%e5%90%88%e5%85%a8%e6%a0%a1ai%e8%b5%84%e6%ba%90%ef%bc%8c%e5%bb%ba%e8%ae%be/
北航成立人工智能研究院:整合全校AI資源,建設(shè)“新工科”典范

近日北京航空航天舉行人工智能研究院成立大會(huì),這也是繼武漢大學(xué)在2019年11月22日成立人工智能研究院之后,又一雙一流高校具體落實(shí)人工智能工作布局。

北航成立人工智能研究院:整合全校AI資源,建設(shè)“新工科”典范

校黨委書(shū)記曹淑敏、校長(zhǎng)徐惠彬,人工智能研究院院長(zhǎng)鄭志明、黨委書(shū)記金蓉為研究院揭牌。從左到右依次為金蓉、徐惠彬、曹淑敏和鄭志明。

新成立的人工智能研究院院長(zhǎng)由鄭志明院士擔(dān)任。鄭院士是北京航空航天大學(xué)教授,2017年當(dāng)選為中國(guó)科學(xué)院院士,主要工作集中于空天信息安全與復(fù)雜信息系統(tǒng)等數(shù)學(xué)與信息交叉領(lǐng)域的研究。他創(chuàng)立了動(dòng)力學(xué)密碼——基于代數(shù)和動(dòng)力學(xué)融合的密碼分析原理和方法,突破空天信息安全高速、低耗、多模式等技術(shù)瓶頸,研制成功系列空天安全新裝備并列裝。

北航成立人工智能研究院:整合全校AI資源,建設(shè)“新工科”典范

鄭志明院士
 

據(jù)鄭志明院士表示,北航人工智能研究院將以面向科學(xué)數(shù)據(jù)的精準(zhǔn)智能理論為基礎(chǔ),并由智能理論核心、智能技術(shù)平臺(tái)和智能應(yīng)用系統(tǒng)組成建設(shè)路線和下一步規(guī)劃設(shè)想。鄭志明院士在發(fā)言表示:特別要指出的是,我校人工智能發(fā)展論證的結(jié)論,與當(dāng)前很多國(guó)內(nèi)外人工智能研究機(jī)構(gòu)的研究特點(diǎn)有非常顯著的不同。我們是在原有的良好的理論、技術(shù)、應(yīng)用基礎(chǔ)上開(kāi)展的。今后人工智能的發(fā)展,無(wú)論理論、技術(shù)還是應(yīng)用,都將會(huì)遷移到面向科學(xué)數(shù)據(jù)的精準(zhǔn)智能理論之上,這個(gè)理論是我們學(xué)校多年發(fā)展起來(lái)的理論。從精準(zhǔn)智能理論原始創(chuàng)新導(dǎo)出顛覆性的技術(shù),到變革性的應(yīng)用,不僅學(xué)術(shù)站位高,同時(shí)將推動(dòng)我校航空航天和信息技術(shù)領(lǐng)域的重大創(chuàng)新,并產(chǎn)生系列重要成果。我們有信心在學(xué)校黨委領(lǐng)導(dǎo)下,走在理論最前沿,占領(lǐng)技術(shù)的新制高點(diǎn),取得產(chǎn)業(yè)的新優(yōu)勢(shì)。起點(diǎn)越高,難度越大,這將是一個(gè)多學(xué)科深度交叉的難題,唯有發(fā)揚(yáng)北航空天報(bào)國(guó)精神,堅(jiān)持‘十年磨一劍’的科學(xué)精神,同時(shí)不拘一格,狠抓青年與杰出人才的引進(jìn)、培養(yǎng)和國(guó)際高水平學(xué)術(shù)交流。

北航的人工智能研究由來(lái)已久

在北京航空航天官方網(wǎng)站中,人工智能研究院已經(jīng)成為和微電子學(xué)院、軟件學(xué)院等同級(jí)別的獨(dú)立學(xué)院,不過(guò)關(guān)于人工智能研究院的官方網(wǎng)站尚在建設(shè)中,其中師資力量預(yù)計(jì)和招生規(guī)模等更詳細(xì)的信息尚未公布。根據(jù)之前北航人工智能專業(yè)招生信息,其教師隊(duì)伍或?qū)⒁杂?jì)算機(jī)學(xué)院教師為主體,部分師資會(huì)來(lái)自校內(nèi)學(xué)科交叉單位以及來(lái)自國(guó)內(nèi)領(lǐng)軍企業(yè)和研究院所的研究人員。

北航成立人工智能研究院:整合全校AI資源,建設(shè)“新工科”典范

北航官網(wǎng):學(xué)院列表
 

北航的人工智能相關(guān)學(xué)科的評(píng)估表現(xiàn)非常優(yōu)秀,其中軟件工程,計(jì)算機(jī)科學(xué)與技術(shù)等評(píng)級(jí)都是A類及A+類,在之前的人工智能專業(yè)招生中,北航計(jì)劃招收30名本科生,以計(jì)算機(jī)學(xué)院為承載學(xué)院,聯(lián)合數(shù)學(xué)與系統(tǒng)科學(xué)學(xué)院、經(jīng)濟(jì)管理學(xué)院、自動(dòng)化科學(xué)與電氣工程學(xué)院、大數(shù)據(jù)科學(xué)與腦機(jī)智能高精尖中心等單位實(shí)施專業(yè)交叉培養(yǎng)模式,注重全面提高學(xué)生的綜合素質(zhì)、拓展學(xué)生的專業(yè)面向,增強(qiáng)學(xué)生的社會(huì)適應(yīng)力和競(jìng)爭(zhēng)力。北航是作為人工智能研究重點(diǎn)高校之一,有著大量的創(chuàng)新成果,在理論研究領(lǐng)域李未院士、潘云鶴院士、高文院士、陳純?cè)菏康纫慌菏吭趪?guó)內(nèi)率先發(fā)起人工智能重大專項(xiàng)論證。在2019年科技部“新一代人工智能”重大項(xiàng)目公示中,北航2個(gè)項(xiàng)目入選,分別是《基于互聯(lián)網(wǎng)的群智涌現(xiàn)機(jī)理與計(jì)算方法》和《面向群體行為的群智激發(fā)匯聚研究》,入選項(xiàng)目數(shù)量并列各高校第2。北航的人工智能核心課程體系設(shè)置具有兩個(gè)顯著特點(diǎn)。首先,數(shù)學(xué)比重高。除了數(shù)學(xué)分析、概率、代數(shù)外,人工智能專業(yè)還設(shè)置了最優(yōu)化方法及智能計(jì)算中的數(shù)學(xué)。其次,知識(shí)面寬泛。必修課中包含了認(rèn)知科學(xué)與控制科學(xué)相關(guān)課程。

教育部50家人工智能院所的小目標(biāo)基本實(shí)現(xiàn)

2018年4月2日,教育部印發(fā)的《高等學(xué)校人工智能創(chuàng)新行動(dòng)計(jì)劃》明確提出,為了“加強(qiáng)人工智能領(lǐng)域人才培養(yǎng)”,“到2020年建立50家人工智能學(xué)院、研究院或交叉研究中心”。

據(jù)雷鋒網(wǎng) AI科技評(píng)論了解,截止2020年1月14為止,我國(guó)各高校和科研單位已經(jīng)相繼成立了近 50 所,基本完成《計(jì)劃》的目標(biāo)。

來(lái)源 | 雷鋒網(wǎng)

]]>
http://www.hualongw.cn/%e5%8c%97%e8%88%aa%e6%88%90%e7%ab%8b%e4%ba%ba%e5%b7%a5%e6%99%ba%e8%83%bd%e7%a0%94%e7%a9%b6%e9%99%a2%ef%bc%9a%e6%95%b4%e5%90%88%e5%85%a8%e6%a0%a1ai%e8%b5%84%e6%ba%90%ef%bc%8c%e5%bb%ba%e8%ae%be/feed/ 0
權(quán)威排名,全球最具影響力的2000名AI學(xué)者榜單,中國(guó)AI研究不足凸顯 http://www.hualongw.cn/%e6%9d%83%e5%a8%81%e6%8e%92%e5%90%8d%ef%bc%8c%e5%85%a8%e7%90%83%e6%9c%80%e5%85%b7%e5%bd%b1%e5%93%8d%e5%8a%9b%e7%9a%842000%e5%90%8dai%e5%ad%a6%e8%80%85%e6%a6%9c%e5%8d%95%ef%bc%8c%e4%b8%ad%e5%9b%bdai/ http://www.hualongw.cn/%e6%9d%83%e5%a8%81%e6%8e%92%e5%90%8d%ef%bc%8c%e5%85%a8%e7%90%83%e6%9c%80%e5%85%b7%e5%bd%b1%e5%93%8d%e5%8a%9b%e7%9a%842000%e5%90%8dai%e5%ad%a6%e8%80%85%e6%a6%9c%e5%8d%95%ef%bc%8c%e4%b8%ad%e5%9b%bdai/#respond Tue, 14 Jan 2020 06:29:26 +0000 https://new.openi.org.cn/%e6%9d%83%e5%a8%81%e6%8e%92%e5%90%8d%ef%bc%8c%e5%85%a8%e7%90%83%e6%9c%80%e5%85%b7%e5%bd%b1%e5%93%8d%e5%8a%9b%e7%9a%842000%e5%90%8dai%e5%ad%a6%e8%80%85%e6%a6%9c%e5%8d%95%ef%bc%8c%e4%b8%ad%e5%9b%bdai/ 對(duì)于CSRankings,人工智能領(lǐng)域的學(xué)者應(yīng)該都并不陌生。 它以全球高校和研究機(jī)構(gòu)在計(jì)算機(jī)領(lǐng)域的頂級(jí)學(xué)術(shù)會(huì)議上「發(fā)表論文數(shù)量」作為主要依據(jù),對(duì)各個(gè)研究領(lǐng)域的學(xué)者和研究單位進(jìn)行排名。由于近幾年來(lái)中國(guó)學(xué)者在各大頂會(huì)中發(fā)表的論文數(shù)量迅速增長(zhǎng),我們可以時(shí)不時(shí)地看到 “**大學(xué)世界排名第**” 的新聞出現(xiàn)。這樣的聲音對(duì)于剛剛有起色的中國(guó)人工智能領(lǐng)域的研究來(lái)講確實(shí)能夠起到提振士氣的作用。然而我們不得不承認(rèn)的一點(diǎn)是,中國(guó)在AI學(xué)術(shù)研究上與美國(guó)相比還有巨大的差距。CSRankings單靠論文數(shù)量進(jìn)行排名,在一定程度上已經(jīng)不能真實(shí)地反映我國(guó)(各高校、研究單位)在人工智能領(lǐng)域的研究水平。

權(quán)威排名,全球最具影響力的2000名AI學(xué)者榜單,中國(guó)AI研究不足凸顯

為了能夠真實(shí)地反映人工智能領(lǐng)域?qū)W者的研究水平以及國(guó)家發(fā)展水平,1月11日,清華-中國(guó)工程院知識(shí)智能聯(lián)合研究中心和清華大學(xué)人工智能研究院推出了「AI 2000人工智能全球 2000 位最具影響力學(xué)者榜單(AI 2000 Most Influential Scholar Award)」。

AI 2000的主要負(fù)責(zé)人、清華大學(xué)教授唐杰向雷鋒網(wǎng)表示,從2017年起,他們便開(kāi)始策劃 AI 2000,榜單排名依托于唐杰教授所開(kāi)發(fā)的學(xué)術(shù)搜索引擎Aminer,通過(guò)計(jì)入過(guò)去 10年內(nèi)學(xué)者們?cè)诟鞔驛I頂會(huì)和期刊中發(fā)表論文的引用率來(lái)進(jìn)行評(píng)估。

不同于CSRankings以“論文數(shù)量”為唯一標(biāo)準(zhǔn),AI 2000的評(píng)選主要以發(fā)表在核心頂會(huì)和期刊上論文的引用率為主,這也在一定程度上能夠體現(xiàn)一個(gè)學(xué)者的“學(xué)術(shù)影響力”。

另一方面,AI 2000 的排名更加側(cè)重于“創(chuàng)新”,而非“資深”。因此,AI 2000 只考慮過(guò)去 10年內(nèi)發(fā)表的論文,而非學(xué)者整個(gè)學(xué)術(shù)生涯中的全部貢獻(xiàn)。據(jù)唐杰教授表示,之所以選擇“10年”,是因?yàn)?ldquo;時(shí)間太短體現(xiàn)不出一項(xiàng)工作的影響力,而時(shí)間太長(zhǎng)則無(wú)法反映學(xué)者當(dāng)前的影響力”。

1、AI 2000 評(píng)選

AI 2000 的榜單涵蓋了人工智能學(xué)科20個(gè)子領(lǐng)域。具體遴選方法為,每個(gè)子領(lǐng)域每年選出10名獲獎(jiǎng)?wù)撸磥?lái)10年共產(chǎn)生2000名;每年的遴選,將參考過(guò)去十年該領(lǐng)域最有影響力的會(huì)議和期刊發(fā)表論文的引用情況,排名前10的學(xué)者當(dāng)選該領(lǐng)域當(dāng)年【AI 2000最具影響力學(xué)者獎(jiǎng)】,排名前100的其他學(xué)者獲【AI 2000最具影響力學(xué)者提名獎(jiǎng)】;每個(gè)領(lǐng)域的期刊和會(huì)議由技術(shù)委員會(huì)專家確定。

權(quán)威排名,全球最具影響力的2000名AI學(xué)者榜單,中國(guó)AI研究不足凸顯

20個(gè)子領(lǐng)域分別為:經(jīng)典AI(AAAI/IJCAI)、機(jī)器學(xué)習(xí)、計(jì)算機(jī)視覺(jué)、自然語(yǔ)言處理、機(jī)器人、知識(shí)工程、語(yǔ)音識(shí)別、數(shù)據(jù)挖掘、信息檢索與推薦、數(shù)據(jù)庫(kù)、人機(jī)交互、計(jì)算機(jī)圖形、多媒體、可視化、安全與隱私、計(jì)算機(jī)網(wǎng)絡(luò)、計(jì)算機(jī)系統(tǒng)、計(jì)算理論、芯片技術(shù)和物聯(lián)網(wǎng)。

每個(gè)子領(lǐng)域所參考的頂級(jí)會(huì)議和期刊是根據(jù)《CCF 推薦國(guó)際學(xué)術(shù)期刊和會(huì) 議目錄》和 ACM 計(jì)算分類系統(tǒng)相關(guān)子領(lǐng)域的 A 類期刊和會(huì)議作為數(shù)據(jù)的來(lái)源。然后征求相關(guān)專家和團(tuán)體意見(jiàn),補(bǔ)充新涌現(xiàn)的學(xué)科頂級(jí)期刊和會(huì)議。以下列表給 出了 20 個(gè)子領(lǐng)域所采用的頂級(jí)會(huì)議和期刊。

權(quán)威排名,全球最具影響力的2000名AI學(xué)者榜單,中國(guó)AI研究不足凸顯
權(quán)威排名,全球最具影響力的2000名AI學(xué)者榜單,中國(guó)AI研究不足凸顯

2、入榜情況

1)經(jīng)典人工智能領(lǐng)域(AAAI/IJCAI)

權(quán)威排名,全球最具影響力的2000名AI學(xué)者榜單,中國(guó)AI研究不足凸顯

經(jīng)典AI的排名主要依據(jù)AAAI和IJCAI的論文引用數(shù)據(jù)。在這個(gè)領(lǐng)域中,香港科大楊強(qiáng)教授以入選論文總引用量3929排在經(jīng)典人工智能領(lǐng)域第一名。前10名中,有7位華人學(xué)者,除了楊強(qiáng)教授外,還包括西北工業(yè)大學(xué)聶平飛教授(5)、清華大學(xué)孫茂松教授(6)、南京大學(xué)周志華教授(7)、清華大學(xué)劉知遠(yuǎn)副教授(8)、南洋理工大學(xué)Sinno Jialin Pan副教授(9)、匹茲堡大學(xué)Heng Huang教授(10)。這說(shuō)明在AAAI和IJCAI這兩個(gè)頂會(huì)中,華人學(xué)者呈現(xiàn)出絕對(duì)霸榜的態(tài)勢(shì)。

2)機(jī)器學(xué)習(xí)領(lǐng)域

權(quán)威排名,全球最具影響力的2000名AI學(xué)者榜單,中國(guó)AI研究不足凸顯
Ilya Sutskever教授以入選論文總引用量92071 排在機(jī)器學(xué)習(xí)領(lǐng)域第一名。而著名學(xué)者Geoffrey Hinton則以70250排名第二,Yoshua Bengio以55930排名第三。Ian Goodfellow 和Jeffrey Dean分別排名第 7名和第 10 名。在機(jī)器學(xué)習(xí)領(lǐng)域的前十名中,沒(méi)有華人出現(xiàn)。

3)計(jì)算機(jī)視覺(jué)

權(quán)威排名,全球最具影響力的2000名AI學(xué)者榜單,中國(guó)AI研究不足凸顯
計(jì)算視覺(jué)領(lǐng)域也是華人身影最多的一個(gè)領(lǐng)域,前10名中有6位華人。排在計(jì)算機(jī)視覺(jué)領(lǐng)域第一名的是著名青年學(xué)者何愷明,入選論文總引用量70524。隨之其后的是孫劍、任少卿、Xiangyu Zhang,入選論文總引用量分別為64419、50104、47322。值得一提的是計(jì)算機(jī)視覺(jué)領(lǐng)域的知名學(xué)者李飛飛和湯曉鷗分別以入選論文總引用量31856和27521分別排名第8名和第10名。

4)自然語(yǔ)言處理領(lǐng)域

權(quán)威排名,全球最具影響力的2000名AI學(xué)者榜單,中國(guó)AI研究不足凸顯
自然語(yǔ)言處理領(lǐng)域,Manning 以入選論文總引用量 37912,當(dāng)之無(wú)愧的排在第一名。Yoshua Bengio和吳恩達(dá)(Andrew Y. Ng)分別排在第 4 和第 6 名。曾有一位學(xué)者警示說(shuō)“NLP的研究仍然是白人占統(tǒng)治地位”,從排名中可以看出,此言不虛,在排名前 100的學(xué)者中,亞裔身影寥寥無(wú)幾,國(guó)內(nèi)NLP領(lǐng)域最著名的學(xué)者何曉東、周明、劉挺等人榜單排名也僅在30多名。

5)機(jī)器人領(lǐng)域

權(quán)威排名,全球最具影響力的2000名AI學(xué)者榜單,中國(guó)AI研究不足凸顯
Freiburg大學(xué)的Wolfram Burgard以入選論文總引用量9597排名第一。機(jī)器人領(lǐng)域鮮少有亞裔身影,前10名(甚至前20名)都沒(méi)有亞裔身影。可見(jiàn)我們需要提升的空間還很大。

6)知識(shí)工程領(lǐng)域

權(quán)威排名,全球最具影響力的2000名AI學(xué)者榜單,中國(guó)AI研究不足凸顯
Christian Bizer排名第一。該領(lǐng)域前 100 名中無(wú)一華人。

7)語(yǔ)音識(shí)別領(lǐng)域

權(quán)威排名,全球最具影響力的2000名AI學(xué)者榜單,中國(guó)AI研究不足凸顯
在語(yǔ)音識(shí)別領(lǐng)域,Geoffrey Hinton排名第一。著名華人學(xué)者俞棟、鄧力分別排名第5名和第 8 名。

8)數(shù)據(jù)挖掘領(lǐng)域

權(quán)威排名,全球最具影響力的2000名AI學(xué)者榜單,中國(guó)AI研究不足凸顯
數(shù)據(jù)挖掘領(lǐng)域著名的青年學(xué)者Jure Leskovec排名第一,而這一領(lǐng)域的巨擘韓家煒則排名第三。這也說(shuō)明,AI 2000 的排名更加側(cè)重“最新”的影響,而非“資深”。值得注意的是,數(shù)據(jù)挖掘領(lǐng)域也是華人最為擅長(zhǎng)的領(lǐng)域之一,前 10 名中有七位都是華人學(xué)者,按先后順序分別為韓家煒(3)、陳天奇(4)、陳衛(wèi)(6)、俞士綸(7)、王亞軍(8)、唐杰(9)、鄭宇(10)。

9)信息檢索與挖掘領(lǐng)域

權(quán)威排名,全球最具影響力的2000名AI學(xué)者榜單,中國(guó)AI研究不足凸顯
在信息檢索與挖掘領(lǐng)域,韓國(guó)和日本的學(xué)者居多。韓國(guó)學(xué)者Haewoon Kwak排名第一。Jure Leskovec在這一領(lǐng)域也排名第 5。華人學(xué)者蔡達(dá)成、Qiaozhu Mei和謝幸分別排名第10 、12和13名。

10)數(shù)據(jù)庫(kù)領(lǐng)域

權(quán)威排名,全球最具影響力的2000名AI學(xué)者榜單,中國(guó)AI研究不足凸顯
Michael J. Franklin 排名第一,其學(xué)生、華人學(xué)者Reynold Xin也位列第 9 名。在數(shù)據(jù)庫(kù)領(lǐng)域,清華大學(xué)的李國(guó)良教授排名第 24 位。

11)人機(jī)交互領(lǐng)域

權(quán)威排名,全球最具影響力的2000名AI學(xué)者榜單,中國(guó)AI研究不足凸顯

人機(jī)交互領(lǐng)域排名第一的是微軟科學(xué)家Meredith Ringel Morris,這也是所有20個(gè)領(lǐng)域排名第一的唯一一位女性科學(xué)家。在這一領(lǐng)域中,很遺憾,也鮮少有華人身影。

12)計(jì)算機(jī)圖形學(xué)領(lǐng)域

權(quán)威排名,全球最具影響力的2000名AI學(xué)者榜單,中國(guó)AI研究不足凸顯
MIT的Frédo Durand排名第一。華人中排名最高的是西蒙弗雷澤大學(xué)大學(xué)的張皓教授(13),其次是浙江大學(xué)周昆教授(22)、清華大學(xué)胡事民教授(23)、微軟亞研郭百寧博士(30)、微軟亞研童欣博士(31)、北京大學(xué)陳寶權(quán)教授(32)。

13)多媒體領(lǐng)域

權(quán)威排名,全球最具影響力的2000名AI學(xué)者榜單,中國(guó)AI研究不足凸顯
加州大學(xué)Trevor Darrell教授排名第一。在這一領(lǐng)域,著名青年學(xué)者、阿里副總裁賈楊清位列第二名(共有7位并列第二),依圖CTO顏水成排名第 12名。值得注意的是,這一領(lǐng)域也是華人扎堆的領(lǐng)域,排名前 100名的學(xué)者中 70%的都是華人。

14)可視化領(lǐng)域

權(quán)威排名,全球最具影響力的2000名AI學(xué)者榜單,中國(guó)AI研究不足凸顯
可視化領(lǐng)域的第一名是華盛頓大學(xué)的Jeffrey Heer教授。香港科大屈華民教授和清華大學(xué)劉世霞教授分別排名第 3 名和第 4 名。浙大巫英才教授、北大袁曉如研究員、浙大周昆教授也分別排名第 15、20、22名。

15)安全與隱私

權(quán)威排名,全球最具影響力的2000名AI學(xué)者榜單,中國(guó)AI研究不足凸顯
加州伯克利分校David Wagner教授排名第一。在這一領(lǐng)域,毫無(wú)疑問(wèn)仍然白人居多,盡管有少量華人身影,大多也是在美國(guó)任教,前 100名的榜單上沒(méi)有國(guó)內(nèi)學(xué)者身影。

16)計(jì)算機(jī)網(wǎng)絡(luò)

權(quán)威排名,全球最具影響力的2000名AI學(xué)者榜單,中國(guó)AI研究不足凸顯
斯坦福大學(xué)的Wireless Networks領(lǐng)域著名學(xué)者Sachin Katti排名第一。在這一領(lǐng)域,印度裔學(xué)者居多,華人中阿里巴巴的張明博士位居第 13 名。

17)計(jì)算機(jī)系統(tǒng)領(lǐng)域

權(quán)威排名,全球最具影響力的2000名AI學(xué)者榜單,中國(guó)AI研究不足凸顯
Michael Acheson Isard排名第一,而谷歌的著名科學(xué)家Jeffrey Dean緊隨其后排名第二。而華人學(xué)者Yuan Yu、陳建民、陳智峰分別排名第 6、 7、7(并列)名。

18)計(jì)算機(jī)理論領(lǐng)域

權(quán)威排名,全球最具影響力的2000名AI學(xué)者榜單,中國(guó)AI研究不足凸顯
IBM 的Craig Gentry博士排名第一。這一領(lǐng)域鮮少有華人身影,在卡內(nèi)基梅隆大學(xué)執(zhí)教的彭泱助理教授排名21,清華大學(xué)朱澤園排名第38名。

19)芯片技術(shù)領(lǐng)域

權(quán)威排名,全球最具影響力的2000名AI學(xué)者榜單,中國(guó)AI研究不足凸顯
這一領(lǐng)域,MIT的Anantha教授排名第一,緊隨其后是著名華人學(xué)者叢京生,而清華大學(xué)教授汪玉、楊華中也分別排名第 9 名和第 10 名。值得注意的是剛剛?cè)脒xACM Fellow的阿里巴巴達(dá)摩院著名學(xué)者謝源排名第 34 名。

20)物聯(lián)網(wǎng)領(lǐng)域

權(quán)威排名,全球最具影響力的2000名AI學(xué)者榜單,中國(guó)AI研究不足凸顯
盡管物聯(lián)網(wǎng)的應(yīng)用在我國(guó)呼聲很高,但排名前十的僅有一位新加坡華人學(xué)者Rui Zhang教授。排名第一的是Jeffrey Andrews教授。注:AI 2000排名榜數(shù)據(jù)會(huì)動(dòng)態(tài)更新,以上數(shù)據(jù)采集截止到2020年1月11日12點(diǎn)。實(shí)時(shí)信息可查看網(wǎng)站 https://www.aminer.cn/ai2000,以網(wǎng)站為準(zhǔn)。

3、數(shù)據(jù)分析

AI 2000 的發(fā)布報(bào)告也對(duì)入圍的 2000名學(xué)者數(shù)據(jù)進(jìn)行了簡(jiǎn)單分析,得出以下幾點(diǎn)結(jié)論:

1)美國(guó)學(xué)者數(shù)量領(lǐng)跑全球

根據(jù)學(xué)者當(dāng)前就職機(jī)構(gòu)地理位置進(jìn)行劃分,2000名學(xué)者中有1128名來(lái)自美國(guó),占比61.4%;盡管中國(guó)排名所有國(guó)家中的第二名,但也僅有173名,占比9.4%;其次是德國(guó)111名。

權(quán)威排名,全球最具影響力的2000名AI學(xué)者榜單,中國(guó)AI研究不足凸顯

2)美國(guó)機(jī)構(gòu)數(shù)量多實(shí)力強(qiáng)

統(tǒng)計(jì)各領(lǐng)域高引學(xué)者數(shù) TOP10 的研究機(jī)構(gòu)如下圖所示,

權(quán)威排名,全球最具影響力的2000名AI學(xué)者榜單,中國(guó)AI研究不足凸顯

位居首位的是谷歌公司,共 168 人入選榜單,也是唯一一家學(xué)者數(shù)過(guò)百的機(jī)構(gòu)。從國(guó)家分布來(lái)看,只有清華大學(xué)為中國(guó)入選機(jī)構(gòu),其余均為美國(guó)研究機(jī)構(gòu),且美國(guó)機(jī)構(gòu)學(xué)者總體人 數(shù)遙遙領(lǐng)先。此外,各領(lǐng)域榜首機(jī)構(gòu)統(tǒng)計(jì)如下圖所示。

權(quán)威排名,全球最具影響力的2000名AI學(xué)者榜單,中國(guó)AI研究不足凸顯

谷歌在經(jīng)典人工智能等9個(gè)領(lǐng)域的學(xué)者數(shù)量都位居榜首;麻省理工學(xué)院在機(jī)器人以及計(jì)算理論2個(gè)領(lǐng)域的學(xué)者數(shù)量位居榜首;微軟在數(shù)據(jù)挖掘以及信息檢索與推薦2個(gè)領(lǐng)域的學(xué)者數(shù)量位居榜首;其他領(lǐng)域的榜首分布在不同的機(jī)構(gòu)中,其中,中國(guó)科學(xué)院在多媒體領(lǐng)域的學(xué)者數(shù)量最多。

3)男女比例差異明顯

AI 2000報(bào)告也對(duì)所有上榜學(xué)者性別做出統(tǒng)計(jì)。男性在各領(lǐng)域中均占多數(shù),共 1661人;女性學(xué)者稀少,共 176 人。其中,機(jī)器學(xué)習(xí)領(lǐng)域的男性學(xué)者比例最高,達(dá) 97%;人機(jī)交互領(lǐng)域的女性學(xué)者比例最高,但也只占該領(lǐng)域的 24%。

權(quán)威排名,全球最具影響力的2000名AI學(xué)者榜單,中國(guó)AI研究不足凸顯

4)研究領(lǐng)域多點(diǎn)開(kāi)花

AI 2000的學(xué)者中,有多位學(xué)者的研究方向涉及了多個(gè)領(lǐng)域,其中有2位學(xué)者出現(xiàn)在四個(gè)領(lǐng)域,他們分別是Yoshua Bengio以及Alex J. Smola;此外,有20位學(xué)者出現(xiàn)在三個(gè)領(lǐng)域,有117位學(xué)者出現(xiàn)在兩個(gè)領(lǐng)域。

權(quán)威排名,全球最具影響力的2000名AI學(xué)者榜單,中國(guó)AI研究不足凸顯

5)國(guó)家發(fā)展趨勢(shì)

AI 2000 國(guó)家趨勢(shì)分析如下圖所示:
權(quán)威排名,全球最具影響力的2000名AI學(xué)者榜單,中國(guó)AI研究不足凸顯

圖中每條色帶表示一個(gè)國(guó)家,其寬度表示該國(guó)家在當(dāng)年的研究熱度,與當(dāng)年該國(guó)論文數(shù)量呈正相關(guān),每一年份中按照其熱度由高到低進(jìn)行排序。通過(guò)國(guó)家趨勢(shì)分析可以發(fā)現(xiàn)熱度 TOP10 的國(guó)家分別是:United States(美國(guó))、China(中國(guó))、United Kingdom(英國(guó))、Germany(德國(guó))、 Canada(加拿大)、Japan(日本)、Australia(澳大利亞)、South Korea(韓國(guó))、 Italy(意大利)、France(法國(guó))。當(dāng)前研究熱度最高的國(guó)家是美國(guó),從全局熱度來(lái)看,美國(guó)早期就有著領(lǐng)先優(yōu)勢(shì)并一直保持著最高的熱度,同時(shí)中國(guó)的研究熱度緊隨美國(guó)之后。

6)國(guó)家合作

美國(guó)的研究?jī)?yōu)勢(shì)還不僅僅表現(xiàn)在研究人員多或者發(fā)表論文多,在國(guó)際合作上美國(guó)也表現(xiàn)出絕對(duì)優(yōu)勢(shì)。AI 2000根據(jù)論文中的單位信息,將作者映射到各個(gè)國(guó)家中,進(jìn)而統(tǒng)計(jì)了各國(guó)之間的論文合作情況,合作論文數(shù)量 TOP10 的關(guān)系如下圖所示:

權(quán)威排名,全球最具影響力的2000名AI學(xué)者榜單,中國(guó)AI研究不足凸顯
在合作論文數(shù)量上,中美合作的論文數(shù)遙遙領(lǐng)先;在合作對(duì)象上,絕大多數(shù)的合作關(guān)系都包含美國(guó),體現(xiàn)出了美國(guó)的突出地位。這也從側(cè)面告訴我們,中國(guó)要想發(fā)展,應(yīng)當(dāng)加強(qiáng)國(guó)際合作。

參考資料:
[1] AI 2000人工智能全球最具影響力學(xué)者,https://www.aminer.cn/ai2000

[2] https://static.aminer.cn/misc/pdf/pdf/ai2000.pdf

來(lái)源 | 雷鋒網(wǎng)

]]>
http://www.hualongw.cn/%e6%9d%83%e5%a8%81%e6%8e%92%e5%90%8d%ef%bc%8c%e5%85%a8%e7%90%83%e6%9c%80%e5%85%b7%e5%bd%b1%e5%93%8d%e5%8a%9b%e7%9a%842000%e5%90%8dai%e5%ad%a6%e8%80%85%e6%a6%9c%e5%8d%95%ef%bc%8c%e4%b8%ad%e5%9b%bdai/feed/ 0
騰訊開(kāi)源云服務(wù)器操作系統(tǒng)Tencent Linux http://www.hualongw.cn/%e8%85%be%e8%ae%af%e5%bc%80%e6%ba%90%e4%ba%91%e6%9c%8d%e5%8a%a1%e5%99%a8%e6%93%8d%e4%bd%9c%e7%b3%bb%e7%bb%9ftencent-linux/ http://www.hualongw.cn/%e8%85%be%e8%ae%af%e5%bc%80%e6%ba%90%e4%ba%91%e6%9c%8d%e5%8a%a1%e5%99%a8%e6%93%8d%e4%bd%9c%e7%b3%bb%e7%bb%9ftencent-linux/#respond Tue, 14 Jan 2020 06:24:51 +0000 https://new.openi.org.cn/%e8%85%be%e8%ae%af%e5%bc%80%e6%ba%90%e4%ba%91%e6%9c%8d%e5%8a%a1%e5%99%a8%e6%93%8d%e4%bd%9c%e7%b3%bb%e7%bb%9ftencent-linux/ 近日,騰訊云宣布開(kāi)源其云服務(wù)器操作系統(tǒng) TencentOS 內(nèi)核(TencentOS Server Kernel,又稱 Tencent Linux,簡(jiǎn)稱 Tlinux)。

騰訊介紹,相比業(yè)內(nèi)其它版本 Linux 發(fā)行版,Tencent Linux 在資源調(diào)度彈性、容器支持、系統(tǒng)性能及安全等層面極具競(jìng)爭(zhēng)力,特別適合云環(huán)境。

TencentOS Kernel 是騰訊云物聯(lián)網(wǎng)操作系統(tǒng) TencentOS tiny 之后,TencentOS 家族對(duì)外開(kāi)源的第二個(gè)項(xiàng)目。TencentOS 是騰訊云操作系統(tǒng)系列,由騰訊云架構(gòu)平臺(tái)部主力研發(fā),覆蓋數(shù)據(jù)中心、桌面系統(tǒng)、邊緣設(shè)備和物聯(lián)網(wǎng)終端等應(yīng)用場(chǎng)景,提供云平臺(tái)構(gòu)建、接入和應(yīng)用能力。

騰訊云操作系統(tǒng)團(tuán)隊(duì)表示:“將騰訊云服務(wù)器操作系統(tǒng)內(nèi)核 TencentOS Kernel 開(kāi)源,不僅可以與全球開(kāi)發(fā)者共享騰訊云在服務(wù)器操作系統(tǒng)領(lǐng)域的技術(shù)和經(jīng)驗(yàn),還能夠汲取全球服務(wù)器操作系統(tǒng)領(lǐng)域的優(yōu)秀成果和創(chuàng)新理念,助力整體服務(wù)器操作系統(tǒng)生態(tài)的繁榮。”

具體看看該項(xiàng)目的特點(diǎn):

專用資源調(diào)度方案,增強(qiáng)系統(tǒng)彈性伸縮能力

傳統(tǒng) Linux 系統(tǒng)中,公平性是資源調(diào)度算法的核心邏輯。公平的調(diào)度能最大程度提供系統(tǒng)通用性。然而,這種公平會(huì)造成資源有效利用率的低下,系統(tǒng)的彈性能力大大受限,業(yè)務(wù)無(wú)法按照需求進(jìn)行資源的分配回收,包括資源的數(shù)量與資源的質(zhì)量,如資源分配速度、搶占能力等。

Tencent Linux 研發(fā)了專用的資源調(diào)度算法,大幅提升整機(jī)的資源彈性。業(yè)務(wù)可以根據(jù)需求指定資源分配的數(shù)量和級(jí)別,從相同數(shù)量不同級(jí)別的資源獲得的系統(tǒng)服務(wù)存在明顯差別。

同時(shí),Tencent Linux 研發(fā)的 CPU 彈性調(diào)度算法,在離在線業(yè)務(wù)混布場(chǎng)景下收益十分顯著。在不影響在線業(yè)務(wù)質(zhì)量的前提下,整機(jī)的 CPU 利用率最高提升 3 倍,部分業(yè)務(wù)場(chǎng)景下可將整機(jī) CPU 利用率提升至 90%。

資源隔離增強(qiáng)

資源的安全隔離始終是容器虛擬化平臺(tái)的核心問(wèn)題,社區(qū)內(nèi)核提供的隔離特性遠(yuǎn)遠(yuǎn)不能滿足業(yè)務(wù)的需求,一些基本的系統(tǒng)狀態(tài)信息、CPU 信息與磁盤(pán)狀態(tài)信息等均未做隔離,部分場(chǎng)景下甚至直接導(dǎo)致業(yè)務(wù)不可用。

Tencent Linux 從業(yè)務(wù)需求出發(fā),首先對(duì)必要的系統(tǒng)狀態(tài),比如 cpuinfo、stat、loadavg、meminfo、vmstat、diskstats 與 uptime 等進(jìn)行隔離增強(qiáng),保證容器中的應(yīng)用能獲得正確的系統(tǒng)狀態(tài)信息。

更重要的是,系統(tǒng)還提供包括 NVME IO 隔離等特性,徹底解決 IO 控制組在多隊(duì)列設(shè)備場(chǎng)景資源利用率低、不支持按比例隔離等問(wèn)題,保證了不同場(chǎng)景下的 IO 隔離效果。

系統(tǒng)安全與性能優(yōu)化

業(yè)界的內(nèi)核熱補(bǔ)丁技術(shù)主要是針對(duì) X86 架構(gòu)進(jìn)行開(kāi)發(fā),缺少對(duì) ARM64 等架構(gòu)的支持。Tencent Linux 通過(guò)實(shí)現(xiàn)類 FMENTRY、FTRACE with REGS 功能,給 KPATCH 中增加 ARM64 支持等實(shí)現(xiàn)了針對(duì) ARM64 架構(gòu)的內(nèi)核熱補(bǔ)丁方案。

同時(shí),Tencent Linux 提供進(jìn)程 GDB 禁止功能,阻止跨進(jìn)程獲取內(nèi)存、加載動(dòng)態(tài)庫(kù)等,保障業(yè)務(wù)進(jìn)程的數(shù)據(jù)安全。

性能方面,Tencent Linux 針對(duì)計(jì)算、存儲(chǔ)和網(wǎng)絡(luò)子系統(tǒng)都進(jìn)行了優(yōu)化,例如 PAGE CACHE LIMIT 功能,限制 page cache 的使用率,盡量使系統(tǒng)剩余的內(nèi)存能夠滿足業(yè)務(wù)的需求;系統(tǒng)還新增多個(gè) sysctl/proc 控制接口、內(nèi)核啟動(dòng)參數(shù)等優(yōu)化用戶體驗(yàn)。

來(lái)源 | 開(kāi)源中國(guó)

]]>
http://www.hualongw.cn/%e8%85%be%e8%ae%af%e5%bc%80%e6%ba%90%e4%ba%91%e6%9c%8d%e5%8a%a1%e5%99%a8%e6%93%8d%e4%bd%9c%e7%b3%bb%e7%bb%9ftencent-linux/feed/ 0
深度強(qiáng)化學(xué)習(xí)走入「死胡同」,繼續(xù)死磕電子游戲還是另辟蹊徑? http://www.hualongw.cn/%e6%b7%b1%e5%ba%a6%e5%bc%ba%e5%8c%96%e5%ad%a6%e4%b9%a0%e8%b5%b0%e5%85%a5%e3%80%8c%e6%ad%bb%e8%83%a1%e5%90%8c%e3%80%8d%ef%bc%8c%e7%bb%a7%e7%bb%ad%e6%ad%bb%e7%a3%95%e7%94%b5%e5%ad%90%e6%b8%b8%e6%88%8f/ http://www.hualongw.cn/%e6%b7%b1%e5%ba%a6%e5%bc%ba%e5%8c%96%e5%ad%a6%e4%b9%a0%e8%b5%b0%e5%85%a5%e3%80%8c%e6%ad%bb%e8%83%a1%e5%90%8c%e3%80%8d%ef%bc%8c%e7%bb%a7%e7%bb%ad%e6%ad%bb%e7%a3%95%e7%94%b5%e5%ad%90%e6%b8%b8%e6%88%8f/#respond Mon, 13 Jan 2020 03:27:30 +0000 https://new.openi.org.cn/%e6%b7%b1%e5%ba%a6%e5%bc%ba%e5%8c%96%e5%ad%a6%e4%b9%a0%e8%b5%b0%e5%85%a5%e3%80%8c%e6%ad%bb%e8%83%a1%e5%90%8c%e3%80%8d%ef%bc%8c%e7%bb%a7%e7%bb%ad%e6%ad%bb%e7%a3%95%e7%94%b5%e5%ad%90%e6%b8%b8%e6%88%8f/ 2019 年,深度強(qiáng)化學(xué)習(xí)可以算得上 AI 研究的 Top 關(guān)鍵詞之一。

無(wú)論是 DeepMind 星際2 AI 「AlphaStar」血虐人類玩家,還是 OpenAI 最終因太過(guò)強(qiáng)大而被認(rèn)為可能有風(fēng)險(xiǎn)所以不公開(kāi)發(fā)布的語(yǔ)言模型 GPT-2,無(wú)疑都在過(guò)去一年中最轟動(dòng)的 AI 大事件之列,也吸引了 AI 社區(qū)的越來(lái)越多的研究者投身深度強(qiáng)化學(xué)習(xí)研究之列。

然而,也有很多反對(duì)的聲音認(rèn)為深度強(qiáng)化學(xué)習(xí)現(xiàn)在的一系列成果,其實(shí)更像是一種虛假的「繁榮」。

本文作者朱仲光便是其中的一位。他指出,深度強(qiáng)化學(xué)習(xí)會(huì)給研究者們尤其是各位不明真相的大眾帶來(lái)「離通用人工智能越來(lái)越近」的錯(cuò)覺(jué),而更為嚴(yán)重的是,深度強(qiáng)化學(xué)習(xí)會(huì)耗費(fèi)掉研究者們本可以用來(lái)研究其他更重要的問(wèn)題和更有前景的方向的時(shí)間和精力。

他的具體觀點(diǎn),我們下面來(lái)看:

一、2019 年都過(guò)去了,并沒(méi)有離現(xiàn)實(shí)世界更進(jìn)一步

隨著 2019 年的結(jié)束,我想回顧一下人工智能所取得的進(jìn)展。在這一年,AI 社區(qū)尤其將深度強(qiáng)化學(xué)習(xí)大肆宣揚(yáng)為下一個(gè)朝著通用人工智能(AGI)前進(jìn)的革命性的一步。

通用人工智能,顧名思義,就是指能夠像人類一樣以一種通用的方式學(xué)習(xí)萬(wàn)事萬(wàn)物的計(jì)算機(jī)算法。

近年來(lái),研究者們針對(duì)深度強(qiáng)化學(xué)習(xí)開(kāi)展了大量研究工作,現(xiàn)在也逐漸取得了一定進(jìn)展。

圍繞深度強(qiáng)化學(xué)習(xí)的想法和期望是,理論上,我們能輕而易舉地訓(xùn)練一個(gè)能做任何事情的智能體,比如開(kāi)車(chē)、疊衣服、玩電子游戲、打掃房間、玩魔方等等,并且所有智能體的學(xué)習(xí)過(guò)程都不需要人工干涉。其中一些實(shí)驗(yàn)已經(jīng)取得一些成功,你可以教一個(gè)深度強(qiáng)化學(xué)習(xí)的智能體玩一些電子游戲和棋類游戲,但是一旦涉及現(xiàn)實(shí)世界,進(jìn)入生產(chǎn)系統(tǒng),這些實(shí)驗(yàn)都會(huì)以失敗告終。

據(jù)我所知,2019 年都過(guò)去了,仍然沒(méi)有出現(xiàn)任何能夠使用深度強(qiáng)化學(xué)習(xí)技術(shù)的生產(chǎn)系統(tǒng)。

二、到底解決哪些問(wèn)題,才有意義?

深度強(qiáng)化學(xué)習(xí)系統(tǒng)有許多問(wèn)題,我并不打算詳細(xì)討論這些問(wèn)題的細(xì)節(jié),因?yàn)橛泻芏嗖┛臀恼乱呀?jīng)討論過(guò)這些問(wèn)題。感興趣的讀者可參考下文:

  • 《Deep Reinforcement Learning Doesn't Work Yet》,https://www.alexirpan.com/2018/02/14/rl-hard.html

如果這些問(wèn)題中有一部分得到改善或解決,例如找到更抽象的方式來(lái)表征神經(jīng)網(wǎng)絡(luò)內(nèi)部的信息,我也不會(huì)太驚訝,但如果不能解決我所認(rèn)為的核心問(wèn)題,即有關(guān)手動(dòng)設(shè)置獎(jiǎng)勵(lì)的問(wèn)題,那所謂的「改善」或「解決」也就意義不大了。

在深度強(qiáng)化學(xué)習(xí)中,我認(rèn)為大部分時(shí)間都花在了設(shè)計(jì)獎(jiǎng)勵(lì)函數(shù)來(lái)讓智能體完成想讓它做的事情。用更傳統(tǒng)的機(jī)器學(xué)習(xí)術(shù)語(yǔ)來(lái)說(shuō),獎(jiǎng)勵(lì)函數(shù)就是目標(biāo)函數(shù),指的是算法利用獎(jiǎng)勵(lì)函數(shù)來(lái)了解系統(tǒng)是否朝著正確的方向運(yùn)行,模型得到的獎(jiǎng)勵(lì)越多,它就「越好」。

比如教一支機(jī)械臂疊衣服,假如說(shuō)你有一堆褲子,那么你如何編寫(xiě)?yīng)剟?lì)函數(shù)來(lái)讓機(jī)械臂正確地疊這些褲子呢?當(dāng)向另外一個(gè)人解釋這一點(diǎn)時(shí),聽(tīng)起來(lái)很簡(jiǎn)單,只是「把褲子疊成整齊的一堆」,但是計(jì)算機(jī)并不知道這些規(guī)則的含義。

對(duì)于每一個(gè)實(shí)驗(yàn),你設(shè)計(jì)的獎(jiǎng)勵(lì)必須要讓計(jì)算機(jī)在完全不知道自己實(shí)際正在做什么的情況下,可以自己衡量自己的運(yùn)行過(guò)程。因此,你設(shè)計(jì)的獎(jiǎng)勵(lì)程序可以在機(jī)械臂碰到褲子時(shí)就開(kāi)始給它獎(jiǎng)勵(lì),之后再針對(duì)是否正確抓住了褲子以及移動(dòng)了褲子,來(lái)給它更多獎(jiǎng)勵(lì)得分。

那如何基于機(jī)械臂在實(shí)際折疊褲子中的表現(xiàn)給予獎(jiǎng)勵(lì)?疊三次可以得分嗎?沒(méi)有將褲子疊皺又得多少分?

最終,你花了太多時(shí)間試圖去引導(dǎo)智能體遵循正確的路徑,以至于它基本上處在完全的監(jiān)督之下。

理論上,你的確可以讓一個(gè)人監(jiān)督著整個(gè)訓(xùn)練過(guò)程,這個(gè)人可以為系統(tǒng)采取的每一個(gè)動(dòng)作指定一個(gè)分?jǐn)?shù),但這種方式是不能泛化的。

這些深度強(qiáng)化學(xué)習(xí)系統(tǒng)需要基于數(shù)萬(wàn)到數(shù)百萬(wàn)次的迭代來(lái)試驗(yàn)動(dòng)作的每一個(gè)變化,以找出實(shí)現(xiàn)最終目標(biāo)的正確序列,個(gè)人很難監(jiān)控計(jì)算機(jī)采取的所有步驟。研究者也正在積極探索,試圖將這個(gè)范圍縮小至有限次數(shù)的學(xué)習(xí),但對(duì)我來(lái)說(shuō),這只是試圖改進(jìn)一些從根本上而言沒(méi)有意義的東西。

在你試圖訓(xùn)練機(jī)器人折疊褲子的過(guò)程中,你可能需要不斷調(diào)整獎(jiǎng)勵(lì)函數(shù),因?yàn)樗赡軙?huì)意外地撕破褲子、弄掉一些零部件、不把褲子翻出來(lái)就直接折疊,或者以看起來(lái)毫無(wú)意義的奇怪方式折疊褲子。這樣的話,獎(jiǎng)勵(lì)的設(shè)計(jì)變成了一個(gè)試驗(yàn)性的過(guò)程,即通過(guò)反復(fù)的嘗試和試錯(cuò)來(lái)確定什么是有效的獎(jiǎng)勵(lì)。有無(wú)數(shù)的報(bào)告記錄了深度強(qiáng)化學(xué)習(xí)模型做出的各種意想不到的動(dòng)作。

強(qiáng)化學(xué)習(xí)通常被劃分為除監(jiān)督機(jī)器學(xué)習(xí)和無(wú)監(jiān)督機(jī)器學(xué)習(xí)以外的第三類,但在我看來(lái),它其實(shí)就是監(jiān)督學(xué)習(xí)。
當(dāng)前的強(qiáng)化學(xué)習(xí)實(shí)現(xiàn)步驟是這樣的:你開(kāi)始訓(xùn)練模型,然后你看著它失敗然后「死掉」,接著你花費(fèi)大量的時(shí)間一次又一次調(diào)整獎(jiǎng)勵(lì)函數(shù),直到你「有可能」得到一個(gè)理想的結(jié)果,但僅僅是「有可能」。

這個(gè)過(guò)程中有哪一步你沒(méi)有給系統(tǒng)提供訓(xùn)練數(shù)據(jù)?事實(shí)上你把整個(gè)過(guò)程復(fù)雜化了,你僅僅是把答案以間接的方式提供給智能體,而這恰恰讓一切變得更加困難。

如果計(jì)算機(jī)要從周?chē)沫h(huán)境中學(xué)習(xí),那必須在一個(gè) 100% 無(wú)監(jiān)督的環(huán)境里進(jìn)行。

三、當(dāng)公關(guān)大于實(shí)質(zhì)進(jìn)步,會(huì)帶來(lái)哪些危害?

那么,為什么關(guān)于深度強(qiáng)化學(xué)習(xí)的炒作如此之多?

如果你站在一個(gè)抽象的角度來(lái)看待深度強(qiáng)化學(xué)習(xí),你就會(huì)知道它被描述為一個(gè)隨著時(shí)間的推移從其環(huán)境中學(xué)習(xí)的智能體。

這似乎是絕對(duì)正確的,而且確實(shí)「很像」是真的,所有生物都是從出生開(kāi)始學(xué)習(xí)如何從其環(huán)境中生存和行動(dòng)。

我們之所以知道這一點(diǎn),是因?yàn)槲覀冏隽嗽S多實(shí)驗(yàn),經(jīng)驗(yàn)告訴我們,如果我們改變和限制新生有機(jī)體的環(huán)境,它們會(huì)學(xué)到不同的東西,行為也會(huì)有所不同。

深度強(qiáng)化學(xué)習(xí)與諸如監(jiān)督分類的傳統(tǒng)機(jī)器學(xué)習(xí)方法有很大的不同,傳統(tǒng)的機(jī)器學(xué)習(xí)是一個(gè)靜態(tài)模型,它獲取原始數(shù)據(jù)和答案并最終建立一個(gè)模型用于生產(chǎn)。在傳統(tǒng)的深度強(qiáng)化學(xué)習(xí)框架中,系統(tǒng)犯錯(cuò)的部分就是信號(hào)的來(lái)源。這些人工智能體必須直接從它們自身和環(huán)境中學(xué)習(xí),而不是從我們提供給它們的某種人工獎(jiǎng)勵(lì)函數(shù)中學(xué)習(xí)。

當(dāng) DeepMind 推出一個(gè)單一的不進(jìn)行任何人為干涉就可以學(xué)會(huì)玩 Atari 電子游戲的深度強(qiáng)化學(xué)習(xí)智能體時(shí),人們認(rèn)為這種智能體可以泛化到其他領(lǐng)域的各種問(wèn)題,甚至是通用人工智能。

但我們所了解到的是,有機(jī)體和人類所做的大多數(shù)事情,都無(wú)法建模成通過(guò)讓智能體持續(xù)優(yōu)化從而盡可能獲得更多獎(jiǎng)勵(lì)的電子游戲。不要被「深度強(qiáng)化學(xué)習(xí)不需要人為干涉就能夠在游戲中獲勝」的新聞所愚弄!設(shè)計(jì)獎(jiǎng)勵(lì)這一操作仍然存在,并且在 40 年前,當(dāng)電子游戲制造商雇傭整支隊(duì)伍來(lái)制作這些游戲時(shí),就已存在這種操作。

很多人都誤認(rèn)為深度強(qiáng)化學(xué)習(xí)是實(shí)現(xiàn)通用人工智能的下一個(gè)創(chuàng)舉,甚至谷歌也「過(guò)分熱情」地花了 5 億多美元收購(gòu) DeepMind,希望把人工智能提升到一個(gè)新的水平。與此同時(shí),AI 社區(qū)似乎也把深度強(qiáng)化學(xué)習(xí)當(dāng)成了圣杯,因?yàn)樗窃谀撤N程度上與我們所處的世界最接近的機(jī)器學(xué)習(xí)形式,盡管實(shí)際上還相差甚遠(yuǎn)。

我們最終實(shí)現(xiàn)的不過(guò)是一些「小把戲」,這些智能體也不過(guò)是可以玩各種各樣的電子游戲、棋類游戲的小 AI 玩具。
從更傳統(tǒng)的機(jī)器學(xué)習(xí)方法向深度學(xué)習(xí)轉(zhuǎn)變的主要好處是,不再需要手動(dòng)的工程設(shè)計(jì)。理論上,你可以給模型提供一堆數(shù)據(jù),運(yùn)行優(yōu)化算法,它不需要你手動(dòng)編寫(xiě)特征提取代碼也能進(jìn)行學(xué)習(xí)。因此,深度學(xué)習(xí)已經(jīng)被應(yīng)用到部分強(qiáng)化學(xué)習(xí)中,主要體現(xiàn)在智能體以像素的形式接收感知數(shù)據(jù)的部分,但是仍然需要研究者花大部分時(shí)間來(lái)手動(dòng)設(shè)計(jì)程序。

這在我看來(lái),深度學(xué)習(xí)并沒(méi)有發(fā)揮什么作用!我甚至沒(méi)有具體討論其他深度強(qiáng)化學(xué)習(xí)問(wèn)題,比如如果你需要稍微調(diào)整一下目標(biāo),那么你就要準(zhǔn)備好重新訓(xùn)練整個(gè)系統(tǒng),以及環(huán)境中的細(xì)微變化通常也會(huì)導(dǎo)致整個(gè)系統(tǒng)徹底失敗,等等。通往通用人工智能的路還很長(zhǎng)……

現(xiàn)在DeepMind 和 OpenAI 這樣頂尖的機(jī)器學(xué)習(xí)研究機(jī)構(gòu),仍然在深度強(qiáng)化學(xué)習(xí)研究上投入主要的時(shí)間和資源。他們不斷地用發(fā)布公關(guān)新聞轟炸互聯(lián)網(wǎng),展示他們正在取得的巨大進(jìn)步:深度強(qiáng)化學(xué)習(xí)系統(tǒng)可以下圍棋,玩 StarCraft、Dota 2,玩魔方等等。

我很困惑,為什么他們繼續(xù)花那么多時(shí)間來(lái)開(kāi)發(fā)有明確的定義規(guī)則和得分的系統(tǒng)、能在游戲中獲勝的深度強(qiáng)化學(xué)習(xí)系統(tǒng)?

我相信現(xiàn)在每個(gè)人都明白,如果有足夠多的時(shí)間、金錢(qián)和計(jì)算機(jī)來(lái)機(jī)械地訓(xùn)練每一個(gè)可能的動(dòng)作,深度強(qiáng)化學(xué)習(xí)系統(tǒng)幾乎可以在任何游戲中獲勝。我認(rèn)為他們大部分的策略僅僅是用一些「小把戲」來(lái)不斷制造公關(guān)效應(yīng),以展示最新的深度強(qiáng)化學(xué)習(xí)系統(tǒng)如何在下一個(gè)最佳游戲中大獲全勝,這樣他們就可以繼續(xù)從那些不太「懂行」的人那里獲得投資,比如微軟最近給 OpenAI 的  投了10 億美元,谷歌則繼續(xù)作為 DeepMind 的「存錢(qián)罐」給其投入資金。

DeepMind 最近,也就是在被谷歌收購(gòu) 5 年后的一個(gè)成功案例是,他們訓(xùn)練了一個(gè)深度強(qiáng)化學(xué)習(xí)的智能體來(lái)下圍棋、國(guó)際象棋、將棋和玩 Atari 游戲。是的,更多的電子游戲!!!

我的本意并不是抨擊他們,我真的很高興他們?nèi)匀辉跒閷?shí)現(xiàn)通用人工智能貢獻(xiàn)力量。但問(wèn)題是,他們制造了很多錯(cuò)誤的認(rèn)知,并最終導(dǎo)致大量的人力物力浪費(fèi)在「死胡同」上。

首先,他們發(fā)布的所有公關(guān)言論,比如「我們的文本生成模型(GPT-2)太危險(xiǎn)了,不能發(fā)布」,使得普通大眾認(rèn)為我們離通用人工智能更近了,然而 AI 行業(yè)中的每個(gè)人都明白并沒(méi)有更近。

其次也是更重要的是,他們錯(cuò)誤地引導(dǎo)著人工智能研究者們花更多的時(shí)間在深度強(qiáng)化學(xué)習(xí)上。許多研究人員和黑客從這些研究深度學(xué)習(xí)的公司那里看到了一波又一波為深度強(qiáng)化學(xué)習(xí)「叫好」的 PR 新聞,當(dāng)他們?cè)究梢詫⒕性诟蟆⒏镜膯?wèn)題上時(shí),他們卻花費(fèi)了無(wú)數(shù)的時(shí)間去破解那些相同的問(wèn)題。

四、要實(shí)現(xiàn)通用人工智能,真正要做的是什么?

如果人工智能和通用人工智能要向前發(fā)展,我認(rèn)為是時(shí)候停止讓深度強(qiáng)化學(xué)習(xí)系統(tǒng)玩電子游戲,轉(zhuǎn)而集中精力解決更棘手的問(wèn)題了。

所幸 DeepMind 和 OpenAI 的確有花時(shí)間解決其他問(wèn)題,但正如我所說(shuō),深度強(qiáng)化學(xué)習(xí)似乎仍然是他們的主要關(guān)注點(diǎn)。

目前的深度強(qiáng)化學(xué)習(xí)系統(tǒng)似乎可以很好地契合已經(jīng)有基礎(chǔ)訓(xùn)練的系統(tǒng)。遷移學(xué)習(xí)中的智能體已經(jīng)對(duì)其環(huán)境和自身有了基本的了解。我們不妨觀察一個(gè)人類嬰兒的學(xué)習(xí)歷程:從出生開(kāi)始,她(他)首先開(kāi)始學(xué)習(xí)觀察形狀和顏色,移動(dòng)手指,觸摸物體,控制自己的身體,辨別聲音,學(xué)習(xí)有關(guān)重力、物理、墜落、蠕動(dòng)、彈跳的知識(shí),學(xué)習(xí)物體恒常性等。每一個(gè)人或有機(jī)體都會(huì)在不同程度上經(jīng)歷這些學(xué)習(xí)過(guò)程。

通常在嬰兒掌握了大量的知識(shí)之后,即當(dāng)她(他)可以走路、抓握物體、自己上廁所、進(jìn)行基本的交流等等之后,接下來(lái)就是更為正式的訓(xùn)練,比如家長(zhǎng)會(huì)送孩子去學(xué)校,孩子在學(xué)校中會(huì)經(jīng)歷一個(gè)結(jié)構(gòu)性更強(qiáng)的學(xué)習(xí)過(guò)程:學(xué)校通過(guò)家庭作業(yè)、評(píng)分以及測(cè)驗(yàn)訓(xùn)練孩子從課程中學(xué)習(xí)知識(shí)。

當(dāng)前的深度強(qiáng)化學(xué)習(xí)系統(tǒng)似乎原本可以很好地適用于這種形式化的訓(xùn)練,在這種訓(xùn)練中,當(dāng)智能體對(duì)環(huán)境有了基本的了解之后,系統(tǒng)可以清晰地、最大程度自動(dòng)化地給所期待達(dá)成的目標(biāo)指定分?jǐn)?shù)。比方說(shuō)如果孩子不能背誦 ABC 這三個(gè)字母,記為不及格,但如果他們能背誦整個(gè)字母表則記為及格。

當(dāng)前深度強(qiáng)化學(xué)習(xí)技術(shù)正在本末倒置,我們正試圖訓(xùn)練計(jì)算機(jī)從零開(kāi)始完成一些復(fù)雜的任務(wù),這種訓(xùn)練有時(shí)可能會(huì)有效,但由于這些模型是針對(duì)特定的任務(wù)而不是泛化能力而訓(xùn)練的,它們對(duì)自己的環(huán)境沒(méi)有泛化的了解,最終導(dǎo)致系統(tǒng)過(guò)于脆弱,效果也不是很好。

只要獎(jiǎng)勵(lì)函數(shù)的問(wèn)題沒(méi)有被解決,再多新的學(xué)習(xí)算法,如BP 算法、DQN、PPO、DDPG、TRPO 都無(wú)法真正解決深度強(qiáng)化學(xué)習(xí)的問(wèn)題。

我確信我們會(huì)有一些進(jìn)步,也許會(huì)在 Starcraft 中贏得更多的分?jǐn)?shù),但是如果沒(méi)有一個(gè)根本性的架構(gòu)轉(zhuǎn)變,來(lái)實(shí)現(xiàn)智能體在無(wú)監(jiān)督的情況下從環(huán)境中進(jìn)行學(xué)習(xí),那么這些所謂的進(jìn)步對(duì)于我們實(shí)現(xiàn)通用人工智能這一偉大夢(mèng)想,也就沒(méi)有太多的意義。

我自己的假設(shè)是,針對(duì)學(xué)習(xí)體的獎(jiǎng)勵(lì)函數(shù)實(shí)際上是由維持穩(wěn)態(tài)和將「意外」最小化的動(dòng)力所驅(qū)動(dòng)的。

穩(wěn)態(tài)是生物維持生存所需的穩(wěn)定條件的過(guò)程。任何有機(jī)體都要生存,都必須保持其身體與外界環(huán)境分離。生物饑餓的時(shí)候要進(jìn)食,疲倦的時(shí)候要睡覺(jué),口渴的時(shí)候要喝水,受傷的時(shí)候要休息,被獵殺的時(shí)候要逃離,炎熱的時(shí)候要讓自己涼快一點(diǎn)等等。有機(jī)體在環(huán)境中行動(dòng)時(shí),這些與生俱來(lái)的原始信號(hào)指導(dǎo)著它們?cè)撟鍪裁春驮撽P(guān)注什么。如果它們不能勝任這些事情,則會(huì)導(dǎo)致有機(jī)體內(nèi)失去平衡,最終導(dǎo)致過(guò)早死亡。

當(dāng)生物在四處游蕩時(shí),它會(huì)建構(gòu)自己的感知運(yùn)動(dòng)交互作用模型以及與周?chē)澜缃换プ饔玫沫h(huán)境,該模型開(kāi)始把各種事件匯聚到一起:天黑的時(shí)候應(yīng)該比較冷;當(dāng)我打嗝,我應(yīng)該聽(tīng)到打嗝的聲音;當(dāng)我向左移動(dòng),我應(yīng)該看到視野在 X 軸上變化;當(dāng)一只動(dòng)物走在我前面,它應(yīng)該繼續(xù)向前移動(dòng);當(dāng)我的手指在杯子上掃過(guò),我應(yīng)該感受到光滑的表面;當(dāng)我通過(guò)聲帶發(fā)出聲音,我應(yīng)該能在我的耳朵里聽(tīng)到相應(yīng)的聲音等等。

如果有什么意外的事情發(fā)生,有什么東西偏離了它的模型,那么該模型會(huì)重新調(diào)整它的預(yù)期,直到得到它所預(yù)期的結(jié)果,這也可能會(huì)導(dǎo)致更多的移動(dòng)。如果最終不能得到預(yù)期的結(jié)果,那么真正的「意外」就會(huì)出現(xiàn),這些神經(jīng)元就被標(biāo)記為「需要更新模型」,在這種情況下,重新學(xué)習(xí)和重新優(yōu)化可能會(huì)實(shí)時(shí)發(fā)生,也可能是在機(jī)體處于睡眠狀態(tài)時(shí)發(fā)生。

優(yōu)化過(guò)程會(huì)在智能體的內(nèi)部環(huán)境模型和實(shí)際環(huán)境之間進(jìn)行,并持續(xù)優(yōu)化以使意外最小化。神經(jīng)科學(xué)和哲學(xué)已經(jīng)在很長(zhǎng)一段時(shí)間里對(duì)這些思想展開(kāi)過(guò)討論,比如 Andy Clark 提出的預(yù)測(cè)處理的思想以及 Karl Friston 提出的自由能量原理(Free Energy Principle)。

據(jù)我所知,這些思想還沒(méi)有成功地應(yīng)用于機(jī)器學(xué)習(xí)環(huán)境中。我認(rèn)為這其中有很多技術(shù)問(wèn)題:如何在計(jì)算機(jī)中模擬穩(wěn)態(tài)狀態(tài),如何存儲(chǔ)模型的內(nèi)部表征,智能體的感官和環(huán)境之間的低分辨率以及低保真環(huán)境等等。

我并非意在采用一個(gè)煽動(dòng)性的標(biāo)題來(lái)寫(xiě)這篇文章,但我也無(wú)法以一種更恰當(dāng)?shù)姆绞絹?lái)向人們說(shuō)明「當(dāng)前的深度強(qiáng)化學(xué)習(xí)架構(gòu)從根本上而言就是錯(cuò)的」這一問(wèn)題。

我們不需要更多可以玩多種電子游戲的深度強(qiáng)化學(xué)習(xí)模型,我們需要實(shí)現(xiàn)的模型是這樣的:它可以在完全無(wú)監(jiān)督的環(huán)境中學(xué)習(xí)智能體和環(huán)境之間的泛化表征。這種新的架構(gòu)可以被稱為「深度強(qiáng)化學(xué)習(xí) 3.0」、「積極推理」、「預(yù)測(cè)處理」或其他完全不同的東西,但是請(qǐng)不要再在這個(gè)「死胡同」上浪費(fèi)時(shí)間了。

深度強(qiáng)化學(xué)習(xí)的研究已經(jīng)取得了一些很有成效且有趣的成果,但是時(shí)候繼續(xù)前進(jìn)了。誰(shuí)能找到方法來(lái)構(gòu)建一個(gè)可以在無(wú)監(jiān)督情況下從環(huán)境中學(xué)習(xí)的泛化的人工智能系統(tǒng),誰(shuí)就會(huì)對(duì) AI 領(lǐng)域做出巨大的貢獻(xiàn)并推動(dòng)這個(gè)領(lǐng)域繼續(xù)向前發(fā)展。

來(lái)源 | 雷鋒網(wǎng)

]]>
http://www.hualongw.cn/%e6%b7%b1%e5%ba%a6%e5%bc%ba%e5%8c%96%e5%ad%a6%e4%b9%a0%e8%b5%b0%e5%85%a5%e3%80%8c%e6%ad%bb%e8%83%a1%e5%90%8c%e3%80%8d%ef%bc%8c%e7%bb%a7%e7%bb%ad%e6%ad%bb%e7%a3%95%e7%94%b5%e5%ad%90%e6%b8%b8%e6%88%8f/feed/ 0
微軟北大聯(lián)合提出換臉 AI 和臉部偽造檢測(cè)器,演繹現(xiàn)實(shí)版「矛與盾」? http://www.hualongw.cn/%e5%be%ae%e8%bd%af%e5%8c%97%e5%a4%a7%e8%81%94%e5%90%88%e6%8f%90%e5%87%ba%e6%8d%a2%e8%84%b8-ai-%e5%92%8c%e8%84%b8%e9%83%a8%e4%bc%aa%e9%80%a0%e6%a3%80%e6%b5%8b%e5%99%a8%ef%bc%8c%e6%bc%94%e7%bb%8e/ http://www.hualongw.cn/%e5%be%ae%e8%bd%af%e5%8c%97%e5%a4%a7%e8%81%94%e5%90%88%e6%8f%90%e5%87%ba%e6%8d%a2%e8%84%b8-ai-%e5%92%8c%e8%84%b8%e9%83%a8%e4%bc%aa%e9%80%a0%e6%a3%80%e6%b5%8b%e5%99%a8%ef%bc%8c%e6%bc%94%e7%bb%8e/#respond Wed, 08 Jan 2020 06:29:39 +0000 https://new.openi.org.cn/%e5%be%ae%e8%bd%af%e5%8c%97%e5%a4%a7%e8%81%94%e5%90%88%e6%8f%90%e5%87%ba%e6%8d%a2%e8%84%b8-ai-%e5%92%8c%e8%84%b8%e9%83%a8%e4%bc%aa%e9%80%a0%e6%a3%80%e6%b5%8b%e5%99%a8%ef%bc%8c%e6%bc%94%e7%bb%8e/ 近日,微軟研究院與北京大學(xué)的研究小組共同提出了一種全新的 AI 換臉框架 FaceShifter,以及一種檢測(cè)偽造人臉圖像的方法 FaceX-Ray。前者可以極大提高換臉的高保真度,而后者則用于檢測(cè)出復(fù)雜偽造人臉圖像。

一個(gè)致力于造假,一個(gè)專注于打假;光是聽(tīng)起來(lái),就不禁讓人聯(lián)想到「矛」與「盾」的故事。那到底哪個(gè)更勝一籌呢?VB 發(fā)布了的相關(guān)內(nèi)容介紹了這兩個(gè)成果,雷鋒網(wǎng) AI 開(kāi)發(fā)者將其整理及編譯如下。

微軟北大聯(lián)合提出換臉 AI 和臉部偽造檢測(cè)器,演繹現(xiàn)實(shí)版「矛與盾」? 

人臉技術(shù)研究背景

目前,最先進(jìn)的機(jī)器學(xué)習(xí)算法不僅可以完成對(duì)地點(diǎn)或物體的圖像改變與生成,以 Deepfake 為代表的 AI 換臉技術(shù)甚至已經(jīng)可以達(dá)到以假亂真的換臉效果;但由于換臉技術(shù)的濫用可能會(huì)為社會(huì)帶來(lái)一系列惡劣影響,研究人員也在不斷探索該技術(shù)的原理,并希望能夠解決這一難題。

就在最近,這一技術(shù)又有了新的進(jìn)展。微軟研究院和北京大學(xué)的研究小組發(fā)表的兩篇學(xué)術(shù)論文中,他們分別提出了一種用于生成高保真和遮擋感知的人臉交換框架——FaceShifter,以及一種用于檢測(cè)偽造人臉圖像的方法——FaceX-Ray。

微軟北大聯(lián)合提出換臉 AI 和臉部偽造檢測(cè)器,演繹現(xiàn)實(shí)版「矛與盾」?

與現(xiàn)有的方法相比,微軟研究的面容轉(zhuǎn)換
 

據(jù)相關(guān)研究人員表示,與多個(gè)現(xiàn)行基線方法相比,這兩種方法都能在不犧牲性能的情況下取得更好的效果,而且它們所需的數(shù)據(jù)比以前的方法少得多。

無(wú)訓(xùn)練換臉——FaceShifter

從相關(guān)資料可以看到,F(xiàn)aceShifter 能夠?qū)⒛繕?biāo)圖像中的人替換為源圖像中的另一個(gè)人的同時(shí),保留其頭部姿勢(shì)、面部表情、燈光、顏色、強(qiáng)度、背景和其他屬性特征。

雖然像 Reflect 和 FaceSwap 這樣的應(yīng)用程序聲稱可以相當(dāng)準(zhǔn)確地做到這一點(diǎn),但是微軟論文的合著者表示 FaceShifter 對(duì)姿態(tài)和視角的變化則敏感度更高。

微軟北大聯(lián)合提出換臉 AI 和臉部偽造檢測(cè)器,演繹現(xiàn)實(shí)版「矛與盾」? 

取源圖像中的臉來(lái)替換目標(biāo)圖像中的面,換臉結(jié)果顯示在右邊
 

圖片來(lái)源:FaceShifter論文(https://arxiv.org/pdf/1912.13457.pdf)

FaceShifter 通過(guò)使用生成性對(duì)抗網(wǎng)絡(luò)(GAN)來(lái)提高換臉的保真度,它主要由兩部分架構(gòu)組成。第一部分主要利用利用自適應(yīng)注意力非正規(guī)化(AAD)層的新生成器整合人臉合成圖片的特征和屬性,該層可以自適應(yīng)地學(xué)習(xí)整合面部屬性的位置;第二部分則重點(diǎn)解決面部遮擋問(wèn)題,這部分則包括了一個(gè)新的啟發(fā)式錯(cuò)誤確認(rèn)細(xì)化網(wǎng)絡(luò)(HEAR-Net),可利用重建圖像與其輸入之間的差異來(lái)識(shí)別遮擋。

微軟北大聯(lián)合提出換臉 AI 和臉部偽造檢測(cè)器,演繹現(xiàn)實(shí)版「矛與盾」? 

更多來(lái)自 FaceShifter 的樣本

研究小組稱,「該框架在生成任意真實(shí)圖像相對(duì)的換臉圖像時(shí),無(wú)需特定的訓(xùn)練,都顯示出了優(yōu)越的性能。大量實(shí)驗(yàn)表明,該框架明顯優(yōu)于以前的人臉交換方法。」

可以看到,在一項(xiàng)定性測(cè)試中,F(xiàn)aceShifter 保留了人臉形狀,并自動(dòng)適應(yīng)換臉圖像的光線和圖像分辨率。此外,即使是從互聯(lián)網(wǎng)上抓取的「狂野面孔」,該框架也能夠在不依賴人工注釋數(shù)據(jù)的情況下恢復(fù)異常區(qū)域——包括眼鏡、陰影和反射效果,以及其它不常見(jiàn)的遮擋。

灰度打假 FaceX-Ray

而與 FaceShifter 相比,F(xiàn)aceX-Ray 則恰好是偽造頭像的克星。正如研究人員在相應(yīng)的論文中所指出的那樣,我們確實(shí)需要這樣的工具來(lái)防止偽造圖像被濫用的情況。

2019 年 6 月曾有份報(bào)告披露,一名間諜利用人工智能生成的個(gè)人資料圖片愚弄 LinkedIn 中的聯(lián)系人;而就在去年 12 月,F(xiàn)acebook 發(fā)現(xiàn)數(shù)百個(gè)賬戶上面都有使用人工智能合成的假面像來(lái)作為個(gè)人資料照片。

微軟北大聯(lián)合提出換臉 AI 和臉部偽造檢測(cè)器,演繹現(xiàn)實(shí)版「矛與盾」? 

各種面部操作方法的視覺(jué)結(jié)果,包括自監(jiān)督生成的混合圖像
 

談回 Face X-Ray 檢測(cè)技術(shù),它與現(xiàn)有方法不同,它不需要事先知道操作方法或人工監(jiān)督;相反的是它會(huì)生成灰度圖像,顯示給定的輸入圖像是否可以分解為來(lái)自不同來(lái)源的兩個(gè)圖像的混合。

研究人員表示這一想法是可行的,因?yàn)榇蠖鄶?shù)操作換臉的方法,都會(huì)有「將已改變的面部混合到現(xiàn)有背景圖像中」這一步驟。但每幅圖像都有自己獨(dú)特的標(biāo)記,這些標(biāo)記是從硬件(如傳感器和鏡頭)或軟件組件(如壓縮和合成算法)引入的,并且這些標(biāo)記往往在整個(gè)圖像中也以類似的方式呈現(xiàn)。

微軟北大聯(lián)合提出換臉 AI 和臉部偽造檢測(cè)器,演繹現(xiàn)實(shí)版「矛與盾」? 

生成訓(xùn)練樣本概述

因此,F(xiàn)ace X-Ray 不需要依賴于與特定人臉操作技術(shù)相關(guān)聯(lián)的偽影知識(shí),并且支持它的算法可以在不使用任何方法生成假圖像的情況下進(jìn)行訓(xùn)練。

在一系列實(shí)驗(yàn)中,研究人員在 FaceForensics++(一個(gè)包含 1000 多個(gè)用四種最先進(jìn)的人臉置換方法生成的原始剪輯的大型視頻語(yǔ)料庫(kù)),以及另一個(gè)包含由真實(shí)圖像構(gòu)建的混合圖像的訓(xùn)練數(shù)據(jù)集上訓(xùn)練了 Face X-Ray。

他們?cè)u(píng)估了 FaceX-Ray 使用四個(gè)數(shù)據(jù)集進(jìn)行概括的能力,其中包括:

  • 上述 FaceForensics++語(yǔ)料庫(kù)的一個(gè)子集;
  • 谷歌發(fā)布的數(shù)千個(gè) deepfake 影視集合,deepfake 檢測(cè)挑戰(zhàn)賽的圖像;
  • Celeb DF,一個(gè)包含 408 個(gè)數(shù)據(jù)集真實(shí)視頻的語(yǔ)料庫(kù)和 795 個(gè)減少了視覺(jué)偽影的合成視頻。

結(jié)果表明,F(xiàn)ace X-Ray 能有效地識(shí)別出未被發(fā)現(xiàn)的偽造圖像,并能可靠地預(yù)測(cè)融合區(qū)域。研究人員指出,該方法依賴于混合步驟的存在,因此它可能不適用于全合成圖像,并且它可以無(wú)法成功檢測(cè)出對(duì)抗性樣本的真?zhèn)巍5查_(kāi)這一點(diǎn),這也算是朝通用化面部偽造圖像檢測(cè)工具邁出的有希望的一步。

原文地址:
https://venturebeat.com/2020/01/06/microsoft-researchers-propose-face-swapping-ai-and-face-forgery-detector/ 
FaceShifter 論文地址:
https://arxiv.org/pdf/1912.13457.pdf 
FaceX-Ray 論文地址:

https://arxiv.org/pdf/1912.13458.pdf 

來(lái)源 | 雷鋒網(wǎng)
作者 | 楊鯉萍

]]>
http://www.hualongw.cn/%e5%be%ae%e8%bd%af%e5%8c%97%e5%a4%a7%e8%81%94%e5%90%88%e6%8f%90%e5%87%ba%e6%8d%a2%e8%84%b8-ai-%e5%92%8c%e8%84%b8%e9%83%a8%e4%bc%aa%e9%80%a0%e6%a3%80%e6%b5%8b%e5%99%a8%ef%bc%8c%e6%bc%94%e7%bb%8e/feed/ 0
從 AlphaGo 到具有人類智慧的 AI 究竟有多遠(yuǎn)?Fran?ois Chollet 有了一些新想法 http://www.hualongw.cn/%e4%bb%8e-alphago-%e5%88%b0%e5%85%b7%e6%9c%89%e4%ba%ba%e7%b1%bb%e6%99%ba%e6%85%a7%e7%9a%84-ai-%e7%a9%b6%e7%ab%9f%e6%9c%89%e5%a4%9a%e8%bf%9c%ef%bc%9ffrancois-chollet-%e6%9c%89%e4%ba%86%e4%b8%80/ http://www.hualongw.cn/%e4%bb%8e-alphago-%e5%88%b0%e5%85%b7%e6%9c%89%e4%ba%ba%e7%b1%bb%e6%99%ba%e6%85%a7%e7%9a%84-ai-%e7%a9%b6%e7%ab%9f%e6%9c%89%e5%a4%9a%e8%bf%9c%ef%bc%9ffrancois-chollet-%e6%9c%89%e4%ba%86%e4%b8%80/#respond Tue, 07 Jan 2020 02:55:45 +0000 https://new.openi.org.cn/%e4%bb%8e-alphago-%e5%88%b0%e5%85%b7%e6%9c%89%e4%ba%ba%e7%b1%bb%e6%99%ba%e6%85%a7%e7%9a%84-ai-%e7%a9%b6%e7%ab%9f%e6%9c%89%e5%a4%9a%e8%bf%9c%ef%bc%9ffrancois-chollet-%e6%9c%89%e4%ba%86%e4%b8%80/
從 AlphaGo 到具有人類智慧的 AI 究竟有多遠(yuǎn)?Fran?ois Chollet 有了一些新想法
圖片來(lái)自Alex Castro / The Verge
 
測(cè)量人工智能的「智慧」是計(jì)算機(jī)科學(xué)領(lǐng)域中最棘手但最重要的問(wèn)題之一。如果你不明白你今天制造的機(jī)器是否比昨天更聰明,那你怎么知道你在進(jìn)步?

乍一看,這似乎不是問(wèn)題。其中一個(gè)回答是:「顯然人工智能越來(lái)越聰明」。僅從所有涌入這一領(lǐng)域的資金和人才就可以看出來(lái)。也可以回顧一下 AI 領(lǐng)域?qū)崿F(xiàn)的一系列里程碑,例如 AI 在圍棋上打敗人類,以及像圖像識(shí)別等在十年前根本不可能落地的應(yīng)用現(xiàn)在開(kāi)始變得無(wú)處不在。我們?cè)趺茨苷f(shuō) AI 這個(gè)領(lǐng)域不是在進(jìn)步?

另一個(gè)回答是,這些成就并不是衡量「智慧」的良好標(biāo)準(zhǔn)。AI在國(guó)際象棋和圍棋中擊敗人類確實(shí)令人印象深刻,但是如果在解決一般的問(wèn)題時(shí),一個(gè)正在蹣跚學(xué)步的孩子甚至一只老鼠都能讓最聰明的計(jì)算機(jī)「不知所措」,AI 又有什么用?

這是人工智能研究人員、谷歌軟件工程師、機(jī)器學(xué)習(xí)界知名人士François Chollet 對(duì)當(dāng)下的 AI 做出的評(píng)論。Chollet 是 Keras 庫(kù)的作者,而 Keras 則是一個(gè)被廣泛應(yīng)用的開(kāi)發(fā)神經(jīng)網(wǎng)絡(luò)的程序,是當(dāng)代人工智能的脊柱。他還編寫(xiě)了大量關(guān)于機(jī)器學(xué)習(xí)的教科書(shū),并在 Twitter 開(kāi)設(shè)了專欄分享自己對(duì)于 AI 領(lǐng)域的觀點(diǎn),廣受歡迎。

在最近一篇題為《測(cè)量智慧》的論文中,Chollet 還提出了一個(gè)論點(diǎn),即人工智能世界需要重新定義什么是「智慧」以及什么不是「智慧」。Chollet 指出,如果研究人員想在通用人工智能方面取得進(jìn)展,他們需要回顧過(guò)去流行的基準(zhǔn),如電子游戲和棋類游戲,并開(kāi)始思考讓人類變得聰明的技能,比如我們所具有的概括和適應(yīng)的能力。

在接受 The Verge 雜志的電子郵件采訪時(shí),Chollet 闡述了他對(duì)這個(gè)問(wèn)題的看法,談到了他為什么認(rèn)為人工智能目前的成就被「歪曲了」,以及我們將來(lái)如何衡量「智慧」,為什么關(guān)于超級(jí)人工智能的恐怖故事(如 Elon Musk 和其他人所說(shuō))會(huì)毫無(wú)根據(jù)地把控住公眾的想象力。

從 AlphaGo 到具有人類智慧的 AI 究竟有多遠(yuǎn)?Fran?ois Chollet 有了一些新想法

FrançoisChollet是AI框架Keras的發(fā)明者,也是Google的軟件工程師

為了將Chollet 的觀點(diǎn)表述得更為清晰,本文對(duì)采訪做了一定編輯。

問(wèn):在您的論文中,您描述了塑造人工智能領(lǐng)域的兩個(gè)不同的「智慧」概念:一種「智慧」表現(xiàn)為能夠勝任廣泛的任務(wù)的能力,另一種則優(yōu)先考慮適應(yīng)能力和泛化能力,即人工智能應(yīng)對(duì)新挑戰(zhàn)的能力。現(xiàn)在哪個(gè)框架的影響力更大,帶來(lái)了什么樣的影響?

Chollet:該領(lǐng)域發(fā)展的頭 30 年里,最有影響力的觀點(diǎn)是前者:「智慧」是一套靜態(tài)的程序和顯性的知識(shí)庫(kù)。現(xiàn)在,觀點(diǎn)則向另一個(gè)相反的方向偏倚:AI 社區(qū)定義「智慧」的主流方法還是一張「白紙」,或者用一個(gè)更確切的比喻來(lái)說(shuō),是「新初始化的深層神經(jīng)網(wǎng)絡(luò)」。然而不幸的是,這是一個(gè)基本上沒(méi)有受過(guò)挑戰(zhàn)、甚至幾乎沒(méi)有經(jīng)過(guò)檢驗(yàn)的框架。這些問(wèn)題有著很長(zhǎng)的學(xué)術(shù)歷史(確切地說(shuō)是幾十年的歷史),我認(rèn)為即便是現(xiàn)在,AI 領(lǐng)域?qū)Α钢腔邸挂矝](méi)有太多認(rèn)識(shí),也許是因?yàn)楝F(xiàn)在在做深度學(xué)習(xí)的人,大多數(shù)都是在 2016 年之后才加入這個(gè)領(lǐng)域的。

這種知識(shí)壟斷現(xiàn)象從來(lái)都不是什么好事,尤其是在回答這些理解尚不足的科學(xué)問(wèn)題時(shí)。它對(duì)于領(lǐng)域內(nèi)的研究者提出一系列的問(wèn)題帶來(lái)了很大的限制,也限制了人們追求的思想空間。我認(rèn)為現(xiàn)在研究者們逐漸開(kāi)始意識(shí)到了這個(gè)現(xiàn)象。

問(wèn):在您的論文中,您還提出,人工智能需要更好地定義「智慧」才能進(jìn)步。您提到,現(xiàn)在研究人員專注于在靜態(tài)測(cè)試(例如在電子游戲和棋類游戲中獲勝)中對(duì)性能進(jìn)行基準(zhǔn)測(cè)試。為什么您覺(jué)得這種測(cè)量「智慧」的方式是不足夠的呢?

Chollet:是這樣的,一旦你選擇了一個(gè)衡量標(biāo)準(zhǔn),你將會(huì)為了實(shí)現(xiàn)這一標(biāo)準(zhǔn)而采取任何可以采用的捷徑。例如,如果你把下棋作為衡量「智慧」的標(biāo)準(zhǔn)(我們從 20 世紀(jì) 70 年代到 90 年代都是這么做的),你最終會(huì)得到一個(gè)下棋的系統(tǒng),僅此而已。而根本沒(méi)有理由去思考這個(gè)系統(tǒng)到底對(duì)其他事情有什么益處。你最終讓系統(tǒng)實(shí)現(xiàn)了樹(shù)狀搜索和極小化極大算法,但這并不能教會(huì)系統(tǒng)任何關(guān)于人類智能的知識(shí)。如今,研究者們?cè)?Dota 或 StarCraft 等電子游戲中追求高超技能,將此作為實(shí)現(xiàn)了通用「智慧」的典型代表,則陷入了完全相同的智力陷阱。

這也許并不明顯,因?yàn)樵谌祟惪磥?lái),技能和「智慧」是密切相關(guān)的。人類的大腦可以利用它的通用「智慧」來(lái)獲得完成特定任務(wù)的技能。一個(gè)真正擅長(zhǎng)象棋的人可以被認(rèn)為是相當(dāng)聰明的,因?yàn)椋覀冸[約知道他們必須用自己的通用「智慧」來(lái)從零開(kāi)始學(xué)習(xí)下棋。他們不是為下棋而生的。所以我們知道,他們可以把這種通用「智慧」指向許多其他任務(wù)上,并學(xué)會(huì)同樣很高效地完成這些任務(wù)。這就是所謂的「通用性」。

但是機(jī)器沒(méi)有這樣的限制,機(jī)器完全可以為下棋而設(shè)計(jì)。因此,我們對(duì)人類所做的推論——「會(huì)下棋,因此一定很聰明」,就失效了,我們的擬人假設(shè)不再適用。通用「智慧」可以產(chǎn)生完成特定任務(wù)的技能,但絕對(duì)不能反過(guò)來(lái)說(shuō),完成特定任務(wù)的技能可以產(chǎn)生通用「智慧」。所以對(duì)于機(jī)器而言,技能和智慧是完全正交的。你可以獲得針對(duì)任何特定任務(wù)的特定技能,只要你可以用無(wú)限數(shù)據(jù)作為這種任務(wù)的樣例(或者花費(fèi)無(wú)限的工程資源),但這仍然不能讓機(jī)器更接近通用「智慧」。

我最主要的觀點(diǎn)是,在任何一項(xiàng)任務(wù)中獲得超高技能,都不能作為「智慧」的標(biāo)志。除非這項(xiàng)任務(wù)實(shí)際上是一項(xiàng)元任務(wù),它涉及讓機(jī)器在一系列以前未知的問(wèn)題上獲得新技能。這正是我所提倡的「智慧」的基準(zhǔn)。

從 AlphaGo 到具有人類智慧的 AI 究竟有多遠(yuǎn)?Fran?ois Chollet 有了一些新想法

人工智能實(shí)驗(yàn)室的研究人員在《星際爭(zhēng)霸2》中觀察他們的人工智能AlphaStar如何對(duì)付人類玩家。圖片來(lái)自DeepMind

問(wèn):如果當(dāng)前的這些基準(zhǔn)無(wú)法幫助我們發(fā)展擁有更通用、更靈活的「智慧」的人工智能,那么為什么它們?nèi)绱耸軞g迎?

Chollet:毫無(wú)疑問(wèn),AI在特定的知名電子游戲中擊敗人類冠軍的成就很大程度上是由報(bào)道這些項(xiàng)目的媒體所推動(dòng)的。如果公眾對(duì)這些浮躁的,而且很容易被誤解為通往超人類通用人工智能的重要進(jìn)步的「里程碑」不感興趣,那么研究人員將做些別的事情。

我覺(jué)得這有點(diǎn)可悲,因?yàn)檠芯繎?yīng)該回答開(kāi)放的科學(xué)問(wèn)題,而不是產(chǎn)生公關(guān)效應(yīng)。如果我開(kāi)始用深度學(xué)習(xí)以超人類的水平「解決」《魔獸爭(zhēng)霸 3》,你可以肯定的是,只要我有足夠的工程人才和計(jì)算能力(對(duì)于這樣的任務(wù)來(lái)說(shuō),這大約需要幾千萬(wàn)美元),我就一定能達(dá)到目的。然而一旦我做到了,我能學(xué)到關(guān)于「智慧」和泛化能力的什么東西嗎?坦白說(shuō),什么也學(xué)不到。充其量,我會(huì)掌握有關(guān)擴(kuò)展深度學(xué)習(xí)的工程知識(shí)。所以,我并不真正將其視為科學(xué)研究,因?yàn)樗鼪](méi)有教給我們?nèi)魏挝覀儾恢赖臇|西,也沒(méi)有回答任何開(kāi)放性的問(wèn)題。如果問(wèn)題是,「我們能在超人類的水平上玩 X 游戲嗎?」答案是肯定的:「可以,只要你能夠生成足夠密集的訓(xùn)練環(huán)境的樣本,并將其輸入到一個(gè)有效表達(dá)的深度學(xué)習(xí)模型中」,早在前一段時(shí)間,我們就已經(jīng)知道了這一點(diǎn)。(事實(shí)上,在 AIs 達(dá)到 DOTA2 和 StarCraft II 的冠軍級(jí)別之前的一段時(shí)間,我就表達(dá)過(guò)這樣的觀點(diǎn)。)

問(wèn):您認(rèn)為這些項(xiàng)目的實(shí)際成果是什么?這些項(xiàng)目的結(jié)果在多大程度上被誤解或歪曲

Chollet:我看到的一個(gè)明顯錯(cuò)誤的陳述是,這些高技能的游戲系統(tǒng)代表著「可以處理現(xiàn)實(shí)世界的復(fù)雜性和不確定性的人工智能系統(tǒng)的真正進(jìn)步」。(正如 OpenAI 在給用來(lái)玩 DOTO2 的程序 OpenAI 5 發(fā)布的新聞稿中所宣稱的那樣)。它們并不能代表人工智能的進(jìn)步。如果它們真的可以,這將是一個(gè)非常有價(jià)值的研究領(lǐng)域,但事實(shí)并非如此。以 OpenAI 5 為例,它最初不能處理 Dota2 的復(fù)雜性,因?yàn)樗怯?16 個(gè)字符來(lái)訓(xùn)練的,不能泛化到整個(gè)游戲中,整個(gè)游戲有超過(guò) 100 個(gè)字符。它經(jīng)過(guò)了 45,000 年的游戲訓(xùn)練,然后再一次注意到對(duì)于訓(xùn)練數(shù)據(jù)的需求如何隨著任務(wù)的復(fù)雜度增長(zhǎng)。而即便經(jīng)過(guò)這么長(zhǎng)時(shí)間的訓(xùn)練,得到的模型依舊被證明是非常脆弱的:在這種 AI 對(duì)外發(fā)布能供人類與之對(duì)戰(zhàn)后,即便是非冠軍的人類玩家,也能夠找到能十拿九穩(wěn)地打敗它的策略。

如果你希望有一天能夠處理現(xiàn)實(shí)世界的復(fù)雜性和不確定性,你就必須開(kāi)始問(wèn)一些問(wèn)題,比如什么是泛化?如何衡量和最大化學(xué)習(xí)系統(tǒng)的泛化能力?這與向一個(gè)大的神經(jīng)網(wǎng)絡(luò)投入 10 倍的數(shù)據(jù)并進(jìn)行計(jì)算完全是正交的,這樣它的技能就能提高一點(diǎn)點(diǎn)。

問(wèn):那么,對(duì)于這個(gè)領(lǐng)域來(lái)說(shuō),什么是更好的測(cè)量「智慧」的標(biāo)準(zhǔn)呢?

Chollet:簡(jiǎn)而言之,我們需要停止評(píng)估針對(duì)事先已知的任務(wù)的技能(比如象棋、Dota 或 StarCraft),而是開(kāi)始評(píng)估「技能獲得能力」。這是指只使用系統(tǒng)事先不知道的新任務(wù),來(lái)測(cè)量系統(tǒng)開(kāi)始執(zhí)行任務(wù)的先驗(yàn)知識(shí)并測(cè)量系統(tǒng)的樣本效率(即完成任務(wù)所需的數(shù)據(jù)量)。系統(tǒng)需要的信息(先前的知識(shí)和經(jīng)驗(yàn))越少,它就越聰明,而今天的人工智能系統(tǒng)真的一點(diǎn)也不聰明。

此外,我認(rèn)為我們對(duì)「智慧」的衡量應(yīng)該使「似人性」更加明確,因?yàn)榭赡艽嬖诓煌愋偷摹钢腔邸梗覀儗?shí)際上就是在隱含地談?wù)擃惾说摹钢腔邸梗@包括試圖理解人類與生俱來(lái)的先驗(yàn)知識(shí)。人類的學(xué)習(xí)是極其高效的,他們只需要很少的經(jīng)驗(yàn)就可以獲得新技能,但他們并不是從頭開(kāi)始學(xué)習(xí):除了一生積累的技能和知識(shí)外,他們還利用與生俱來(lái)的先驗(yàn)知識(shí)來(lái)學(xué)習(xí)。

我最近的論文提出了一個(gè)新的基準(zhǔn)數(shù)據(jù)集 ARC(「Abstraction and Reasoning Corpus」,意為「抽象和推理語(yǔ)料庫(kù)」),它看起來(lái)很像智商測(cè)試。ARC 是一組推理任務(wù),其中每個(gè)任務(wù)都通過(guò)一小段演示(通常是三個(gè)演示)進(jìn)行解釋,你應(yīng)該從這幾個(gè)演示中學(xué)習(xí)如何完成任務(wù)。ARC 采取的立場(chǎng)是,你的系統(tǒng)所評(píng)估的每一項(xiàng)任務(wù)都應(yīng)該是全新的,而且應(yīng)該只涉及符合人類先天知識(shí)的知識(shí)。例如,它不能以語(yǔ)言作為特征。目前,ARC 完全可以在沒(méi)有任何口頭解釋或先前訓(xùn)練的前提下由人類完成,但它完全不能被任何我們已經(jīng)嘗試過(guò)的人工智能技術(shù)所解決。這是一個(gè)巨大且明顯的信號(hào),表明了有一些事情正在發(fā)生,也表明我們需要新的想法。

從 AlphaGo 到具有人類智慧的 AI 究竟有多遠(yuǎn)?Fran?ois Chollet 有了一些新想法

Chollet 為他的新 ARC 基準(zhǔn)數(shù)據(jù)集提出的「智慧」測(cè)試的一個(gè)例子。圖片來(lái)自 François Chollet

問(wèn):您認(rèn)為只通過(guò)在這些問(wèn)題上投入更多的計(jì)算能力,人工智能世界能夠繼續(xù)進(jìn)步嗎?有人認(rèn)為,從發(fā)展歷史上看,這是提高績(jī)效的最成功的方法,而其他人則認(rèn)為,如果我們沿著這條路走下去,我們很快就會(huì)看到收益遞減。

Chollet:如果你在做一個(gè)特定的任務(wù),這種觀點(diǎn)是絕對(duì)正確的:在垂直任務(wù)上投入更多的訓(xùn)練數(shù)據(jù)和計(jì)算能力將提高針對(duì)該任務(wù)的能力。然而在幫助你理解如何實(shí)現(xiàn)人工智能的通用性方面,它會(huì)讓你一無(wú)所獲。

如果你有一個(gè)足夠大的深度學(xué)習(xí)模型,并且針對(duì)一個(gè)特定任務(wù)在跨輸入輸出空間的密集采樣上訓(xùn)練它,那么它將學(xué)習(xí)解決這個(gè)任務(wù),不管是什么——不論是 Dota 還是 StarCraft,凡是你能想到的。這是非常有價(jià)值的,并且在機(jī)器感知問(wèn)題中有著幾乎無(wú)限的應(yīng)用。這里唯一的問(wèn)題是,你需要的數(shù)據(jù)量是一個(gè)任務(wù)復(fù)雜度的組合函數(shù),所以即使是稍微復(fù)雜的任務(wù),計(jì)算也會(huì)變得非常昂貴。

以自動(dòng)駕駛汽車(chē)為例。數(shù)以百萬(wàn)計(jì)的訓(xùn)練環(huán)境也不足以讓一個(gè)端到端的深度學(xué)習(xí)模型學(xué)會(huì)安全駕駛汽車(chē)。首先,這就是L5 自動(dòng)駕駛還沒(méi)有完全實(shí)現(xiàn)的原因。其次,最先進(jìn)的自動(dòng)駕駛系統(tǒng)主要是符號(hào)模型,它們使用深度學(xué)習(xí)將這些人工設(shè)計(jì)的模型與傳感器數(shù)據(jù)連接起來(lái)。所以如果深度學(xué)習(xí)可以泛化的話,我們?cè)?2016 年就應(yīng)該擁有了 L5 自動(dòng)駕駛,并且它采用一種大型神經(jīng)網(wǎng)絡(luò)的形式。

從 AlphaGo 到具有人類智慧的 AI 究竟有多遠(yuǎn)?Fran?ois Chollet 有了一些新想法

自動(dòng)駕駛汽車(chē)的發(fā)展比許多人預(yù)測(cè)的要慢得多。圖片來(lái)自Vjeran Pavic / The Verge

問(wèn):最后,考慮到您所說(shuō)的當(dāng)前人工智能系統(tǒng)的限制,似乎有必要問(wèn)一下對(duì)于「一個(gè)非常強(qiáng)大的 AI 在未來(lái)將會(huì)給人類帶來(lái)毀滅性的傷害」的「超級(jí)智能恐懼論」,您認(rèn)為這種擔(dān)憂合理嗎?

Chollet:不,我認(rèn)為關(guān)于超級(jí)智能的論述是沒(méi)有根據(jù)的。我們從未創(chuàng)造過(guò)一個(gè)自主的智能系統(tǒng),也絕對(duì)沒(méi)有跡象表明我們能夠在不遠(yuǎn)的將來(lái)創(chuàng)造一個(gè)。(這也并不是當(dāng)前人工智能的發(fā)展方向。)而且如果我們真的在遙遠(yuǎn)的未來(lái)創(chuàng)造了一個(gè)這樣的系統(tǒng),我們也完全沒(méi)有辦法推測(cè)它會(huì)具備什么特征。用一個(gè)比喻來(lái)說(shuō),這有點(diǎn)像在 1600 年問(wèn):「彈道學(xué)進(jìn)展很快!所以,如果我們有一門(mén)可以摧毀整個(gè)城市的大炮會(huì)怎么樣呢,我們?nèi)绾未_保它只會(huì)殺掉壞人?」這是一個(gè)相當(dāng)畸形的問(wèn)題,在對(duì)我們所討論的系統(tǒng)尚缺乏任何知識(shí)的情況下進(jìn)行辯論,這個(gè)問(wèn)題充其量只是一個(gè)哲學(xué)爭(zhēng)論。

這種「超級(jí)智能恐懼論」有一個(gè)很大的問(wèn)題是它們掩蓋了今天人工智能有可能變得相當(dāng)危險(xiǎn)這一事實(shí)。并非AI 系統(tǒng)實(shí)現(xiàn)了超級(jí)智能才能證實(shí) AI 應(yīng)用潛藏著危險(xiǎn)。我此前寫(xiě)過(guò)關(guān)于使用人工智能來(lái)實(shí)現(xiàn)算法宣傳系統(tǒng)的文章,也有其他人寫(xiě)過(guò)算法偏見(jiàn)、在武器系統(tǒng)中使用人工智能,或者把人工智能當(dāng)作極權(quán)主義的控制工具的文章。

有一個(gè)關(guān)于 1453 年君士坦丁堡被圍困的故事,講的是當(dāng)這座城市與奧斯曼軍隊(duì)作戰(zhàn)時(shí),它的學(xué)者和統(tǒng)治者卻在爭(zhēng)論天使的性別。這個(gè)故事告訴我們,我們投入越多的精力和注意力討論天使的性別,或者假設(shè)超級(jí)人工智能的價(jià)值取向時(shí),我們處理人工智能技術(shù)當(dāng)下存在的現(xiàn)實(shí)而緊迫的問(wèn)題的精力和注意力就越少。現(xiàn)在,有一個(gè)出名的技術(shù)領(lǐng)導(dǎo)者喜歡把超級(jí)人工智能描繪成對(duì)人類生存的威脅。好吧,雖然這些想法能夠極大地吸引媒體的注意,但卻并沒(méi)有討論在我們的道路上那些部署不夠準(zhǔn)確的、會(huì)導(dǎo)致交通事故和生命損失的自動(dòng)駕駛系統(tǒng)所引發(fā)的道德問(wèn)題。

問(wèn):如果一個(gè)人接受這些評(píng)論,即目前這些恐懼還沒(méi)有技術(shù)基礎(chǔ)作為支撐,那么您認(rèn)為為什么超級(jí)智能的論述如此受歡迎呢?

Chollet:最后我只能說(shuō),這是一個(gè)好故事,而人們往往會(huì)被好故事所吸引。它與末世宗教的故事相似并不是巧合,因?yàn)樽诮坦适聲?huì)隨著時(shí)間的推移而不斷演變并且會(huì)經(jīng)過(guò)人們一再挑選,以與人們產(chǎn)生強(qiáng)烈的共鳴并有效傳播。出于同樣的原因,你也可以在科幻電影和小說(shuō)中找到這種論述。這種論述被用在小說(shuō)里,與它跟宗教故事相似以及作為一種理解人工智能發(fā)展方向的方式而流行起來(lái)的原因都是一樣的:它是一個(gè)好故事,而人們需要故事來(lái)理解這個(gè)世界。人們對(duì)這些故事的需求,遠(yuǎn)遠(yuǎn)超過(guò)對(duì)理解「智慧」的本質(zhì)或理解推動(dòng)技術(shù)進(jìn)步的因素的需求。

via https://www.theverge.com/2019/12/19/21029605/artificial-intelligence-ai-progress-measurement-benchmarks-interview-francois-chollet-google

來(lái)源 | 雷鋒網(wǎng)

]]>
http://www.hualongw.cn/%e4%bb%8e-alphago-%e5%88%b0%e5%85%b7%e6%9c%89%e4%ba%ba%e7%b1%bb%e6%99%ba%e6%85%a7%e7%9a%84-ai-%e7%a9%b6%e7%ab%9f%e6%9c%89%e5%a4%9a%e8%bf%9c%ef%bc%9ffrancois-chollet-%e6%9c%89%e4%ba%86%e4%b8%80/feed/ 0
周杰倫cos油畫(huà)、鋼鐵俠穿越,北大微軟新方法讓換臉更驚艷 http://www.hualongw.cn/%e5%91%a8%e6%9d%b0%e4%bc%a6cos%e6%b2%b9%e7%94%bb%e3%80%81%e9%92%a2%e9%93%81%e4%be%a0%e7%a9%bf%e8%b6%8a%ef%bc%8c%e5%8c%97%e5%a4%a7%e5%be%ae%e8%bd%af%e6%96%b0%e6%96%b9%e6%b3%95%e8%ae%a9%e6%8d%a2/ http://www.hualongw.cn/%e5%91%a8%e6%9d%b0%e4%bc%a6cos%e6%b2%b9%e7%94%bb%e3%80%81%e9%92%a2%e9%93%81%e4%be%a0%e7%a9%bf%e8%b6%8a%ef%bc%8c%e5%8c%97%e5%a4%a7%e5%be%ae%e8%bd%af%e6%96%b0%e6%96%b9%e6%b3%95%e8%ae%a9%e6%8d%a2/#respond Tue, 07 Jan 2020 02:48:28 +0000 https://new.openi.org.cn/%e5%91%a8%e6%9d%b0%e4%bc%a6cos%e6%b2%b9%e7%94%bb%e3%80%81%e9%92%a2%e9%93%81%e4%be%a0%e7%a9%bf%e8%b6%8a%ef%bc%8c%e5%8c%97%e5%a4%a7%e5%be%ae%e8%bd%af%e6%96%b0%e6%96%b9%e6%b3%95%e8%ae%a9%e6%8d%a2/ 換臉效果不夠真實(shí),能讓你看出破綻?看看北大和微軟的研究者如何生成更加真實(shí)的換臉效果,如何解決遮擋、光線等各種問(wèn)題。

換臉是非常吸引人的一種應(yīng)用,開(kāi)發(fā)者可以用 VAE 或 GAN 做出非常炫酷的效果。一般而言,換臉會(huì)將 A 臉特征換到 B 臉上,同時(shí)保留 B 臉的神情或動(dòng)態(tài)。像 FaceSwap 這樣開(kāi)源項(xiàng)目已經(jīng)能生成非常真實(shí)的假臉視頻,不過(guò)仔細(xì)看看仍然會(huì)發(fā)現(xiàn)有的地方存在模糊,有的地方轉(zhuǎn)換不太自然。

那么怎樣才能生成轉(zhuǎn)換更自然,效果更真實(shí)的換臉視頻?這就是這篇論文的研究目的,研究者新模型不僅感官上更真實(shí),同時(shí)還保留了比其它前沿方法更多的個(gè)人特征。

下面我們先看看效果:

研究者同時(shí)從網(wǎng)絡(luò)上下載人臉圖像以展示 FaceShifter 的強(qiáng)大能力。如圖 11 所示,新方法可以處理不同情況下(如夸張的動(dòng)作、非常見(jiàn)光照以及極其復(fù)雜的面部遮擋)的人臉圖像。

研究者此次提出了一種新型的兩段式框架——FaceShifter。這個(gè)框架可以完成高保真的換臉過(guò)程,在面部有遮擋時(shí)依然可以很好地工作。不像那些只利用有限信息就完成換臉任務(wù)的框架,該框架中的第一部分就自適應(yīng)地整合了目標(biāo)圖像的所有屬性以生成高保真的換臉圖片。

此外,研究者提出了一種新型的屬性編碼器以提取人臉圖像的多級(jí)屬性,同時(shí)提出了一種基于 Adaptive Attentional Denormalization (AAD) 的新型生成器,自適應(yīng)地整合人臉合成時(shí)所需的特征和屬性。

為了解決臉部遮擋的問(wèn)題,研究者在框架中加入了第二部分——Heuristic Error Acknowledging Refinement Network (HEAR-Net)。這個(gè)網(wǎng)絡(luò)通過(guò)自監(jiān)督的方式,在沒(méi)有人工標(biāo)注的情況下實(shí)現(xiàn)異常區(qū)域的修復(fù)。

下面,讓我們看看這種高逼真度的換臉到底是怎么樣的。

論文:FaceShifter: Towards High Fidelity And Occlusion Aware Face Swapping

論文地址:https://arxiv.org/pdf/1912.13457.pdf

換臉的缺陷與改進(jìn)

換臉技術(shù)就是將目標(biāo)圖像中人臉的面部特征替換為源圖像人臉的對(duì)應(yīng)部分,同時(shí)還要保留一些如頭部動(dòng)作、臉部表情、光線、背景等基本屬性。由于這一技術(shù)在電影合成、電腦游戲以及隱私保護(hù)等方面有很廣泛的應(yīng)用前景,這一技術(shù)已經(jīng)廣泛引起了視覺(jué)和圖像領(lǐng)域的關(guān)注。

最近,基于 GAN 的一些工作已經(jīng)取得了很不錯(cuò)的結(jié)果。但是,如何生成真實(shí)且保真的圖像依舊是個(gè)很大的難題。
因此我們這項(xiàng)工作的重點(diǎn)之一就是提高換臉后圖像的保真度。為了讓結(jié)果在感官上更具吸引力,如何讓合成的換臉圖像無(wú)縫融入新臉,同時(shí)保持原有姿勢(shì)表情,這就是我們要研究的重點(diǎn)。也就是說(shuō),換臉圖像的渲染應(yīng)當(dāng)忠于目標(biāo)圖像的光線(方向,強(qiáng)度,顏色等),被交換的臉也應(yīng)該跟目標(biāo)圖像有相同的分辨率。

這些都不是僅僅 Alpha 或是 Poisson 混合能夠解決的,我們真正需要的是讓換臉過(guò)程可以自適應(yīng)地繼承目標(biāo)圖像完整屬性信息,這樣目標(biāo)圖像的屬性(亮度、分辨率等)就可以讓換臉后的圖像變得更加真實(shí)。

然而,以前的方法要么忽略了這一需求,要么就是無(wú)法自適應(yīng)或者完整地集成這些信息。具體來(lái)說(shuō),以往的許多方法僅利用目標(biāo)圖像的姿態(tài)和表情來(lái)指導(dǎo)換臉過(guò)程,然后利用目標(biāo)人臉 Mask 將人臉混合到目標(biāo)圖像中。這一過(guò)程容易產(chǎn)生一些缺陷,因?yàn)椋?/p>

1)在合成換臉圖像時(shí),除了姿態(tài)和表情外,對(duì)目標(biāo)圖像的了解很少,很難保證場(chǎng)景光照或圖像分辨率等目標(biāo)屬性不發(fā)生變化;2)這樣的混合將丟棄位于目標(biāo) Mask 外部的源面部特征。

因此,這些方法不能保持源標(biāo)識(shí)的面形,我們?cè)趫D 2 中展示了一些典型的失敗案例。

圖 2:之前方法在 FaceForensics++數(shù)據(jù)集上的失敗案例
 
為了實(shí)現(xiàn)高保真的人臉交換結(jié)果,在框架的第一階段,我們?cè)O(shè)計(jì)了一個(gè)基于 GAN 的網(wǎng)絡(luò)以對(duì)目標(biāo)屬性進(jìn)行徹底的自適應(yīng)集成,并稱之為自適應(yīng)嵌入集成網(wǎng)絡(luò)(Adaptive Embedding Integration Network,AEI-Net)。我們對(duì)網(wǎng)絡(luò)結(jié)構(gòu)做了兩個(gè)改進(jìn):

1)我們提出了一種新的多級(jí)屬性編碼器,用于提取各種空間分辨率下的目標(biāo)屬性,而不是像 RSGAN[28] 和 IPGAN[5] 那樣將其壓縮成單個(gè)向量;

2)提出了一種有 Adaptive Attentional Denormalization(AAD) 層的新型生成器器,該發(fā)生器自適應(yīng)地學(xué)習(xí)了在何處集成屬性以及特征的嵌入。與 RSGAN[28]、FSNet[27] 和 IPGAN[5] 的單級(jí)集成相比,這種自適應(yīng)集成為結(jié)果帶來(lái)了相當(dāng)大的改進(jìn)。

通過(guò)這兩個(gè)改進(jìn),我們提出的 AEI-Net 可以解決圖 2 中光照不一致和人臉形狀不一致的問(wèn)題。

此外,處理面部的遮擋一直是換臉的挑戰(zhàn)。Nirkin 等人的方法中對(duì)人臉進(jìn)行分割并訓(xùn)練以使其能感知到臉部的遮擋部分,我們的方法可以以一種自監(jiān)督的方式學(xué)習(xí)恢復(fù)人臉異常區(qū)域,而且不需要任何人工標(biāo)注。我們觀察到,當(dāng)把同一張人臉圖像同時(shí)作為目標(biāo)圖像和源圖像,并輸入到一個(gè)訓(xùn)練良好的 AEI 網(wǎng)絡(luò)時(shí),重建的人臉圖像跟輸入圖像有多處改變,這些改變所在的位置基本上就是臉部遮擋的區(qū)域。

因此,我們提出了一種新的 Heuristic Error Acknowledging Refinement Network (HEAR-Net),在這種重構(gòu)誤差的指導(dǎo)下進(jìn)一步精化結(jié)果。重要的是,這個(gè)方法不止是能修正臉部遮擋,它還可以識(shí)別很多其他的異常類型,如眼鏡、陰影和反射效應(yīng)。

我們提出的兩段式換臉框架 FaceShifter 與場(chǎng)景無(wú)關(guān)。一旦訓(xùn)練完成,該模型就可以應(yīng)用于任何新的人臉對(duì),而不需要像 DeepFakes 和 Korshunova 等人的 [21] 那樣找特定的受試者訓(xùn)練。實(shí)驗(yàn)結(jié)果表明,與其他先進(jìn)的方法相比,我們的方法獲得的結(jié)果更真實(shí)、更可靠。

FaceShifter 模型什么樣

我們的方法需要輸入兩張圖像——提供人臉特征的源圖像 X_s 以及提供動(dòng)作、表情、光線、背景等屬性的目標(biāo)圖像 X_t。最終的換臉圖像是通過(guò)兩段式框架 FaceShifter 生成的。在第一階段中, 我們的 AEINet 自適應(yīng)地基于集成信息生成了一個(gè)高保真的換臉結(jié)果


。在第二階段,我們使用 Heuristic Error Acknowledging Network (HEARNet) 來(lái)處理面部遮擋,并對(duì)結(jié)果進(jìn)行改進(jìn),最后的結(jié)果用

表示。
自適應(yīng)嵌入集成網(wǎng)絡(luò)(Adaptive Embedding Integration Network)
在第一階段,我們希望生成一個(gè)高保真(擁有源圖像 X_s 特征,且保留目標(biāo)圖像 X_t 動(dòng)作等屬性)的人臉圖像。為了達(dá)到這一目標(biāo),我們的方法包含三個(gè)模塊:
i)從源圖像中抽取特征的特征編碼器 z_id(X_s);
ii)從目標(biāo)圖像 X_t 抽取屬性的多級(jí)屬性編碼器 z_att(X_t);
iii)基于 Adaptive Attentional Denormalization (AAD) 生成換臉圖像的生成器。

啟發(fā)式誤差修正網(wǎng)絡(luò)(Heuristic Error Acknowledging Refinement Network)
盡管 AEINet 第一階段的換臉結(jié)果
已經(jīng)能很好的獲取目標(biāo)圖像的動(dòng)作、表情、光照等屬性,但是當(dāng)目標(biāo)臉部圖像 Xt 中對(duì)臉部有遮擋時(shí),這種遮擋就很難被繼承下來(lái)。為了解決這個(gè)問(wèn)題,過(guò)去的一些方法 [30,29] 加入了一個(gè)新的臉部分割網(wǎng)絡(luò)。這個(gè)網(wǎng)絡(luò)的訓(xùn)練數(shù)據(jù)需要進(jìn)行大量標(biāo)注(哪一部分有遮擋),而且這種有監(jiān)督方式可能很難識(shí)別出未知的遮擋方式。

對(duì)于面部遮擋問(wèn)題,我們提出了一種啟發(fā)式的方法。如圖 4(a) 所示,當(dāng)目標(biāo)圖像中的臉被遮擋時(shí)(頭發(fā)或是帽子上的鐵鏈),有一部分遮擋會(huì)在換臉過(guò)程中小時(shí)。同時(shí),我們發(fā)現(xiàn),就算我們把同一張圖同時(shí)作為源圖像和目標(biāo)圖像輸入給訓(xùn)練好的 AEI-Net,這種遮擋還是會(huì)在重建的圖像中消失。此時(shí)這種輸出與輸入的誤差,就可以作為我們定位面部遮擋的依據(jù),我們把這種依據(jù)叫做輸入圖像的啟發(fā)式錯(cuò)誤,因?yàn)檫@個(gè)誤差啟發(fā)性的表征了異常發(fā)生的位置。

實(shí)驗(yàn)效果怎么樣

與過(guò)去方法的比較

1. 定性對(duì)比

圖 5 展示了我們?cè)?FaceForensics++數(shù)據(jù)集上與 FaceSwap [2], Nirkin et al. [30], DeepFakes [1] 和 IPGAN [5] 的比較。

圖 6 則展示了我們的方法與最新方法 FSGAN 的對(duì)比。
 

由于 FaceSwap [2], Nirkin et al. [30], DeepFakes [1] 和 IPGAN [5] 的策略都是先生成臉部區(qū)域圖像,然后將其嵌入到目標(biāo)臉中,我們可以從比較中明顯的看出這些方法的嵌入誤差。

這些方法生成的所有人臉與其目標(biāo)人臉有著完全相同的人臉輪廓,而且源人臉的形狀也被忽略了(圖 5 第 1-4 行及圖 6 第 1-2 行)。除此之外, 他們的研究結(jié)果一定程度上忽略了目標(biāo)圖像的一些重要信息,如光照(圖 5 第 3 行,圖 6 第 3 – 5 行),圖像分辨率(圖 5 第 2 行和第 4 行)。由于 IPGAN[5] 的矩陣只描述了單一級(jí)別的屬性,因此其所有樣本都顯示出了分辯率下降的問(wèn)題。同時(shí),IPGAN 也不能很好地保存目標(biāo)面部的表情,如閉上的眼睛(圖 5 第 2 行)。

我們的方法很好地解決了所有這些問(wèn)題,實(shí)現(xiàn)了更高的保真度——保留了源人臉(而非過(guò)去的目標(biāo)人臉)的臉部輪廓,且保證了目標(biāo)圖像(而非過(guò)去的源人臉)的光線與圖像分辨率。我們的方法在處理面部遮擋問(wèn)題上的表現(xiàn)甚至可以超過(guò) FSGAN [29]。

2. 定量對(duì)比

我們使用不同的人臉識(shí)別模型 [41] 提取特征向量,并采用余弦相似度來(lái)度量特征差距。我們從 FaceForensics++的原始視頻中為每個(gè)測(cè)試集中的換臉結(jié)果匹配了一張最接近的臉,以檢查這張臉是否屬于正確的源視頻。表 1 中的 ID 就是使用該方法獲得的平均準(zhǔn)確率,這個(gè)方法可以用來(lái)測(cè)試特征保留能力。我們提出的框架獲得了更高的 ID 分?jǐn)?shù),且檢索范圍很大。

3. 人為評(píng)估

我們做了三次用戶調(diào)研,以評(píng)測(cè)本模型的表現(xiàn)。我們讓用戶從以下選項(xiàng)中選擇:i)與源臉最相似的圖像;ii)與目標(biāo)圖像有最相似動(dòng)作、表情、光照的圖像;iii)最真實(shí)的圖像。

表 2 展示了每個(gè)方法在其研究中的平均被選取率。這個(gè)結(jié)果現(xiàn)實(shí)我們的模型在大范圍上超過(guò)了其余三個(gè)模型。

框架分析

圖 7:AEI-Net 與三個(gè) baseline 模型的對(duì)比結(jié)果
 

圖 8:在不同特征級(jí)上,AAD 層中基于注意力機(jī)制的 Mask Mk 可視化。
圖 9:基于屬性嵌入的查詢結(jié)果
 
圖 10:第二階段中修正結(jié)果展示了 HEAR-Net 在各種誤差(遮擋、反光、動(dòng)作微移、顏色)上的強(qiáng)大能力。
來(lái)源 | 機(jī)器之心
]]>
http://www.hualongw.cn/%e5%91%a8%e6%9d%b0%e4%bc%a6cos%e6%b2%b9%e7%94%bb%e3%80%81%e9%92%a2%e9%93%81%e4%be%a0%e7%a9%bf%e8%b6%8a%ef%bc%8c%e5%8c%97%e5%a4%a7%e5%be%ae%e8%bd%af%e6%96%b0%e6%96%b9%e6%b3%95%e8%ae%a9%e6%8d%a2/feed/ 0
首個(gè)“AI面試法案”在美國(guó)伊利諾斯州實(shí)施,保護(hù)面試者的權(quán)利就這么簡(jiǎn)單? http://www.hualongw.cn/%e9%a6%96%e4%b8%aaai%e9%9d%a2%e8%af%95%e6%b3%95%e6%a1%88%e5%9c%a8%e7%be%8e%e5%9b%bd%e4%bc%8a%e5%88%a9%e8%af%ba%e6%96%af%e5%b7%9e%e5%ae%9e%e6%96%bd%ef%bc%8c%e4%bf%9d%e6%8a%a4%e9%9d%a2/ http://www.hualongw.cn/%e9%a6%96%e4%b8%aaai%e9%9d%a2%e8%af%95%e6%b3%95%e6%a1%88%e5%9c%a8%e7%be%8e%e5%9b%bd%e4%bc%8a%e5%88%a9%e8%af%ba%e6%96%af%e5%b7%9e%e5%ae%9e%e6%96%bd%ef%bc%8c%e4%bf%9d%e6%8a%a4%e9%9d%a2/#respond Fri, 03 Jan 2020 03:02:08 +0000 https://new.openi.org.cn/%e9%a6%96%e4%b8%aaai%e9%9d%a2%e8%af%95%e6%b3%95%e6%a1%88%e5%9c%a8%e7%be%8e%e5%9b%bd%e4%bc%8a%e5%88%a9%e8%af%ba%e6%96%af%e5%b7%9e%e5%ae%9e%e6%96%bd%ef%bc%8c%e4%bf%9d%e6%8a%a4%e9%9d%a2/ 隨著 AI 技術(shù)逐漸發(fā)展、大眾以及企業(yè)對(duì) AI 的了解越來(lái)越多,也有越來(lái)越多的企業(yè)嘗試讓 AI 參與到公司的決策中來(lái),比如參與到招聘中。AI 算法可以做的事有很多,包括招聘廣告的定向推廣、簡(jiǎn)歷篩選,乃至在視頻面試中分析面試者的面部表情。

不過(guò)這整個(gè)過(guò)程對(duì)面試者來(lái)說(shuō)都是不透明的,被算法評(píng)價(jià)的一方并不知道系統(tǒng)是如何分類、打分、排序的。除了面試者一方不知情之外,算法是否會(huì)引入額外的偏見(jiàn)、讓面試過(guò)程變得不公平也是有疑問(wèn)的。美國(guó)伊利諾斯州從 2020 年 1 月 1 日起實(shí)施的“人工智能視頻面試法案”(Artificial Intelligence Video Interview Act)就打算開(kāi)始插手這個(gè)過(guò)程。

這個(gè)法案是美國(guó)所有的州中首個(gè)實(shí)施的此類法案。法案的目標(biāo)是讓面試者對(duì)這些基于 AI 的面試工具的運(yùn)轉(zhuǎn)情況有更多了解。具體來(lái)說(shuō)這個(gè)法案有三項(xiàng)基本要求:

  1. 如果企業(yè)要使用 AI 工具評(píng)價(jià)面試者和某個(gè)職位的匹配程度,那么企業(yè)必須明確告知面試者。
  2. 企業(yè)還需要向面試者解釋這些 AI 工具是如何運(yùn)行的,以及這些工具會(huì)把哪些常見(jiàn)性格特點(diǎn)作為評(píng)判依據(jù)
  3. 要保護(hù)面試者的隱私,只有具備足夠的專業(yè)知識(shí)或者技術(shù)知識(shí)的人才可以在面試后回看面試錄像,而且如果面試者提出了要求,那么企業(yè)必須在提出要求的一個(gè)月內(nèi)刪除這個(gè)面試者的所有視頻。

這項(xiàng)法案看起來(lái)是積極的一步,但實(shí)際上,這個(gè)法案針對(duì)的 AI 種類非常有限,而且也沒(méi)有對(duì)企業(yè)如何使用 AI 提出任何要求,很難說(shuō)這個(gè)法案的實(shí)施能起到多大程度的實(shí)際作用。

關(guān)注科技運(yùn)用與人權(quán)之爭(zhēng)的非盈利組織 Upturn 的高管 Aaron Rieke 對(duì)媒體表示:“對(duì)整個(gè)招聘流程來(lái)說(shuō),這能起到的作用很小。”法案談到了用來(lái)分析視頻的 AI 工具,但用來(lái)評(píng)價(jià)面試者的 AI 工具遠(yuǎn)不止和視頻分析相關(guān)的那些。而且法案也沒(méi)法確保當(dāng)你要求不要讓 AI 工具評(píng)價(jià)你的時(shí)候,企業(yè)是否還會(huì)公正地考慮你是否符合職位。“所以,如果你要求法案中的權(quán)利,所需要付出的代價(jià)是可能完全不會(huì)再被企業(yè)考慮的話,這個(gè)法案就起不到多大作用了。”除此之外,企業(yè)對(duì) AI 工具的解釋也可能是寬泛的、高度抽象的,并不能幫助面試者建立更好的理解。

來(lái)源 | 雷鋒網(wǎng)

]]>
http://www.hualongw.cn/%e9%a6%96%e4%b8%aaai%e9%9d%a2%e8%af%95%e6%b3%95%e6%a1%88%e5%9c%a8%e7%be%8e%e5%9b%bd%e4%bc%8a%e5%88%a9%e8%af%ba%e6%96%af%e5%b7%9e%e5%ae%9e%e6%96%bd%ef%bc%8c%e4%bf%9d%e6%8a%a4%e9%9d%a2/feed/ 0
昇騰路標(biāo),AI路口:2020給智能世界另一個(gè)選擇 http://www.hualongw.cn/%e6%98%87%e8%85%be%e8%b7%af%e6%a0%87%ef%bc%8cai%e8%b7%af%e5%8f%a3%ef%bc%9a2020%e7%bb%99%e6%99%ba%e8%83%bd%e4%b8%96%e7%95%8c%e5%8f%a6%e4%b8%80%e4%b8%aa%e9%80%89%e6%8b%a9/ http://www.hualongw.cn/%e6%98%87%e8%85%be%e8%b7%af%e6%a0%87%ef%bc%8cai%e8%b7%af%e5%8f%a3%ef%bc%9a2020%e7%bb%99%e6%99%ba%e8%83%bd%e4%b8%96%e7%95%8c%e5%8f%a6%e4%b8%80%e4%b8%aa%e9%80%89%e6%8b%a9/#respond Fri, 03 Jan 2020 02:53:28 +0000 https://new.openi.org.cn/%e6%98%87%e8%85%be%e8%b7%af%e6%a0%87%ef%bc%8cai%e8%b7%af%e5%8f%a3%ef%bc%9a2020%e7%bb%99%e6%99%ba%e8%83%bd%e4%b8%96%e7%95%8c%e5%8f%a6%e4%b8%80%e4%b8%aa%e9%80%89%e6%8b%a9/ 2019年,我們?cè)跁诚胧裁礃拥奈磥?lái)?

城市中的智能視覺(jué)體系隨時(shí)保障著每個(gè)人的安全;自動(dòng)駕駛汽車(chē)暢通無(wú)阻;AI幫我們研制出攻克絕癥的新藥;在浩瀚星空中找到能源甚至生命……所有這些,是我們每個(gè)人的夢(mèng)境。2019年這些景象似乎依舊很遠(yuǎn),但這一年,改變確實(shí)正在發(fā)生。

機(jī)器視覺(jué)、自動(dòng)駕駛、AI生物研究,這些指向未來(lái)的關(guān)鍵技術(shù),都將來(lái)自AI的不斷探索;而AI能夠發(fā)展,又將建立在智能算力的牢固地基之上;而智能計(jì)算的根源,是AI芯片。

今天,AI芯片很可能是未來(lái)一個(gè)科技發(fā)展周期的軸心,已經(jīng)成為了眾人皆知的常識(shí)。而這個(gè)產(chǎn)業(yè)到底發(fā)生了哪些改變,在2019年有哪些進(jìn)展,可能并不完全為大眾所知。

事實(shí)上,在AI所需的訓(xùn)練+推理全流程里,能夠提供核心芯片支撐的企業(yè)非常稀少。而與歷史上數(shù)次芯片迭代所不同的是,這次能夠提供核心芯片的名單里,有了中國(guó)玩家的身影。

2018年10月,華為發(fā)布了昇騰系列芯片,這標(biāo)志著華為AI戰(zhàn)略正式拉開(kāi)帷幕。而當(dāng)2019即將過(guò)去,昇騰度過(guò)了走入現(xiàn)實(shí)世界的第一個(gè)365天,在盛大的誕生日之后,它都做了什么?影響了什么?改變了什么?

讓我們以AI芯片的全球產(chǎn)業(yè)局勢(shì)為開(kāi)端,一起梳理一下“昇騰紀(jì)”帶來(lái)的全場(chǎng)景AI元年。

回憶結(jié)束時(shí)我們會(huì)發(fā)現(xiàn),AI世界不僅迎來(lái)了一個(gè)芯片系列,更是迎來(lái)了一條新的道路,一個(gè)新的選擇。

時(shí)代的分野

從經(jīng)典計(jì)算,到圖像計(jì)算、移動(dòng)處理器,芯片的發(fā)展史告訴我們,每個(gè)新類型芯片的創(chuàng)生周期里,一般都只會(huì)留存兩到三家最終的芯片提供商。而另一個(gè)事實(shí)是,大型芯片的提供商往往都來(lái)自美國(guó)。

2012年,英偉達(dá)的工程師偶然間發(fā)現(xiàn)了GPU與深度神經(jīng)網(wǎng)絡(luò)的耦合性,為英偉達(dá)打開(kāi)了一個(gè)無(wú)比誘人的“蛋糕倉(cāng)庫(kù)”。2017年,重磅投入AI技術(shù)的谷歌,用TPU補(bǔ)完了AI芯片這一關(guān),并將之作為谷歌云的殺手锏之一。這也是在華為發(fā)布昇騰之前,唯二的兩家AI訓(xùn)練芯片提供商。

而當(dāng)AI技術(shù)開(kāi)始為全球共同關(guān)注,有可能改變各個(gè)產(chǎn)業(yè)的生產(chǎn)方式時(shí),剛進(jìn)入這個(gè)領(lǐng)域的開(kāi)發(fā)者與企業(yè),會(huì)發(fā)現(xiàn)芯片算力的選擇如此之少。TPU只能基于谷歌云調(diào)用,并且排隊(duì)艱難。而英偉達(dá)的推理和訓(xùn)練用顯卡都是標(biāo)準(zhǔn)的“緊俏商品”,一般開(kāi)發(fā)者很難買(mǎi)到。甚至有了開(kāi)發(fā)者苦英偉達(dá)久矣的說(shuō)法。

而2019年的另一些事實(shí)告訴我們,一味依靠美國(guó)芯片是有風(fēng)險(xiǎn)的,尤其在AI算力需要注入各行各業(yè)這個(gè)前提下。
假如故事如CPU和GPU時(shí)代一樣發(fā)展,那么最終可能又是一個(gè)美國(guó)領(lǐng)先、其他國(guó)家等待模仿的劇本。AI之路可能會(huì)像PC和互聯(lián)網(wǎng)一樣,讓中國(guó)開(kāi)發(fā)者首先學(xué)會(huì)的是等待。

然而在時(shí)代的洪流靜靜流淌時(shí),突然一個(gè)新的岔路產(chǎn)生了。華為發(fā)布了昇騰系列處理器,讓AI處理器提供商的數(shù)量從二變成了三。所謂“三生萬(wàn)物”,一個(gè)新的參與者,代表著一系列新的選擇。

比如說(shuō),英偉達(dá)的AI芯片是從顯卡業(yè)務(wù)而生,它的產(chǎn)業(yè)思路都基于顯卡體系,不覆蓋開(kāi)發(fā)框架和開(kāi)發(fā)工具;而谷歌的TPU圍繞谷歌云服務(wù),無(wú)法進(jìn)入邊緣、終端場(chǎng)景。與二者相異,華為作為網(wǎng)絡(luò)、計(jì)算、存儲(chǔ)多領(lǐng)域的技術(shù)貫通企業(yè),在業(yè)內(nèi)首先提出了“全棧全場(chǎng)景AI”,基于達(dá)芬奇架構(gòu),讓AI算力貫穿從芯片到算法開(kāi)發(fā)的所有流程,覆蓋從訓(xùn)練到推理的所有場(chǎng)景,這直接指向現(xiàn)實(shí)的AI應(yīng)用和開(kāi)發(fā)場(chǎng)景。于是,我們從昇騰的路標(biāo)看去,能看到其他企業(yè)未曾抵達(dá)過(guò)的遠(yuǎn)方。

在全球AI基座的視野里,昇騰是一個(gè)新的選擇,而且是一個(gè)完全不同的選擇。

Portfolio的力量

如果說(shuō)2018年昇騰的出世,給智能計(jì)算產(chǎn)業(yè)標(biāo)明了一個(gè)新的方向。那么當(dāng)時(shí)針撥動(dòng)到2019,昇騰的商用化進(jìn)展就是順延這個(gè)方向做出了真實(shí)的進(jìn)展。一條AI之路在算力迷霧中顯露了出來(lái)。

昇騰的2019,可以由底座到應(yīng)用,分成三個(gè)階段來(lái)闡述:即算力底座、產(chǎn)業(yè)平臺(tái),與生態(tài)應(yīng)用。

在底座層面,這一年中的核心事件就是昇騰910處理器投入商用。在此之前,應(yīng)用于AI推理場(chǎng)景的昇騰310處理器以及打下了堅(jiān)實(shí)的產(chǎn)業(yè)基礎(chǔ),構(gòu)筑了Atlas智能計(jì)算平臺(tái)這個(gè)產(chǎn)業(yè)樞紐。而AI領(lǐng)域真正的重型武器——訓(xùn)練芯片,則讓昇騰算力基座進(jìn)入了全棧完整形態(tài),構(gòu)建了真正的Portfolio。

2019年8月,華為正式發(fā)布昇騰910處理器,并且宣布昇騰910和Mindspore開(kāi)發(fā)框架隨即進(jìn)入商用。這一款A(yù)I處理器代表著業(yè)內(nèi)最強(qiáng)的AI算力,也代表著華為已完成全棧全場(chǎng)景AI解決方案(Portfolio)的構(gòu)建。昇騰910的出現(xiàn),對(duì)整個(gè)AI產(chǎn)業(yè)來(lái)說(shuō)帶來(lái)了三個(gè)實(shí)際改變:

1、AI訓(xùn)練算力極限被突破,算力能夠更輕易、更低成本被獲取。

2、昇騰系列的全場(chǎng)景打通,構(gòu)筑了云邊端一體化AI的全新可能。

3、全棧AI,提供給開(kāi)發(fā)者和應(yīng)用者更優(yōu)質(zhì)的開(kāi)發(fā)效率,導(dǎo)致產(chǎn)業(yè)智能化的耦合加速發(fā)生。

全棧全場(chǎng)景AI的力量,在2019年真實(shí)注入了AI產(chǎn)業(yè)世界。而在這重力量之上,華為又凝結(jié)出了智能計(jì)算面向千行百業(yè)、全棧全場(chǎng)景的產(chǎn)業(yè)支撐。

Atlas的底座

作為一系列AI處理器,昇騰310和910投入產(chǎn)業(yè)應(yīng)用中,需要具象化成具體的產(chǎn)業(yè)形態(tài),而這一過(guò)程并不是簡(jiǎn)單的封裝和調(diào)參。各行業(yè)、各場(chǎng)景不同的智能化需求,以及配套產(chǎn)生的不同基礎(chǔ)設(shè)施缺口,意味著智能計(jì)算產(chǎn)品必須具備多元性、產(chǎn)業(yè)性,以及全場(chǎng)景適配的特點(diǎn),以此解決不同場(chǎng)景、不同需求下的AI算力適配。

而這一缺口,也恰恰是英偉達(dá)和谷歌都無(wú)法填補(bǔ)的,其中需要大量ICT技術(shù)和商業(yè)理解作為引擎,這也給了華為機(jī)會(huì)與責(zé)任。華為在2019年給出的答案,叫做Atlas。

2019年4月,在智能計(jì)算大會(huì)深圳站,華為Atlas人工智能計(jì)算平臺(tái)正式發(fā)布,開(kāi)啟了Atlas商用和規(guī)模銷售的進(jìn)程。
Atlas的名字來(lái)源于古希臘神話中托起宇宙的大力神。Atlas平臺(tái)包括多款能夠使用不同場(chǎng)景、不同需要的智能計(jì)算產(chǎn)品,它的全面性與多樣化,恰好對(duì)應(yīng)了托起AI天空的意向。在4月首批上市的Atlas產(chǎn)品,主要基于昇騰310提供的AI推理能力,主要包括Atlas 200 AI加速模塊、Atlas 300 AI加速卡、Atlas 200 DK AI開(kāi)發(fā)者套件、Atlas 500智能小站四款產(chǎn)品,能夠覆蓋邊端側(cè)多個(gè)場(chǎng)景,實(shí)現(xiàn)AI算力的全面覆蓋。

而在9月18日的華為全聯(lián)接大會(huì)上,華為副董事長(zhǎng)胡厚崑重磅發(fā)布了全球最快AI訓(xùn)練集群Atlas 900,這款產(chǎn)品匯聚了華為數(shù)十年的技術(shù)積淀,是當(dāng)前全球最快的AI訓(xùn)練集群。Atlas 900由數(shù)千顆昇騰910 AI處理器互聯(lián)構(gòu)成,總算力達(dá)到256P~1024P FLOPS @FP16,相當(dāng)于50萬(wàn)臺(tái)電腦的計(jì)算能力。Atlas 900的問(wèn)世,標(biāo)志著華為智能計(jì)算正式進(jìn)入“重武器”時(shí)代,形成了從訓(xùn)練到推理的完整AI算力布局。同時(shí),Atlas家族也加入了基于昇騰910處理器的訓(xùn)練卡Atlas 300及AI訓(xùn)練服務(wù)器Atlas 800。

2019年,產(chǎn)業(yè)價(jià)值獨(dú)特,技術(shù)差異化明顯的Atlas系列產(chǎn)品也收獲了一系列榮譽(yù)。比如在3月,華為“Atlas 300 AI加 速卡”及“Atlas 500智能小站”憑借全新的設(shè)計(jì)理念,榮獲了著名的紅點(diǎn)設(shè)計(jì)大獎(jiǎng)。6月在在東京舉行的Interop展會(huì),經(jīng)IT權(quán)威專家多項(xiàng)目嚴(yán)格評(píng)審,華為Atlas 500智能小站憑借 “超強(qiáng)AI算力、云邊協(xié)同、邊緣部署”等特性,獲得了2019 Interop東京展Best of Show Award大獎(jiǎng)。

短短一年間,Atlas經(jīng)歷了商用發(fā)布、產(chǎn)業(yè)補(bǔ)完,以及行業(yè)認(rèn)可的全過(guò)程。而更重要的,是這一年中Atlas已經(jīng)將智能計(jì)算的應(yīng)用價(jià)值推進(jìn)到了產(chǎn)業(yè)中,讓行業(yè)生態(tài)體驗(yàn)到了昇騰帶來(lái)的全新選擇。

千行百業(yè)的智慧涌動(dòng)

與任何技術(shù)一樣,AI的最終評(píng)價(jià)標(biāo)準(zhǔn)是要落進(jìn)現(xiàn)實(shí)。從昇騰到Atlas,下一站是千行萬(wàn)業(yè)的智能應(yīng)用。在2019年,昇騰并沒(méi)有讓觀眾等待,而是拿出了一系列具有充分想象力的智能驅(qū)動(dòng)案例。

比如在全聯(lián)接大會(huì)上,華為與上海天文臺(tái)合作,在天文界著名的SKA項(xiàng)目中,用Atlas 900來(lái)作為新的智能計(jì)算支持。這一合作改變了天文界的效率規(guī)則,以SKA所拍攝的20萬(wàn)顆星體數(shù)據(jù)為例。一位天文學(xué)家需要169天才能完成的星體搜索,Atlas 900只需要10秒就可以完成。從天文開(kāi)始,地址勘探、能源探索、計(jì)算,這些AI面前最重的挑戰(zhàn),正在被昇騰和Atlas一個(gè)個(gè)解開(kāi)。

在我們的生活中,也有大量產(chǎn)業(yè)正在被Atlas所改變。比如遙感、智能安防、質(zhì)檢等諸多領(lǐng)域都能看到Atlas200、300等產(chǎn)品的身影。眾多產(chǎn)業(yè)正在被AI所改變,比如一個(gè)令人印象深刻的案例,是2019年9月,南方電網(wǎng)深圳供電局與華為共同發(fā)布了基于昇騰的電網(wǎng)創(chuàng)新方案。通過(guò)“以系統(tǒng)智能分析為主、人工判斷為輔”的新模式,原本需要20天才能完成的現(xiàn)場(chǎng)巡視工作,輸電監(jiān)控指揮中心現(xiàn)在僅需2小時(shí)就可完成,巡檢效率提高了80倍,真實(shí)改變了產(chǎn)業(yè)生產(chǎn)效率。

在2019年臨近尾聲時(shí),昇騰和Atlas又帶來(lái)了一個(gè)重磅消息。11月29日,華為與鵬城實(shí)驗(yàn)室在深圳共同發(fā)布了鵬城云腦Ⅱ一期。被稱為“AI國(guó)家隊(duì)”的鵬城實(shí)驗(yàn)室,將使用Atlas 900作為云腦Ⅱ的計(jì)算底座,從而使云腦Ⅱ邁進(jìn)千P級(jí)算力。從而為計(jì)算機(jī)視覺(jué)、自然語(yǔ)言、自動(dòng)駕駛、智慧交通、 智慧醫(yī)療等各類基礎(chǔ)性研究提供全新的智能計(jì)算基礎(chǔ)。
在應(yīng)用之外,華為還在2019年積極推進(jìn)了基于昇騰和Atlas的生態(tài)建設(shè)。以開(kāi)發(fā)者大會(huì)、產(chǎn)學(xué)研合作等方式,將昇騰的魅力對(duì)外開(kāi)放,引導(dǎo)開(kāi)發(fā)者和研究者探索昇騰的使用場(chǎng)景,用AI創(chuàng)造更多價(jià)值。在11月5日,HUAWEI ECO-CONNECT EUROPE 2019上,華為正式發(fā)布基于昇騰的歐洲AI生態(tài)計(jì)劃。宣布未來(lái)5年投入1億歐元,與產(chǎn)業(yè)組織、20萬(wàn)開(kāi)發(fā)者,500家 ISV 伙伴、50所研究機(jī)構(gòu)與大學(xué)共同啟動(dòng)歐洲AI生態(tài)計(jì)劃。這意味著昇騰的生態(tài)之旅已經(jīng)開(kāi)啟了全球性布局,為全球共同的AI之路提供新的可能。

回顧2019年帶來(lái)的改變,AI開(kāi)發(fā)者應(yīng)該有很多感慨。如果AI世界沒(méi)有昇騰和Atlas系列,那么開(kāi)發(fā)者和各行業(yè)應(yīng)用者、學(xué)生研究者,都只能去適應(yīng)AI算力稀缺、開(kāi)發(fā)兼容性不強(qiáng)的開(kāi)發(fā)環(huán)境。換言之,2019年“昇騰紀(jì)”的開(kāi)啟,讓眾多開(kāi)發(fā)者不用再去適應(yīng)苛刻的AI環(huán)境,而是讓AI基礎(chǔ)設(shè)施去適配自己的需求與夢(mèng)想。

規(guī)則被撬動(dòng),改變已到來(lái)。

在“昇騰-Atlas-千行萬(wàn)業(yè)”這條AI之路被打通之后,眾多產(chǎn)業(yè)的智能化進(jìn)程將被改寫(xiě),開(kāi)發(fā)者的腦洞基礎(chǔ)可能被改寫(xiě)和顛覆。這是一個(gè)時(shí)代的分野,是智能時(shí)代的另一個(gè)選擇。

8月,在2019上海世界人工智能大會(huì)中,科技部宣布將依托華為建設(shè)基礎(chǔ)軟硬件國(guó)家新一代人工智能開(kāi)放創(chuàng)新平臺(tái),面向各行業(yè)、初創(chuàng)公司、高校和科研機(jī)構(gòu)等的AI應(yīng)用與研究,以云服務(wù)和產(chǎn)品軟硬件組合的方式,提供全流程、普惠的基礎(chǔ)平臺(tái)類服務(wù)。

基礎(chǔ)軟硬件平臺(tái)是AI的基座與必經(jīng)之路,也是全球AI發(fā)展中的戰(zhàn)略高點(diǎn)。華為是目前國(guó)內(nèi)唯一具備全棧全場(chǎng)景AI能力的廠商,其在“AI國(guó)家隊(duì)”扮演的角色,恰好能說(shuō)明昇騰處理器與智能計(jì)算產(chǎn)業(yè)的關(guān)鍵價(jià)值。

“華為在通用計(jì)算和AI計(jì)算領(lǐng)域堅(jiān)持戰(zhàn)略投入,持續(xù)創(chuàng)新,通過(guò)解決世界級(jí)計(jì)算技術(shù)難題,為世界提供最強(qiáng)算力。”——這句昇騰的諾言,在2020已經(jīng)不是將來(lái)時(shí)。

來(lái)源 | 億歐網(wǎng)

]]>
http://www.hualongw.cn/%e6%98%87%e8%85%be%e8%b7%af%e6%a0%87%ef%bc%8cai%e8%b7%af%e5%8f%a3%ef%bc%9a2020%e7%bb%99%e6%99%ba%e8%83%bd%e4%b8%96%e7%95%8c%e5%8f%a6%e4%b8%80%e4%b8%aa%e9%80%89%e6%8b%a9/feed/ 0