達摩院ModelScope開放中文語言理解及AI繪圖等模型

從自動生成文案到近期網絡流行的人工智能AI繪圖,AI在自然語言處理(natural language processing,NLP)及計算機視覺領域的應用越來越廣泛,而阿里巴巴達摩院的模型開源社區及創新平台ModelScope上,已經開放上述領域及語音、科學計算等模型庫及數據集,降低開發和使用人工智能模型的門檻,讓大學和中小企業都能使用人工智能作科研及商業用途。

其中在NLP領域,已經在ModelScope上開放的阿里巴巴通義大模型系列AliceMind(下稱「阿里通義AliceMind」),在11月底便憑藉高精準度的語文理解能力,成為中文語言理解測評基準項目CLUE面世3年來首個超越人類基準的參評AI模型。

阿里雲在11月初舉行的2022雲棲大會期間推出ModelScope平台,旨在降低人工智能模型的開發和使用門檻,平台包含達摩院在過去5年開發的逾300個「開箱即用」人工智能模型,涵蓋計算機視覺、自然語言處理和音頻等多個領域。

阿里通義AliceMind成為CLUE首個超越人類基準的AI模型

根據CLUE的排行榜於11月22日更新的成績,阿里通義AliceMind以86.685總分,成為排行榜面世近3年來首個超越人類基準線(86.678)的AI模型,反映AI中文語言理解水平達到新的高度。

目前阿里通義AliceMind的基礎模型,已經在達摩院的模型開源社區及創新平台ModelScope上開放。

CLUE是中文NLP的權威測評平台,從文本分類、閱讀理解、自然語言推理等9項任務中,考核參評AI模型的語言理解能力。CLUE總排行榜自2019年12月發佈至今近三年,一直吸引眾多中國內地頂尖NLP團隊的參與,儘管榜首位置多次易主,但參評AI模型一直未能超越人類基準成績。

為提升AI模型對詞語、句子以及語言整體的理解力,在預訓練階段,達摩院沿用超大規模模型訓練所使用的海量高質量中文文本,同時改善模型結構和訓練技術,例如使用激活函數GLU、字詞混合的大詞表等,獲得更強的文本建模能力;又例如使用StrongHold訓練加速技術縮短迭代周期、節約算力成本,進而獲得性能的顯著提升。在精調階段,面對文本分類、閱讀理解、自然語言推理等下游任務,達摩院採用遷移學習、數據增強、特徵增強等技術,進一步提升模型表現。

以CLUE榜單的CHID成語閱讀理解填空任務為例,該任務需要AI模型選出正確的成語進行填空。阿里通義AliceMind可通過海量文本數據的學習達到「博聞強識」的效果,在預訓練階段掌握選詞填空所依賴的語義理解能力,訓練成語數據的領域遷移。

在11月22日的測評結果中,阿里通義AliceMind在其中4項任務的表現超越人類的水平,並在總平均分首次超越人類基準線。

作為最早投入預訓練語言模型研究的團隊之一,達摩院研發阿里通義AliceMind體系,涵蓋預訓練模型、多語言預訓練模型、超大中文預訓練模型等,具備閱讀理解、機器翻譯、對話問答、文檔處理等多種能力。目前相關技術已應用於醫療、電商、法律等領域,在跨境電商領域,達摩院的機器翻譯系統能提供214種語言的互譯服務,每天為中國內地200萬中小商家翻譯上億文字,幫助中國國貨走向全世界。

達摩院開源以人為中心的視覺AI模型

計算機視覺是應用最廣泛的AI技術之一,從日常手機解鎖使用的人臉識別,再到火熱的產業前沿自動駕駛,視覺AI都大顯身手。

達摩院開放視覺智能負責人謝宣松表示:「視覺AI的潛能遠未得到充分發揮,窮盡我們這些研究者的力量,也只能覆蓋少數行業和場景,遠未能滿足全社會的需求。」他續指出,ModelScope已經全面開源達摩院研發的視覺AI模型,希望讓更多開發者來使用視覺AI,更期待AI能成為人類社會前進的動力之一。

視覺AI技術覆蓋從感知理解、畫質增強到編輯生成等各方面。以單人照片為例,AI需要會先識別相中人有甚麼肢體動作、能否摳出圖像等,然後進一步探索照片質量如何、畫質能否變得更好、相中人能否變得更漂亮,甚至變成卡通人物或數字人等。

網絡常見的人像卡通化正是AI編輯生成的例子之一,ModelScope基於域校準圖像翻譯網絡DCT-Net(Domain-Calibrated Translation),採用「先全局特徵校準,再局部紋理轉換」的核心,利用百張小樣本風格數據,即可訓練得到輕量穩定的風格轉換器,實現高質量人像風格轉換效果。
試體驗:DCT-Net人像卡通化模型

拍攝不時因為環境、設備及人為操作等原因而導致圖像質量不佳,在畫質增強層面,ModelScope已經開放NAFNet 去噪模型,適用於很多應用的前置步驟,如智能手機圖像去噪、圖像去運動模糊等。該模型使用簡單的乘法操作替換激活函數,在不影響性能的情況下提升處理速度。
試體驗:NAFNet 去噪模型

除了圖片去噪去模糊,外界對圖片的細節紋理、色彩等質量問題會有更高的處理要求,ModelScope也開放專門的人像增強模型,對檢測到的圖片人像修復和增強,並對圖像中的非人像區域採用超分辨率技術,最終返回修復後的完整圖像。該模型能夠處理絕大多數複雜的真實降質,修復嚴重損傷的人像圖片。
試體驗:人像增強模型

事實上,達摩院在ModelScope面世前已經率先開放API形態的視覺AI服務,通過公共雲平台對AI開發者通過「視覺智能開放平台」提供一站式視覺線上服務,開放超200個API並涵蓋基礎視覺、行業視覺等方面。

謝宣松認為,從開放視覺平台到ModelScope社區,意味著達摩院視覺AI的開放邁出更大一步,藉以滿足千行百業對視覺AI的需求,促進視覺AI的生態發展。

立即訂閱阿里足,緊貼阿里巴巴集團最新發展動向,通過新聞故事專題文章了解創新科技電子商務及智能物興議題的嶄新趨勢。

ModelScope 人工智能 達摩院