首頁 生活 > 正文

視覺語言模型來了:支持中英文等多種語言


(資料圖片)

阿里云今日發(fā)布了大規(guī)模視覺語言模型Qwen-VL,并已在ModeScope平臺上開源。此前,阿里云已經(jīng)開源了通用模型Qwen-7B和對話模型Qwen-7B-Chat。 據(jù)介紹,Qwen-VL是一款支持中英文等多種語言的視覺語言模型。與以往的視覺語言模型相比,Qwen-VL不僅具備圖文識別、描述、問答和對話的基本能力,還新增了視覺定位和圖像中文字理解等功能。 Qwen-VL以Qwen-7B為基礎,引入視覺編碼器,使模型支持視覺信號輸入。該模型支持的圖像輸入分辨率為448,而此前開源的LVLM模型通常僅支持224分辨率。 官方表示,Qwen-VL可用于知識問答、圖像標題生成、圖像問答、文檔問答、細粒度視覺定位等場景。在主流的多模態(tài)任務評測和多模態(tài)聊天能力評測中,Qwen-VL的表現(xiàn)遠超同等規(guī)模的通用模型。 在Qwen-VL的基礎上,通義千問團隊使用對齊機制,打造了基于LLM的視覺AI助手Qwen-VL-Chat,以便開發(fā)者快速搭建具備多模態(tài)能力的對話應用。 通義千問團隊還表示,為了測試模型的多模態(tài)對話能力,他們構(gòu)建了一套基于GPT-4打分機制的測試集“試金石”。在對Qwen-VL-Chat及其他模型進行對比測試后,Qwen-VL-Chat在中英文的對齊評測中均取得了開源LVLM最好的結(jié)果。

關鍵詞:

最近更新

關于本站 管理團隊 版權(quán)申明 網(wǎng)站地圖 聯(lián)系合作 招聘信息

Copyright © 2005-2023 創(chuàng)投網(wǎng) - 670818.com All rights reserved
聯(lián)系我們:39 60 29 14 2@qq.com
皖ICP備2022009963號-3