ChatGPT今天升級了GPT-4模型,,AI能力更加強大,,國內在這方面也在迅速追趕,又一個國產版ChatGPT問世了,,現(xiàn)在智譜AI推出的ChatGLM開始內測,。
據(jù)介紹,對話機器人 ChatGLM(alpha內測版:QAGLM),,這是一個初具問答和對話功能的千億中英語言模型,, 并針對中文進行了優(yōu)化,現(xiàn)已開啟邀請制內測,,后續(xù)還會逐步擴大內測范圍,。
與此同時,,繼開源 GLM-130B 千億基座模型之后,,我們正式開源最新的中英雙語對話 GLM 模型: ChatGLM-6B,結合模型量化技術,,用戶可以在消費級的顯卡上進行本地部署(INT4 量化級別下最低只需 6GB 顯存),。
經過約 1T 標識符的中英雙語訓練,輔以監(jiān)督微調,、 反饋自助,、人類反饋強化學習等技術的加持,62 億參數(shù)的 ChatGLM-6B 雖然規(guī)模不及千億模型,,但大大降低了用戶部署的門檻,,并且已經能生成相當符合人類偏好的回答。
ChatGLM 參考了 ChatGPT 的設計思路,,在千億基座模型 GLM-130B1中注入了代碼預訓練,,通過有監(jiān)督微調(Supervised Fine-Tuning)等技術實現(xiàn)人類意圖對齊。
ChatGLM 當前版本模型的能力提升主要來源于獨特的千億基座模型 GLM-130B,。它是不同于 BERT,、GPT-3 以及 T5 的架構,是一個包含多目標函數(shù)的自回歸預訓練模型,。
2022年8月,,我們向研究界和工業(yè)界開放了擁有1300億參數(shù)的中英雙語稠密模型 GLM-130B1,該模型有一些獨特的優(yōu)勢:
雙語:同時支持中文和英文,。
高精度(英文):在公開的英文自然語言榜單 LAMBADA,、MMLU 和 Big-bench-lite 上優(yōu)于 GPT-3 175B(API: davinci,基座模型),、OPT-175B 和 BLOOM-176B,。
高精度(中文):在7個零樣本 CLUE 數(shù)據(jù)集和5個零樣本 FewCLUE 數(shù)據(jù)集上明顯優(yōu)于 ERNIE TITAN 3.0 260B 和 YUAN 1.0-245B。
快速推理:首個實現(xiàn) INT4 量化的千億模型,支持用一臺 4 卡 3090 或 8 卡 2080Ti 服務器進行快速且基本無損推理,。
可復現(xiàn)性:所有結果(超過 30 個任務)均可通過我們的開源代碼和模型參數(shù)復現(xiàn),。
跨平臺:支持在國產的海光 DCU、華為昇騰 910 和申威處理器及美國的英偉達芯片上進行訓練與推理,。
2022年11月,,斯坦福大學大模型中心對全球30個主流大模型進行了全方位的評測2,GLM-130B 是亞洲唯一入選的大模型,。
在與 OpenAI,、谷歌大腦、微軟,、英偉達,、臉書的各大模型對比中,評測報告顯示 GLM-130B 在準確性和惡意性指標上與 GPT-3 175B (davinci) 接近或持平,,魯棒性和校準誤差在所有千億規(guī)模的基座大模型(作為公平對比,,只對比無指令提示微調模型)中表現(xiàn)不錯(下圖)。
圖1. 斯坦福大學基礎模型中心對全球 30 個大模型的評測結果(2022年11月)