EN

EVA:大規模中文預訓練對話模型

14.png

大規模預訓練方法已經在構建開放域對話系統方面展現出了非凡的性能。然而目前的工作主要集中在展示和評價現有對話模型的性能,忽視了構建一個更加強大的類人對話模型所要面臨的關鍵問題,尤其是在中文領域。我們針對這些關鍵問題進行了廣泛的實驗,包括數據質量控制、模型結構設計、訓練方法和解碼策略等?;谏鲜鲅芯?,我們提出了一個包含28億參數的大規模預訓練語言模型EVA2.0,并將其開源。據我們所知,EVA是目前規模最大的開源中文對話模型。

文本正文
復制文本
媒體聯絡
media@baai.ac.cn
大鸡巴操逼网站