今天Qwen1.5開源了千億級參數的大語言模型,Qwen1.5 110B。這應該是首個開源的破千億級的語言模型。

68747470733a2f2f7169616e77656e2d7265732e6f73732d616363656c65726174652e616c6979756e63732e636f6d2f6173736574732f626c6f672f7177656e312e352f6c6f676f5f7177656e312e352e6a7067.jpg

Qwen這個系列的模型,Aidec還挺喜歡用的,主要是因為它對中文的回覆能力比起同級的Llama-3-70B、Mixtral-8x22B 來說,Qwen系列的語言模型對中文回覆更友善。

但各有各的好處,像是Llama-3-70B在在處理全英文的狀況下就挺適合的,Mixtral-8x22B適合一般場景(但英翻中的能力就略差,用詞就很容易看出是機翻)

Qwen系列則會好很多,之前使用Qwen72B就已經覺得挺不錯的,如今又新推出Qwen 110B,想必能帶來更好結果。畢竟,大語言模型真的是參數越多能力越好。

(OpenAI系列例外,之前都網傳GPT3.5有數百億的參數,如今覺得挺懷疑的,畢竟它的回覆能力,大概跟其它7B模型差不多...)


可以到這邊實際體驗 (目前似乎繁體回應的不好,頂多只能回簡體)

https://huggingface.co/spaces/Qwen/Qwen1.5-110B-Chat-demo

Qwen 110B實際線上測試的結果

下面的影片是我用官方的英文介紹文,讓Qwen 110B自己總結成文章,並且用中文回覆的結果。實測結果中規中矩,回覆速度也慢,可能是在huggingface 上demo,運行的機器不好,之後看有沒有線上服務會推出,再來重測看看。

    

除了影片中的測試以外,其實還測試了幾次,但沒錄好.... 前幾次的測試,有幾個問題,就是只在系統提詞說回覆中文的話,當輸入過多英文,還是會回覆英文,要再輸入的開頭也加上回覆中文才行。 測試指定回覆字數1000字,實測兩次一次897字,另一次1035字


ollama 目前也支援下載囉~ (這個Aidec就不測試了,畢竟電腦的3060顯卡,只跑得動7B等級的模型)

ollama run qwen:110b



Aidec科技報 - Qwen1.5-110B!開啟大規模模型新紀元

https://tech.aidec.tw/qwen-1714145146985

官方Qwen Github原文介紹

https://qwenlm.github.io/blog/qwen1.5-110b/


文章轉載或引用,請先告知並保留原文出處與連結!!(單純分享或非營利的只需保留原文出處,不用告知)

原文連結:
https://blog.aidec.tw/post/qwen1-5-110b