每日經(jīng)濟新聞 2025-03-06 22:57:00
每經(jīng)編輯 金冥羽
3月6日凌晨,阿里發(fā)布并開源全新的推理模型通義千問QwQ-32B。
據(jù)了解,這是一款擁有320億參數(shù)的模型,其性能可與具備6710億參數(shù)(其中370億被激活)的DeepSeek-R1媲美,但二者在參數(shù)量上相差將近20倍。
據(jù)介紹,通過大規(guī)模強化學習,千問QwQ-32B在數(shù)學、代碼及通用能力上實現(xiàn)質(zhì)的飛躍,整體性能比肩DeepSeek-R1,同時大幅降低了部署使用成本,在消費級顯卡上也能實現(xiàn)本地部署。
目前,阿里已采用寬松的Apache2.0協(xié)議,將千問QwQ-32B模型向全球開源,所有人都可免費下載及商用。同時,用戶也將可通過通義APP免費體驗最新的千問QwQ-32B模型。
阿里通義團隊表示,未來將繼續(xù)探索將智能體與強化學習的集成,以實現(xiàn)長時推理,探索更高智能進而最終實現(xiàn)AGI的目標。
3月6日晚間,全球最大的AI開源社區(qū)Hugging Face更新了大模型榜單,阿里通義千問推理模型QwQ-32B成功登頂。
同一天,騰訊混元發(fā)布圖生視頻模型并對外開源,同時上線對口型與動作驅(qū)動等玩法,并支持生成背景音效及2K高質(zhì)量視頻。
基于圖生視頻的能力,用戶只需上傳一張圖片,并簡短描述希望畫面如何運動、鏡頭如何調(diào)度等,混元即可按要求讓圖片動起來,變成5秒的短視頻,還能自動配上背景音效。此外,上傳一張人物圖片,并輸入希望“對口型”的文字或音頻,圖片中的人物即可“說話”或“唱歌”;使用“動作驅(qū)動”能力,還能一鍵生成同款跳舞視頻。
此次開源的圖生視頻模型,是混元文生視頻模型開源工作的延續(xù),模型總參數(shù)量保持 130 億,模型適用于多種類型的角色和場景,包括寫實視頻制作、動漫角色甚至CGI角色制作的生成。
開源內(nèi)容包含權(quán)重、推理代碼和LoRA訓練代碼,支持開發(fā)者基于混元訓練專屬LoRA等衍生模型。目前在Github、HuggingFace等主流開發(fā)者社區(qū)均可下載體驗。
值得一提的是,以上兩款均為國產(chǎn)開源大模型。
3月4日,十四屆全國人大三次會議大會發(fā)言人婁勤儉表示,開源共享推動了人工智能技術(shù)在全球的普遍應(yīng)用,為世界貢獻了“中國智慧”。
編輯|金冥羽? 杜波
校對|陳柯名
封面圖片來源:視覺中國
每日經(jīng)濟新聞綜合自公開資料
如需轉(zhuǎn)載請與《每日經(jīng)濟新聞》報社聯(lián)系。
未經(jīng)《每日經(jīng)濟新聞》報社授權(quán),嚴禁轉(zhuǎn)載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。
歡迎關(guān)注每日經(jīng)濟新聞APP