騰訊開源:3D素材生成模型、最大MoE模型,兼容OpenAI SDK
今天,騰訊發佈了點好東西:
【非常重要】混元現已兼容 OpenAI SDK 方式調用(之前不行)
最大的開源 MoE:混元 Large
總參數量389B,激活參數量52B,上下文長度256K
在絕大多數指標上,領先於 LLama3.1-405B 以及 DeepSeek 2.5
支持商用,可在騰訊雲TI平臺一鍵精調部署
https://github.com/Tencent/Tencent-Hunyuan-Large
https://huggingface.co/tencent/Hunyuan3D-1
開源首個文生/圖生3D模型:混元3D 1.0
支持文字和圖像雙模態生成3D內容
僅需10秒即可生成高質量3D資產(輕量版)
在GSO與OmniObject3D數據集上超越主流開源模型
已應用於騰訊地圖3D導航車標
已上架到騰訊雲HAI
後面我會附上如何調用
https://github.com/Tencent/Hunyuan3D-1
https://huggingface.co/tencent/Hunyuan3D-1
點擊關注,每天更新深度 AI 行業洞察
01混元 Large
性能足夠強大
總參數量389B、激活參數52B,具備256K上下文。
在CMMLU、MMLU、CEval等多學科綜合評測集、中英文NLP任務、代碼和數學等9大維度領先,處於行業領先水平。
開源
Git
https://github.com/Tencent/Tencent-Hunyuan-Large
Hugging Face
https://huggingface.co/tencent/Hunyuan3D-1
資源需求
全量微調:最少需要32張H20
LoRA微調:最少需要8張H20
兼容 OpenAI SDK 方式調用
這套東西,目前已上架騰訊雲TI平臺,並支持一鍵精調
然後,這東西現在兼容 OpenAI SDK 的方式調用了(如上圖)
再來個可複製版,如下:
02混元3D 1.0
遙遙領先
首個同時支持文字、圖像的3D生成開源模型。
解決了現有的3D生成模型在生成速度和泛化能力上存在不足。
幫助3d創作者和藝術家自動化生產3d資產。
開源地址
https://github.com/Tencent/Hunyuan3D-1
https://huggingface.co/tencent/Hunyuan3D-1
支持文生、圖生
支持快速單圖生3D,10s內完成端到端生成,包括mesh,texture提取
文生
這是一片綠色的葉子,背景爲白色。構圖方式爲特寫、平視和居中構圖,呈現出真實攝影風格。它蘊含了植物文化並展現了平靜的氛圍。
圖生
模型上手
獲取代碼
配置環境
配置模型
使用模型
轉載原創文章請添加微信:founderparker