騰訊開源:3D素材生成模型、最大MoE模型,兼容OpenAI SDK

今天,騰訊發佈了點好東西:

【非常重要】混元現已兼容 OpenAI SDK 方式調用(之前不行)

最大的開源 MoE:混元 Large

總參數量389B,激活參數量52B,上下文長度256K

在絕大多數指標上,領先於 LLama3.1-405B 以及 DeepSeek 2.5

支持商用,可在騰訊雲TI平臺一鍵精調部署

https://github.com/Tencent/Tencent-Hunyuan-Large

https://huggingface.co/tencent/Hunyuan3D-1

開源首個文生/圖生3D模型:混元3D 1.0

支持文字和圖像雙模態生成3D內容

僅需10秒即可生成高質量3D資產(輕量版)

在GSO與OmniObject3D數據集上超越主流開源模型

已應用於騰訊地圖3D導航車標

已上架到騰訊雲HAI

後面我會附上如何調用

https://github.com/Tencent/Hunyuan3D-1

https://huggingface.co/tencent/Hunyuan3D-1

點擊關注,每天更新深度 AI 行業洞察

01混元 Large

性能足夠強大

總參數量389B、激活參數52B,具備256K上下文。

在CMMLU、MMLU、CEval等多學科綜合評測集、中英文NLP任務、代碼和數學等9大維度領先,處於行業領先水平。

開源

Git

https://github.com/Tencent/Tencent-Hunyuan-Large

Hugging Face

https://huggingface.co/tencent/Hunyuan3D-1

資源需求

全量微調:最少需要32張H20

LoRA微調:最少需要8張H20

兼容 OpenAI SDK 方式調用

這套東西,目前已上架騰訊雲TI平臺,並支持一鍵精調

然後,這東西現在兼容 OpenAI SDK 的方式調用了(如上圖)

再來個可複製版,如下:

02混元3D 1.0

遙遙領先

首個同時支持文字、圖像的3D生成開源模型。

解決了現有的3D生成模型在生成速度和泛化能力上存在不足。

幫助3d創作者和藝術家自動化生產3d資產。

開源地址

https://github.com/Tencent/Hunyuan3D-1

https://huggingface.co/tencent/Hunyuan3D-1

支持文生、圖生

支持快速單圖生3D,10s內完成端到端生成,包括mesh,texture提取

文生

這是一片綠色的葉子,背景爲白色。構圖方式爲特寫、平視和居中構圖,呈現出真實攝影風格。它蘊含了植物文化並展現了平靜的氛圍。

圖生

模型上手

獲取代碼

配置環境

‍配置模型

使用模型

轉載原創文章請添加微信:founderparker