• 点击右上角微信好友

    朋友圈

    请使用浏览器分享功能进行分享

    正在阅读:腾讯混元OCR模型宣布开源 参数仅𰹅B 多项核心能力达到SOTA效果
    首页>时政频道>要闻>正文

    腾讯混元OCR模型宣布开源 参数仅𰹅B 多项核心能力达到SOTA效果

    来源:{getone name="zzc/xinwenwang"/}2026-04-17 17:34:37

    智通财经APP获悉,11�日,腾讯混元推出全新开源模型 HunyuanOCR,参数仅𰹅B,依托于混元原生多模态架构打造,获得多项业界OCR应用榜单SOTA(最先进水平)成绩。据介绍,HunyuanOCR 具有高度易用性,不仅体积小,便于部署,得益于混元原生多模态大模型“端到端”的理念设计,各项功能仅需单次前向推理即可直达最优结果,较业界级联方案更高效和便捷,性价比高。

    混元OCR专家模型依托于混元原生多模态架构打造,主要由三大部分组建构成:原生分辨率视频编码器、自适应视觉适配器和轻量化混元语言模型。

    不同于其他开源的OCR专家模型或系统,HunyuanOCR模型的训练和推理均采用全端到端范式,通过规模化的高质量应用导向数据,结合在线强化学习,模型表现出了非常稳健的端到端推理能力。

    值得注意的是,混元OCR多项核心能力达到SOTA效果,其中在复杂文档解析的OmniDocBench测评中,获得了最高�.1分,效果超过了谷歌的Gemini3-pro等一众领先的模型文字检测和识别能力,在自建覆盖𱅅大应用场景(文档、艺术字、街景、手写、广告、票据、截屏、游戏、视频)的基准上,大幅度领先同类开源模型以及商业OCR模型在OCRBench榜单上,总得分�分,以仅𱎳B总参数的模型配置,取得了包括通用视觉理解模型在内总参𿙣B以下的SOTA成绩。

    [责编:{getone name="zzc/mingzi"/}]
    阅读剩余全文(