允中 发自 凹非寺
量子位 | 公众号 QbitAI

这两天,大家伙朋友圈是不是被GPT-Image-2刷屏了?

文字渲染精准、高密度的信息图,复杂布局和美学UI一次到位,真实感爆棚。

连社交媒体截图、高考试卷都能近乎一比一还原,这完全颠覆了曾经以往的文生图模型,彻底解决了文字、信息图这些长期以来的痛点问题。

大家看完的第一反应,几乎都是:设计师真要失业了……

而就在刚刚,兔展智能甩出一张王炸:UniWorld-V2.5,居然直接“重现”了GPT-Image-2的某些惊艳Cases。

不废话,咱直接上疗效。

同样一套提示词,我们看看生成结果对比:

提示词:生成一个篆书碑刻拓片,内容是“由兔展智能首席科学家袁粒领导团队研发”


△GPT-Image-2生成


△Nano-Banana-2生成


△UniWorld-V2.5生成

可以说,在InfoGraph、文字密集、图文交错等此前被公认为“AI生图天花板”的场景上,UniWorld-V2.5的完成度已经对齐GPT-Image-2,并显著超越其他国内外主流文生图模型。

更重要的是,UniWorld-V2.5需要输入的prompt非常简短,不需要像之前一样提供极其复杂和详细的prompt。

你只需要一句话,即可生成多样、复杂的视觉信息图,背后是一整套完整的视觉生成系统在做支撑。

接下来,我们一起见证更多场景奇迹。

高考数学卷:最难的中文测试,它过了

以前,AI生图最令人崩溃的场景是这样的:

结构化排版+高密度中文+复杂多样数学公式+曲线图+立体图,同时出现在一张图里。

几乎所有文生图模型,在这个场景下表现都很不稳定,甚至根本无从下手。

UniWorld-V2.5则表示:这只是基本功。

直接上地狱级测试,提示词:

生成一张2025年高考数学理科试卷。


△2025年高考数学理科试卷(由UniWorld-V2.5生成)

一张图里同时包含:选择题、填空题、解答题、函数图像、几何证明……

密密麻麻一整页,格式规范,字迹清晰,连答题线和页码都一个不落。

这已经不是“像不像”的问题,而是“能不能直接拿去给学生考试”的问题。

与此类似的,对中文排布要求很高的场景“简历生成”,效果也同样可圈可点:


△马斯克个人中文简历(由UniWorld-V2.5生成)

这种⽂字密集⽣成能⼒,此前的主流模型⼏乎⽆法做到。

在中文密集文字和复杂排版领域,这是前所未有的降维打击。

GUI布局:超真实的APP界面生成,也过了

想要AI生成一个真实感的社交媒体APP界面?

传统模型生成的界面要么布局错乱,要么文字胡言乱语。

给UniWorld-V2.5布置作业,让它一句话生成一套完整、可乱真的社交媒体界面及布局。

1、抖音直播带货

主播、商品弹窗、价格、实时弹幕、打赏特效,细节真实到“细思极恐”。


△马斯克直播卖茅台(由UniWorld-V2.5生成)


△直播带货界面生成效果(由UniWorld-V2.5生成)

2、小红书探店

咖啡馆照片、店名、推荐指数、评论、点赞、导航栏,一个不落,调性精准。


△小红书上海咖啡馆探店界面(由UniWorld-V2.5生成)

3、微博热搜

热点头条、热度值、标签、按键等,全都可以直接生成,直接以假乱真。


△微博热搜界面(由UniWorld-V2.5生成)

4、YouTube视频页

博主信息、播放量、推荐列表、评论区,UI细节精准到让人分不清真假。


△YouTube视频页面(由UniWorld-V2.5生成)

这哪里是“生图”啊?这简直是“赛博截图”。

这么看来,UniWorld-V2.5理解的不是像素,而是产品逻辑和用户场景本身

InfoGraph信息图:AI生图的终极考场,很惊喜

高密集、复杂的信息图是公认的AI生图“无人区”。

它要求模型同时理解数据、图表、文字排版和逻辑关系,信息密度越高,难度越大。

让UniWorld-V2.5尝试露一手,它交出的作业是这样的:

人体前侧解剖系统全图:



太阳系全貌信息图:



绿叶解剖信息图:



肌肉、骨骼、内脏等细节可视化呈现,中英文混排清晰,数据图表严谨。

它不是在“画”一张看起来像的图,而是在理解并构建一个完整的信息体系

这种能力才是模型真正的技术护城河,标志着它从一个“生图工具”向“会思考、懂设计的视觉生成系统”的跨越。

海报与设计:考察商业级完成度

让它试着画一张Air Jordan 1产品宣传海报。

鞋的质感、中文文案、版式层次、品牌调性……看这商业级完成度:


△Air Jordan 1产品宣传海报(由UniWorld-V2.5生成)

来一张苹果手机的宣传海报。

字体、排版、风格,专业摄影风格图片,美学和质感可以说是拉满了:


△苹果手机宣传海报(由UniWorld-V2.5生成)

国产视觉AI的突围:在OpenAI与Google的身影前“抢跑”

UniWorld-V2.5的横空出世绝非偶然,它背后站着一位视觉AI深水区的“领跑者”:

兔展智能

深圳兔展智能科技有限公司,由董少灵北京大学宿舍于2014年发明最早的H5工具而创立。

后来到了2022年,其与北京大学年轻一代视觉AI领军人才袁粒等二次创业。

公司总部位于深圳,已服务超4100万家企业⽤户。

截至目前,兔展智能已获深创投、腾讯、龙岗⾦控、嘉道资本、中国风投、青岛人工智能基金、招商局创投等头部机构投资,完成F轮融资。

它还是国家⾼新技术企业、国家级专精特新“⼩巨⼈”企业、⼤湾区最具潜⼒独角兽、⼴东省⾸个“AI国家级⾼技能⼈才培训基地”。

兔展智能的UniWorld系列模型,为什么能做到“理解即生成”

因为它的技术底座早已遥遥领先:

值得⼀提的,是UniWorld系列发布的历史时间线:

面向高度结构化且依赖复杂世界知识推理的生成任务,传统的一句话出图范式已难以支撑。

区别于传统prompt-to-image的范式,团队将超过80%的token预算用于意图理解、推理与布局规划,相当于引入资深的“总设计师”来全程指挥和全局控制。

这从源头上保证了生成的质量,也体现了理解与生成统一的多模态范式优势。

其中,兔展智能首席科学家、北京大学袁粒老师,及其博士生晏志远等人,深度参与了核心能力的设计与实现,是V2.5关键突破的重要贡献者。

兔展智能一直围绕着让人类叙事更生动高效的使命,投入到最前沿的视觉智能创新。

据悉,兔展智能也将在不久之后,推出视觉空间智能路线为基础的世界模型

站在世界舞台的国产模型,等你免费体验

AI生图的上限,远比我们想象的要高。

UniWorld-V2.5的发布,用实力证明了在中文语境和超复杂逻辑场景下,国产模型已经具备了站在世界舞台中央的底气。

设计行业的“一句话出图”,过去是由GPT-Image-2引发的焦虑。

现在,这个能力在国内坚实落地了,而且是以自主可控、可微调、国产算力的形式落地的。

品牌方、内容平台、电商商家、医疗科普机构、教育出版机构,任何需要大规模生产视觉内容的场景,过去需要设计团队花数小时完成的工作,现在仅需要一句自然语言。

更重要的是这件事的示范意义:

在多模态图像生成这条赛道上,中国不再只能是跟跑。

一个从北京大学走出来、深耕视觉大模型4年的团队,今天交出了这份答卷。

那么,最硬核的来了:

这么强的“怪兽”模型,现在开放免费体验了!

独家体验传送门,手慢无

UniWorld-V2.5体验入口:https://uniworld.rabbitpre.com/