Workflow
PixVerse R1
icon
Search documents
爱诗科技发布通用实时世界模型PixVerse R1,支持最高1080P分辨率
Xin Lang Cai Jing· 2026-01-14 01:53
新浪科技讯 1月14日上午消息,爱诗科技发布支持最高1080P分辨率通用实时世界模型PixVerse R1,宣 布首次将视频生成的延迟从"秒级"降至"即时"响应,实现了"所想即所见、所说即所现"的实时交互体 验,标志着AIGC领域的视频生成正式从"静态输出"迈入"实时交互"的全新阶段。 首先,Omni 原生多模态基础模型打破了传统多模态系统"拼接式"处理的局限。它采用Transformer架 构,具有高扩展性,模型统一Token流架构,将文本、图像、音频与视频融合为单一生成序列,实现真 正端到端的跨模态理解与输出。更为关键的是,模型全程在原生分辨率下训练,避免了上采样带来的模 糊与伪影。通过scaleup训练,使光影变化、物体运动与物理交互具备一致性和真实感。 而让这一切"实时"成为可能的,是创造性的瞬时响应引擎。IRE 通过时间轨迹折叠、引导校正和自适应 稀疏采样三大创新,将传统扩散模型所需的 50+ 采样步数压缩至惊人的 1–4 步,计算效率提升数百 倍,让动态画面进入人眼可感知的"即时"响应阈值。 责任编辑:宋雅芳 在传统视频制作流程中,高延迟、固定时长生成是长期存在的痛点,难以满足用户对实时响应与内容 ...
一个全新的世界模型,终于让AI视频进入了“无限流”时代。
数字生命卡兹克· 2026-01-14 00:23
昨晚夜里快12点,AI视频公司PixVerse毫无预兆的发了一个项目。 PixVerse R1,下一代实时世界生成模型。 这玩意你看文字,可能不是很好理解,我直接放一个官方的demo视频,大家的感觉应该会强一些。 上面是视频,下面是实时输入的Prompt。 整个过程,都是AI一直连续不断的生成视频,你可以在过程中用Prompt修改视频的进程,比如开头第一句Promtp,是士兵躺在雪山上,然后躺着躺着, 你就输入了一个Prompt,说一只黑乌鸦飞过,飞完了以后,这个视频准备自己去做一些决策了自己去演后续的剧情了,你又有了新想法,于是,你又发 了一段Prompt过去: 巡逻队发现了士兵。 每次你输入Prompt延迟2秒左右之后,你会发现,这个世界的剧情,就随着你的不断输入,不断的进行变化。 如果你不给Prompt干涉的话,他会自己一直演下去,最长的时间,在官方的技术报告里,写的是: 无限、连续的视觉流式传输。 PixVerse将其称为,实时世界生成模型。 网址在此:https://pixverse.ai/en/blog/pixverse-r1-next-generation-real-time-world-mod ...