HY-World 1.5(也称为WorldPlay)是一个开源的实时交互世界建模系统,能够以24 FPS的速度生成具有长期几何一致性的流式视频。它通过双重动作表示、重构上下文记忆、WorldCompa …
PersonaLive:实时流式肖像动画的突破性框架 摘要 PersonaLive是一款基于扩散模型的肖像动画框架,能在单张12GB GPU上实现实时、可流式传输的无限长度肖像动画,兼具低延迟与高质量 …
SVG-T2I:告别VAE,在视觉基础模型的语义空间里直接生成图像 你是否想过,AI生成图像的“魔法”背后,隐藏着一道关键的“压缩”工序?传统的主流方法,如Stable Diffusion,都依赖于一 …
Ovis-Image:7B 参数就能打 20B 的文本绘图模型,单机可跑、双语不乱码 核心问题:Ovis-Image 如何在只有 7B 参数、单张高端 GPU 的条件下,把海报、Logo、UI 原型里 …
核心问题:为什么只有 6B 参数的 Z-Image-Turbo,在 8 次网络前向(NFE)内就能媲美甚至超越 20B+ 级别的大模型? 一句话回答:它将“数据-架构-训练-推理”全链路重新设计,把“ …
SongBloom:通过交错自回归素描与扩散精炼实现连贯歌曲生成 歌曲生成技术正迅速改变音乐创作的方式,但如何生成结构连贯、人声与伴奏和谐且情感丰富的全长歌曲,一直是该领域的关键挑战。本文深入解析So …
近期,大型语言模型(LLMs)的快速发展推动了深度研究(DR)代理的兴起。这些代理展现出令人惊叹的能力,包括生成新颖的想法、高效检索信息、执行实验以及撰写综合报告和学术论文。 目前,大多数公开的 DR …
混元图像2.1:高效生成2K高清图像的开源扩散模型 你是否曾经想象过,只需输入一段文字,AI就能为你生成一张细节丰富、分辨率高达2K的高清图像?今天,我们要介绍的混元图像2.1(HunyuanImag …
一步生成高清流畅视频:DLoRAL技术深度解析 香港理工大学与OPPO研究院联合开发的创新算法,在保持时间一致性的同时增强视频细节 引言:视频超分辨率的挑战 当我们观看老电影或低分辨率视 …
全流程解析:MagicTryOn——基于扩散 Transformer 的视频虚拟试衣方案 随着线上购物和社交视频内容的爆炸式增长,用户对试穿体验的真实感和流畅度提出了更高要求。传统的基于图像的虚拟试衣 …
傅里叶空间视角下的扩散模型:为什么高频细节生成是关键挑战? 一、扩散模型的基本原理 扩散模型(Diffusion Models)近年来在图像生成、视频合成和蛋白质结构预测等领域取得了突破性进展。这类模 …
LLaDA-V:突破传统框架的多模态大语言模型新范式 核心概念解读 什么是扩散模型? 扩散模型通过”加噪-去噪”的过程生成内容:先逐步添加噪声破坏数据,再通过反向过程恢复原始信 …
探索MMaDA:统一多模态扩散模型的技术突破与实践指南 一、什么是MMaDA? MMaDA(Multimodal Large Diffusion Language Models)是新一代多模态基础模型 …
LightLab:基于扩散模型的图像光源控制系统深度解析 一、技术原理与创新突破 1.1 核心架构设计 LightLab系统建立在潜在扩散模型(Latent Diffusion Model, LDM) …
ACE-Step:开启音乐生成基础模型的新纪元 一、为什么我们需要新一代音乐生成模型? 当前音乐生成领域存在一个关键矛盾:创作效率与音乐品质难以兼得。传统LLM模型(如Yue、SongGen)虽然擅长 …
如何用AI让声音创作变得简单:AudioX模型解析 引言 在当今数字化时代,音频和音乐生成技术正变得越来越重要。从视频配乐到游戏音效,从语音助手到虚拟现实体验,高质量的音频内容需求无处不在。然而,传统 …
DreamActor-M1:基于混合引导的全身人像动画技术,实现高表达力与鲁棒性 DreamActor-M1 方法概览 Bytedance Intelligent Creation 团队近期提出了一种 …