LTX Studio为其开源视频生成模型 LTX Video 推出三款全新 LoRA控制模型,为开源视频模型带来前所未有的控制力

视频模型5个月前发布 小马良
128 0

LTX Studio 为其开源视频生成模型 LTX Video 推出了三项全新的 LoRA 控制模块,让 AI 视频创作进入一个更具操控性与表现力的新阶段。

这三款 LoRA 分别是:

  • 🕺 姿势 LoRA(Pose LoRA)
  • 🏞️ 深度 LoRA(Depth LoRA)
  • ✏️ Canny LoRA

它们不仅支持在消费级硬件上训练和使用,而且只需少量样本即可实现精细控制,为视频生成带来了更强的可控性和创意自由度。

🧠 为什么推出这些 LoRA?

LTX Video 是目前少有的可在本地运行的高质量 AI 视频生成模型。然而,在复杂场景中如何实现对动作、构图与细节的精确控制,一直是视频生成的一大挑战。

此次推出的三款 LoRA 模块正是为了提升用户对视频内容的掌控能力,使 AI 视频创作更加“可预测、可编辑、可复用”。

🎛️ 三款 LoRA 功能详解

1. 姿势 LoRA(Pose LoRA)

从参考视频中提取人物骨骼信息,精准捕捉角色动作轨迹。

✅ 优势:

  • 可用于引导角色运动路径
  • 支持高精度动作控制
  • 适用于动画角色驱动、舞蹈动作复制等场景

2. 深度 LoRA(Depth LoRA)

理解画面中的空间关系,保持对象之间的纵深感和比例一致性。

✅ 优势:

  • 维持场景的立体感与透视逻辑
  • 避免画面“平面化”或“扭曲”
  • 适用于三维风格视频、虚拟布景合成

3. Canny LoRA

基于边缘检测机制,提取面部轮廓、物体边界等关键线条,确保风格迁移时保留核心特征。

✅ 优势:

  • 精准保留人物面部特征
  • 强化画面结构稳定性
  • 支持高清风格转换与细节增强

🔧 开源训练代码同步发布

为了让社区能够快速应用并扩展这些 LoRA 模块,LTX Studio 同步发布了完整的 训练代码与流程文档

这意味着:

  • 用户可根据自己的需求训练定制化的 LoRA 模型
  • 利用少量样本即可微调,适配特定风格或角色
  • 更好地整合到 ComfyUI、AIGC 工作流中

这一举措大大降低了 LoRA 的训练门槛,使得更多创作者和研究人员都能参与进来。

💡 为何值得关注?

  • 完全开源:所有 LoRA 和训练方法均开放给社区;
  • 轻量可用:无需高端 GPU,也能训练个性化 LoRA;
  • 多 LoRA 联动:支持多个 LoRA 同时作用于同一视频生成任务;
  • 本地部署友好:适合希望在本地环境中构建完整视频生成流水线的用户。
© 版权声明

相关文章

暂无评论

none
暂无评论...