WorldGPT来了:打造类Sora视频AI智能体

阅读量63373

发布时间 : 2024-03-22 10:58:07

Seeking AI携手哈佛、斯坦福、北大等知名学府推出WorldGPT,实现静态内容与动态视频的高度融合

OpenAI 的 Sora 在今年 2 月横空出世,把文生视频带向了新阶段。它能够根据文字提示生成好莱坞电影般逼真而又充满想象力的视频。很多人纷纷感叹,现在的 OpenAI 一出手就是巅峰。

由 Sora 引发的热潮还在持续,同时研究者们也看到了 AI 视频生成技术上的巨大潜力,越来越多的人开始关注这一领域。

然而,当前 AI 视频生成领域,大部分算法研究将重点放在了通过文本提示生成视频,对于多模态输入,特别是图片与文本结合的场景,并没有进行深入探讨或广泛应用。这种偏向降低了生成视频的多样性和可控制性,限制了从静态图像到动态视频的转换能力。

另一方面,现有的大部分视频生成模型对生成视频内容缺乏可编辑性的支持,无法满足用户对生成视频进行个性化调整的需求。

提示:把熊猫变成熊,并且让它跳舞。(Change the panda to a bear and make it dance.)

本文,来自 Seeking AI、哈佛大学、斯坦福大学以及北京大学的研究者们共同提出了一种创新的基于图片 – 文本的视频生成编辑统一框架,名为 WorldGPT。该框架建立在 Seeking AI 与上述知名高校共同研发的 VisionGPT 框架之上,不仅能够实现由图片和文本直接生成视频的功能,还支持通过简单的文本提示(prompt)对生成视频进行风格迁移、背景替换等一系列视频外观编辑操作。

另外,该框架的另一显著优势是其无需训练,这不仅大幅降低了技术门槛,也使得部署和使用变得极为便捷。用户可以直接利用模型进行创作,无需关注背后复杂的训练过程。

image.png

  • 论文地址:https://arxiv.org/pdf/2403.07944.pdf
  • 论文标题:WorldGPT: A Sora-Inspired Video AI Agent as Rich World Models from Text and Image Inputs

接下来我们看看 WorldGPT 在多种复杂视频生成控制场景中的示例展示。

背景替换 + 生成视频

提示:「一支船队在呼啸的风暴中奋力前行,他们的船帆在无情风暴的巨浪中航行。(A fleet of ships pressed on through the howling tempest, their sails billowing as they navigated the towering waves of the relentless storm.)」

image.png

背景替换 + 风格化 + 生成视频

提示:「一条可爱的龙在城市的街道上喷火。(A cute dragon is spitting fire on an urban street.)」

image.png

对象替换 + 背景替换 + 生成视频

提示:「一个赛博朋克风格的机器人在霓虹灯照亮的反乌托邦城市景观中疾驰,高耸的全息图和数字衰变的反射投影到其光滑的金属机身上。(A cyberpunk-style automaton raced through the neon-lit, dystopian cityscape, reflections of towering holograms and digital decay playing across its sleek, metallic body.)」

image.png

从上面的示例可以看出,WorldGPT 在面对复杂视频生成指令时具有以下优点:

1)较好的保持了原输入图像的结构和环境;

2)生成符合图片 – 文本描述的生成视频,展现出了强大的视频生成定制能力;

3)可以通过 prompt 对生成视频进行定制化编辑。

图片1.png

了解更多有关 WorldGPT 的原理、实验和用例的信息,请查看原论文。

VisonGPT

前面已经提到,WorldGPT 框架建立在 VisionGPT 框架之上。接下来我们简单介绍一下有关 VisionGPT 的信息。

VisionGPT 是由 SeekingAI、斯坦福大学、哈佛大学及北京大学等机构联合研发,是一款开创性的开放世界视觉感知大模型框架。该框架通过智能整合和决策选择最先进的 SOTA 大模型,提供了强大的 AI 多模态图像处理功能。

VisionGPT 的创新之处主要体现在三个方面:

  1. 首先,它以大型语言模型(例如 LLaMA-2)为核心,将用户的 prompt 请求分解成详细的步骤需求,并自动化调用最合适的大模型进行处理;
  2. 其次,VisionGPT 自动接受并融合来自多个 SOTA 大模型产生的多模态输出,从而生成针对用户需求的图像处理结果;
  3. 最后,VisionGPT 具有极高的灵活性和多功能性,无需用户对模型进行微调,就能够支持包括文本驱动的图像理解、生成、编辑在内的广泛应用场景。

image.png

  • 论文地址:https://arxiv.org/pdf/2403.09027.pdf
  • 论文标题:VisionGPT: Vision-Language Understanding Agent Using Generalized Multimodal Framework

VisionGPT 用例

Image [6].png

从上面可以看出,VisionGPT 无需 fine-tune,即可以轻松实现 1)开放世界的实例分割;2)基于 prompt 的图像生成和编辑功能等。VisionGPT 的工作流程如下图所示。

image.png

更多详细信息可以参考论文。

VisionGPT-3D

此外,研究者们还推出了 VisionGPT-3D,旨在解决从文本到视觉元素转换中的一大挑战:如何高效、准确地将 2D 图像转换成 3D 表示。在这个过程中,经常面临算法与实际需求不匹配的问题,从而影响最终结果的质量。VisionGPT-3D 通过整合多种最先进的 SOTA 视觉大模型,提出了一个多模态框架,优化了这一转换流程。其核心创新点在于自动选择最适合的视觉 SOTA 模型和 3D 点云创建算法,并且根据文本提示等多模态输入生成最符合用户需求的输出的能力。

image.png

  • 论文地址:https://arxiv.org/pdf/2403.09530v1.pdf
  • 论文标题: VisionGPT-3D: A Generalized Multimodal Agent for Enhanced 3D Vision Understanding

本文转载自:

如若转载,请注明出处: https://www.jiqizhixin.com/articles/2024-03-21-10

安全客 - 有思想的安全新媒体

分享到:微信
+14赞
收藏
安全客
分享到:微信

发表评论

内容需知
合作单位
  • 安全客
  • 安全客
Copyright © 北京奇虎科技有限公司 三六零数字安全科技集团有限公司 安全客 All Rights Reserved 京ICP备08010314号-66