视频生成器Sora让人喜忧交加

发布时间:2024-12-27 13:41:58 来源: sp20241227

  继推出ChatGPT后,龙年伊始,OpenAI公司又推出了最新人工智能(AI)模型——文本-视频程序Sora。这款工具可根据简单的文本描述,生成类似好莱坞电影般的逼真而又充满想象力的视频。

  英国《新科学家》杂志网站在2月17日的文章中指出,对Sora的到来,人们可能“既爱又怕”。不少科学家欢呼其到来,认为它将进一步推动技术进步。但也有人担心,Sora会被别有用心之人用来制造深度伪造视频,加剧错误和虚假信息的泛滥。

两大技术孵化强大功能

  Sora日语意为“天空”,其背后的团队之所以选择这个名字,是因为它“让人联想到无限的创造潜力”。该系统是生成式AI的一个最新实例。生成式AI可即时创建文本、图像和声音。

  Sora目前可单独使用文本指令,或将文本与图像相结合,来创建长达60秒的视频,而且是一镜到底。比如一段演示视频依据如下文字描述生成:一位时尚女性漫步于充满城市标牌的东京街道上,道路两边霓虹灯闪烁,透出阵阵暖意。Sora不仅准确呈现了细节,还生成了具有丰富情感的角色。

  目前OpenAI官网上已更新了48个视频,包括一只狗在雪地里嬉戏,车辆在路上行驶,以及更奇幻的场景,如鲨鱼在城市摩天大楼之间游泳等。有专家认为,Sora的表现优于其他类似模型,标志着文本-视频技术的巨大飞跃。

  为实现更高水平的真实感,Sora结合了两种不同的AI技术。一是类似于DALL-E等AI图像生成器中使用的扩散模型,这些模型学习将随机图像像素转换为相干图像;二是“转换器架构”技术,其被用于将序列数据依据上下文内容拼接在一起。例如,大型语言模型使用转换器架构将零散的单词组装成人们可理解的句子。OpenAI将视频片段分解为视觉“时空补丁”,Sora的转换器架构可处理这些补丁。

  英伟达公司高级研究科学家范麟熙在社交媒体平台X上称,Sora是一个可模拟现实世界的“数据驱动的物理引擎”。

仍有诸多完善空间

  尽管Sora生成的视频令人印象深刻,但并非完美无缺。

  OpenAI公司坦承,目前Sora模型也有弱点。它可能难以准确模拟复杂场景的物理特性,且可能无法理解因果关系。例如,该系统最近生成了一个人吃饼干的视频,但饼干怎么吃也没变小,被咬的饼干也神奇地没有咬痕。此外,该模型还可能混淆文字提示的空间细节,也可能难以精确描述随时间推移发生的事件。

  美国普林斯顿大学的阿凡德·纳拉亚南指出,Sora生成的视频在描绘有大量动作的复杂场景时仍然会出现一些奇怪的小问题。

或使人真伪难辨

  除了加快经验丰富的电影制作人的工作速度外,Sora还可能快速廉价的制造网络虚假信息,使人们在互联网上更难分辨真伪。

  OpenAI公司仍在试图了解Sora的危险性,因此尚未向公众发布该系统。相反,他们正在与为数不多的学者和其他外部研究人员分享这项技术,希望借助这些专家的智慧,找到该系统可能被滥用的方式。

  OpenAI针对Sora开展的“红队”演习中,专家们试图破坏AI模型的保护措施,以评估其被滥用的可能性。OpenAI发言人表示,目前参与测试Sora的都是“在错误信息、仇恨内容和偏见等领域的专家”。

  这项测试至关重要,因为Sora可能会被别有用心者用来生成虚假视频,以骚扰他人,甚至影响政治选举。学术界、商界、政府以及AI专家都很担心,AI生成的“深度伪造”内容可能会造成虚假和错误信息的广泛传播。

  美国加州大学伯克利分校的哈尼·法里德认为,与生成式AI领域的其他技术一样,人们有理由相信,文本-视频技术会持续改进。因为一旦Sora与由AI驱动的语音克隆技术相结合,将为不怀好意者提供全新工具,并创建出逼真的深度伪造内容,这将让人们越来越难以区分真伪。

  OpenAI已经在该系统生成的视频中加上了水印,表明这些视频是由AI生成的。但该公司也承认,这些水印可被移除,水印可能难以被发现。

  OpenAI发言人强调称,在将Sora用于OpenAI的产品之前,该公司正在采取几项重要的安全措施。例如,该公司已使用了自动化流程,旨在防止其商业AI模型生成针对政客和名人的虚假内容。

(责编:张泰运、姜洁)