Discuz! Board 首页 频道 查看内容

AI大模型的长上下文,究竟意味着什么?

来自版块: 频道
38
0

AIGC的迭代正以指数级的速度增长。Gemini刚发布不久,便迅速被OpenAI的Sora夺去了光芒。显然,与详尽的技术对比报告和性能指标相比,大众对Sora提供的酷炫逼真的视觉效果更为关注。有爱好者尝试使用Gemini来分析Sora ...

AIGC的迭代正以指数级的速度增长。


Gemini刚发布不久,便迅速被OpenAI的Sora夺去了光芒。显然,与详尽的技术对比报告和性能指标相比,大众对Sora提供的酷炫逼真的视觉效果更为关注。有爱好者尝试使用Gemini来分析Sora生成视频的结果,这种做法宛如用最强之矛去攻击最坚固之盾。


测试结果显示,Gemini 1.5不仅准确理解了视频的基本内容,还指出了生成视频中的一些不符合常理的细节。用魔法对抗魔法,尽管Sora的生成效果确实令人惊艳,但还是很容易就被Gemini找到了漏洞,与众人所期待的“物理引擎”水平之间还存在显著的差距。


相比Sora的博人眼球,Gemini发布的五十多页技术报告更值得一读。报告详细介绍了长上下文和多模态测试,这些测试的许多方面将对AIGC应用的未来发展产生深远影响。Gemini支持高达1000万token的超长上下文和强大的多模态能力,这意味着利用Gemini能够与整本书籍、庞大的文档集、数百个文件组成的数十万行代码库、完整电影、一整个播客系列等进行交互。


鲜花

握手

雷人

路过

鸡蛋
看帖是喜欢,评论才是真爱:

全部回复(0)

本网站所刊载信息,不代表中新社和中新网观点。 刊用本网站稿件,务经书面授权。
未经授权禁止转载、摘编、复制及建立镜像,违者将依法追究法律责任。
Copyright ©2024 Comsenz Inc. Powered by Discuz!

顶部