从第一人称视角理解世界,多模态模型离我们还有多远?| CVPR 2024

大数据文摘受权转载自将门创投
目前很多评测工作探究视觉语言大模型在不同维度上的能力,但都忽视了真实世界中非常重要的一点:未来作为智能体或机器人的大脑,多模态模型应当具备从第一人称视角理解世界的能力。针对以上问题,清华大学提出了第一人称视角的视觉问答基准数据集——EgoThink,相关论文被人工智能顶级国际会议CVPR 2024录用。EgoThink数据集定义了在真实世界中从第一人称思考时所需的六种核心能力,并评估了十八个主流的视觉语言大模型的表现。评测结果显示,目前阶段的视觉语言大模型从第一人称视角进行思考的能力仍有显著欠缺,即使是GPT-4V模型在所有任务上的平均分也仅为65.5(满分100)。


论文标题: Can Vision-Language Models Think from a First-Person Perspective? 论文链接: https://arxiv.org/abs/2311.15596 项目主页: https://adacheng.github.io/EgoThink/ 代码链接: https://github.com/AdaCheng/EgoThink 数据集链接: https://huggingface.co/datasets/EgoThink/EgoThink
一、研究背景
二、数据集构建
三、模型评测 评测方式
新上线一批4090/A800/H800/H100
特别适合企业级应用



关注公众号:拾黑(shiheibook)了解更多
[广告]赞助链接:
四季很好,只要有你,文娱排行榜:https://www.yaopaiming.com/
让资讯触达的更精准有趣:https://www.0xu.cn/

随时掌握互联网精彩
赞助链接
排名
热点
搜索指数
- 1 热爱与坚守 7904358
- 2 中核集团重大突破:成功产出第一桶铀 7808173
- 3 第二代居民身份证迎换证高峰 7714457
- 4 这份防中暑秘籍请收好 7619217
- 5 十分钟很短但这是她30年的痛苦 7524406
- 6 三次判刑仍提拔的局长曾枪击村民 7424880
- 7 净网:来看1起侵犯公民个人信息案 7333271
- 8 00后大学舍友 最熟悉的陌生人 7236607
- 9 村民捞手机索要1500元未果又扔水里 7136210
- 10 邓紫棋小说首日销售额破4000万 7047198