今晚,圆桌讨论Transformer跨界CV任务

百家 作者:机器之心 2021-03-25 13:02:41

自2017 年 6 月谷歌发布论文《Attention is All You Need》后,Transformer架构为整个NLP领域带来了极大的惊喜。

随着技术的发展,Transformer 不仅成为自然语言处理领域的主流模型,还开始了向其他领域的跨界。

特别是在近几个月,Transformer 开始大量应用于计算机视觉领域的研究,甚至有取代卷积网络的趋势。2020 年 5 月,Facebook AI 实验室推出Detection Transformer(DETR),用于目标检测和全景分割。这是第一个将 Transformer 成功整合为检测 pipeline 中心构建块的目标检测框架, 在大型目标上的检测性能要优于 Faster R-CNN。2020 年 10 月,谷歌提出了
Vision Transformer (ViT),可以直接利用 transformer 对图像进行分类,而不需要卷积网络。ViT 模型取得了与当前最优卷积网络相媲美的结果,但其训练所需的计算资源大大减少。

而后,Transformer在图像合成、点云处理、视觉 - 语言建模等领域的研究如雨后春笋般喷涌而出。由此,「Transformer 是万能的吗?」成为了近期机器学习社区的热门话题。甚至不久之前,谷歌大脑研究员 David Ha 发推表示:
Transformer 是新的 LSTM

为了方便读者们了解Transformer在CV领域的前沿研究,为大家提供更多洞见。机器之心策划了「Transformer is all you need?」线上圆桌主题活动,邀请业内做Transformer CV研究的学者们一起讨论相关话题。

本活动主要分为三个环节:每位嘉宾10分钟的研究介绍,40分钟的圆桌讨论以及20分钟在线答疑。


嘉宾简介

翟晓华,ViT共同一作,现任瑞士苏黎世谷歌大脑团队Staff Researcher,研究方向为特征学习、深度学习、人工智能。他于2014年在北京大学王选计算机研究所获得博士学位。他负责的大规模迁移学习算法「Big Transfer (BiT)」基于亿级规模图像数据来训练模型,在超过二十个视觉任务上取得了很好的效果;作为共同一作,他提出的「Vision Transformer (ViT)」将Transformer模型应用于图像识别,利用更少的计算资源取得了与计算机视觉领域的主流模型CNN相当的效果,该工作已被多家媒体报导(包括美国《财富》杂志、机器之心等);这两个特征学习项目及模型已开源,在GitHub上共获得3000个星标。他提出的「S4L」学习框架将自监督学习应用于半监督学习,该思想已被自监督学习领域广泛采纳和应用。他是「Compare GANs」项目的主要贡献者,在Github上获得1700个星标。他共同创建了「The Visual Task Adaptation Benchmark (VTAB)」项目,这是一个多样、真实、具有挑战性的评测基准,用于评测未见任务小样本条件下的特征学习,包括生成式模型、自监督学习、半监督学习和监督学习。

他发表了多篇国际顶级期刊和会议论文,包括ICLR、ICML、CVPR、ICCV、ECCV、AAAI和IEEE TCSVT。2012年作为彭宇新教授团队的核心成员参加由美国国家标准技术局(NIST)举办的TRECVID中的INS比赛,并获得国际第一名。他是IEEE TPAMI、TIP、TMM、ICLR、ICML、CVPR、ECCV、ICCV、AAAI和ACM MM等国际顶级期刊和会议的审稿人。


  • ViT论文:An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale

  • 链接:https://arxiv.org/abs/2010.11929


王云鹤,IPT和TNT作者,2018年于北京大学智能科学系博士毕业,加入华为诺亚方舟实验室,负责能耗高效的计算机视觉算法的研发以及前沿算法的探索。至今共发表学术论文50余篇,包含TPAMI、NeurIPS、ICML、SIGKDD、CVPR、ICCV等。多项技术应用在华为产品中。

  • IPT论文:Pre-Trained Image Processing Transformer

  • 链接:https://arxiv.org/pdf/2012.00364.pdf

  • TNT论文:Transformer in Transformer

  • 链接:https://arxiv.org/pdf/2103.00112.pdf


朱锡洲,D-DETR作者,商汤研究院高级研究员。2020年,朱锡洲在中科大郭百宁教授和王永教授的指导下获得博士学位。在此期间,他参与了中科大与微软亚研院的联合博士培养计划。他目前的研究重点是面向高级视觉的深度学习,尤其是语义分割和目标检测。

  • D-DETR论文:Deformable DETR: Deformable Transformers for End-to-End Object Detection

  • 链接:https://arxiv.org/abs/2010.04159


时间与流程

时间:北京时间3月25日19:30-21:00


  • 19:30-19:40,翟晓华介绍ViT;

  • 19:40-19:50,王云鹤介绍IPT、TNT;

  • 19:50-20:00,朱锡洲介绍D-DETR;

  • 20:00-20:40,圆桌讨论,主持人:机器之心;

  • 20:40-21:00,观众 QA。


直播间:https://jmq.h5.xeknow.com/s/2gqDz9

直播群:识别下方二维码,即可加入本次直播交流群。


如群已超出人数限制,添加机器之心小助手:syncedai2、syncedai3、syncedai4或syncedai6,或将微信ID发送至邮箱shidongle@jiqizhixin.com,备注「圆桌」即可加入。

点击阅读原文,收藏直播间。

关注公众号:拾黑(shiheibook)了解更多

[广告]赞助链接:

四季很好,只要有你,文娱排行榜:https://www.yaopaiming.com/
让资讯触达的更精准有趣:https://www.0xu.cn/

公众号 关注网络尖刀微信公众号
随时掌握互联网精彩
赞助链接