春节囤货清单 | 15篇近期值得读的AI论文

百家 作者:AI100 2018-02-18 09:31:39


本文来自PaperWeekly


[ 自然语言处理 ]


- 01 -


Deep Learning for Sentiment Analysis : A Survey

@xwzhong 推荐

#Sentiment Classification


近年来,深度学习有了突破性发展,NLP 领域里的情感分析任务逐渐引入了这种方法,并形成了很多业内最佳结果。本文中,来自领英与伊利诺伊大学芝加哥分校的研究人员对基于深度学习的情感分析研究进行了详细论述。


论文链接

https://www.paperweekly.site/papers/1589


- 02 -


Generating Wikipedia by Summarizing Long Sequences

@paperweekly 推荐

#Short Text Expansion


本文来自 Google Brain,通过长序列摘要生成维基百科。


论文链接

https://www.paperweekly.site/papers/1615


- 03 -


MaskGAN: Better Text Generation via Filling in the ______

@Synced 推荐

#Paraphrase Generation


谷歌大脑提出使用生成对抗网络(GAN)来提高文本质量,它通过显式地训练生成器产生高质量文本,并且已经在图像生成领域取得很大成功。GAN 最初设计用于输出可微分的值,所以生成离散语言是具有挑战性的。作者认为验证复杂度本身不代表模型生成的文本质量。


本文引入条件 actor-critic GAN,它可以基于上下文填充缺失的文本。本文从定性和定量的角度证明,相比最大似然训练的模型,这种方法生成了更真实的有条件和无条件文本样本。


论文链接

https://www.paperweekly.site/papers/1588


- 04 -


Investigating the Working of Text Classifiers

@duinodu 推荐

#Text Classification


文本分类问题,给一段文本指定一个类别,在主题分类和情感分析中都有应用到。它的难点在于如何在具有语义的文本中,对句子之间的内在联系(语义或句法)进行编码。这对文本情感分类很关键,因为比如像“对照”或者“因果”等关系,会直接决定整个文档的性质。


本文并没有提出一套完整的解决方法,而是通过构建新的数据集(训练集和测试集尽可能不包含共同的关键词),验证上面的猜想。此外,作者还设计了一种 ANON 的正则方法,让网络不那么容易记住文档的关键词。


论文链接

https://www.paperweekly.site/papers/1579


- 05 -


A Hybrid Framework for Text Modeling with Convolutional RNN

@yinnxinn 推荐

#Question Answering


本文使用 RNN+CNN 的结构来完成 NLP 中的问答任务,其亮点在于使用 RNN 获取 question 和 answer 的上下文语义,CNN 在语义层面对二者进行操作。


论文链接

https://www.paperweekly.site/papers/1663


[ 计算机视觉 ]


- 06 -


MAttNet: Modular Attention Network for Referring Expression Comprehension

@EthanLC 推荐

#Multimodal


本文对 referring expression(指向目标物体的自然语句)进行 modular network 的建模,提供了主语,位置,关系三个 module。


每个 module 的组合权重由 attention 机制来实现,各个模块内提供不同的 visual attention 来关注图片内的相关区域。模型涉及到的 word,module,visual 的 attention 都当做隐变量自动学习。


整体框架可以与 Mask R-CNN 无缝连接,在目标定位和分割两个 task 上都达到了目前最佳准确率。

Demo: http://gpuvision.cs.unc.edu/refer/comprehension


论文链接

https://www.paperweekly.site/papers/1594


- 07 -


Wasserstein Auto-Encoders

@huapohen 推荐

#GAN


ICLR2018 高分论文,通过 optimal transport(最优传输)的角度,Wasserstein+auto-encoder 构建生成模型。但对 GAN 有情怀,通过对抗训练学习对手来提升自己,学习此篇 WAE(WGAN 的对手)正是如此,助于我们提升 GAN 网络的生成性能和或解释性。


论文链接

https://www.paperweekly.site/papers/1578


- 08 -


A Mixed-scale Dense Convolutional Neural Network for Image Analysis

@somtian 推荐

#CNN


本文通过将 dilated 卷积的 feature maps 做 dense connection,使模型可以处理计算机视觉中的很多问题,比如混合尺度的处理以及可以应用到很多问题中。同时减少了网络的参数,加速训练和应用。


论文链接

https://www.paperweekly.site/papers/1621


- 09 -


Dynamic Weight Alignment for Convolutional Neural Networks

@duinodu 推荐

#CNN


用 CNN 处理序列数据的问题在于,序列数据在时间上是存在畸变的,比如速率不稳定。而 CNN 的这种线性性质,让卷积核无法处理时间畸变这个问题。

本文提出了一种在 CNN 的卷积核中对齐权重的方法,使得这样的 CNN 更能处理序列数据,并在多个数据集上验证了这个方法的有效性。


论文链接

https://www.paperweekly.site/papers/1591


- 10 -


Single-Shot Refinement Neural Network for Object Detection

@arlen 推荐

#Object Detection


本文来自中科院自动化所,论文利用多层特征效果显著,结合了单阶段和双阶段的优点,在准确率和速度上有很好的均衡。


论文链接

https://www.paperweekly.site/papers/1576


[ 机器学习 ]


- 11 -


Model Evaluation, Model Selection, and Algorithm Selection in Machine Learning

@Synced 推荐

#Model Optimization


本文回顾了用于模型评估、模型选择和算法选择任务中的不同技术,并参考理论和实证研究讨论了每种技术的主要优势和劣势。


论文链接

https://www.paperweekly.site/papers/1616


- 12 -


Training Neural Networks by Using Power Linear Units (PoLUs)

@snowwalkerj 推荐

#Activation Function


本文设计了一种 PoLU 激活函数,在多个数据集上取得超过 ReLU 的性能。


论文链接

https://www.paperweekly.site/papers/1658


- 13 -


Learning Continuous User Representations through Hybrid Filtering with doc2vec

@Ttssxuan 推荐

#Recommender System


本文把用行为使用 item 描述进行串连,构成文档,并使用 doc2vec 训练用户表示向量。


论文链接

https://www.paperweekly.site/papers/1562


- 14 -


NDDR-CNN: Layer-wise Feature Fusing in Multi-Task CNN by Neural Discriminative Dimensionality Reduction

@xaj 推荐

#Multi-task Learning


本文研究的问题是多任务学习。作者提出了一种对多个网络(对应多个任务)进行逐层特征融合的方法。


论文链接

https://www.paperweekly.site/papers/1614


- 15 -


An Attention-based Collaboration Framework for Multi-View Network Representation Learning

@arlen 推荐

#Object Detection


本文是网络表示学习大牛 Jian Tang 的工作,论文利用 multi-view 来对网络进行表示学习。各个 view 之间通过共享邻居来保证所有节点表示在同一个空间中,同时,通过引入 attention 机制,可以学到不同节点在不同 view 的权重。


论文链接

https://www.paperweekly.site/papers/1583


招聘

新一年,AI科技大本营的目标更加明确,有更多的想法需要落地,不过目前对于营长来说是“现实跟不上灵魂的脚步”,因为缺人~~


所以,AI科技大本营要壮大队伍了,现招聘AI记者和资深编译,有意者请将简历投至:gulei@csdn.net,期待你的加入!


如果你暂时不能加入营长的队伍,也欢迎与营长分享你的精彩文章,投稿邮箱:suiling@csdn.net


如果以上两者你都参与不了,那就加入AI科技大本营的读者群,成为营长的真爱粉儿吧!后台回复:读者群,加入营长的大家庭,添加营长请备注自己的姓名,研究方向,营长邀请你入群。




☟☟☟点击 | 阅读原文 | 查看更多精彩内容

关注公众号:拾黑(shiheibook)了解更多

[广告]赞助链接:

四季很好,只要有你,文娱排行榜:https://www.yaopaiming.com/
让资讯触达的更精准有趣:https://www.0xu.cn/

公众号 关注网络尖刀微信公众号
随时掌握互联网精彩
赞助链接