前言
論文速速讀系列是從今年四月開始,我開始寫一些論文的中文讀書筆記,還記得第一篇是[論文速速讀]ReZero is All You Need: Fast Convergence at Large Depth,之後發現儘管自己已經陸續產出了幾篇文章,可是好像都沒正式的跟大家介紹這系列文章的由來xD
所以這篇文章就是來講講這系列文章到底是什麼,以及我會和會想寫這些文章。
論文速速讀系列是什麼?
由於在AI領域每年總是有一些非常重大的突破和應用,如果跟不上潮流很有可能就會錯失許多機會。例如,對NLP領域熟悉的話你一定聽過2013年的word2vec、2014年開始流行的attention、2018年的Bert…這些很有名的技術。
還記得Bert剛出的時候我好像剛進碩士實驗室,當時只知道這個技術屌打了當時一堆NLP的研究,但我想也想不到兩年後Bert已經造成如此大的影響力,一堆基於Bert的變形應用在各大領域上都取得了非常優異的結果。
因此,我想要藉由這系列的文章讓自己能夠更加快速的了解AI的新技術和研究,同時逼迫自己看論文xD
這個系列的文章大多都是中文的讀書筆記的形式(畢竟對於我自己在中文的文章上還是能夠更加快速的理解的),可能會將自己認為論文中重要的部分擷取出來做引用,並且加上一些自己的認知。在過程中如果有不懂的地方也會試著將外部的一些資訊一同補充進來(題外話,真的覺得知乎是個中文友善的學術研討平台,可以學到很多東西)。
然後我希望以快速理解論文的重點為主,所以對於實驗流程、資料集、數據比較的部分我會比較省略,此時你可能就會看到下面的Jumping馬力歐出現,代表我又要跳過這一部分了xD
最後,所有的文章都是自己的閱讀心得、或是整理網路上其他前輩的資源後的文章,如果觀念、講解上有任何錯誤還請協助提醒指教謝謝~
文章整理
雖然再Archives也能看的到,不過那邊還有包含了其他的文章,所以我會將這篇文章置頂,並做個簡單的分類,以便能夠快速查閱論文。
目前分類的部分大致會分成CV(Computer Vision), NLP(Natural Language Processing), and Others這三個項目,之後視情況會再進行微調。排序方式由上至下分別是根據我發文的日期最新到最舊的文章這樣。
注意下列順序為我撰寫文章的順序,並非論文的年份順序,此分類僅供方便查閱文章使用,並不建議按照分類順序學習Deep Learning
Computer Vision
- [論文速速讀]Learning Deep Features for Discriminative Localization
- [論文速速讀]Squeeze-and-Excitation Networks
- [論文速速讀]Deep Residual Learning for Image Recognition
- [論文速速讀]Very Deep Convolutional Networks For Large-Scale Image Recognition
- [論文速速讀]Network In Network
- [論文速速讀]Going deeper with convolutions
- [論文速速讀]Visualizing and Understanding Convolutional Networks
- [論文速速讀]ImageNet Classification with Deep Convolutional Neural Networks
- [論文速速讀]Gradient Based Learning Applied to Document Recognition
- [論文速速讀]End-to-end object detection with Transformers
Natural Language Processing
- [論文速速讀]Efficient Estimation of Word Representation in Vector Space
- [論文速速讀]PEGASUS: Pre-training with Extracted Gap-sentences for Abstractive Summarization
- [論文速速讀]Attention is not Explanation
- [論文速速讀]Attention-based LSTM for Aspect-level Sentiment Classification
- [論文速速讀]Hierarchical Attention Networks for Document Classification
- [論文速速讀]NEURAL MACHINE TRANSLATION BY JOINTLY LEARNING TO ALIGN AND TRANSLATE
- [論文速速讀]Attention Is All You Need
- [論文速速讀]Automatic Generation of Personalized Annotation Tags for Twitter Users
Others
- [論文速速讀]ILSVRC系列文回顧 - 各種CNN知名模型介紹
- [論文速速讀]Attentive CutMix: An Enhanced Data Augmentation Approach for Deep Learning Based Image Classification
- [論文速速讀]CutMix: Regularization Strategy to Train Strong Classifiers with Localizable Features
- [論文速速讀]ReZero is All You Need: Fast Convergence at Large Depth