深層学習論文まとめ

ディープラーニング初心者がAI部署に配属されてから読んだ論文をまとめていきます.情報共有のご参考までに.

#19 Deep Residual Networks

こんにちは,ohashiです. 今回は残差学習(ResNet)についてご紹介します. 画像認識の基礎となるモデルに興味がある方はぜひ!

#18 Improving NMT with Monolingual Data

こんにちは,ohashiです. 今回は逆翻訳によるデータ拡張手法をご紹介します. 自然言語処理のデータ拡張に興味がある方はぜひ!

#17 Mask TextSpotter: Spotting Text with Arbitrary Shapes

こんにちは,ohashiです. 今回は情景内文字認識をご紹介します. 画像処理に自然言語を組み込んだモデルに興味がある方はぜひ!

#16 Recognition of Japanese historical text lines with Attention

こんにちは,ohashiです. 今回はAttentionを使った文字列認識をご紹介します. 画像処理に自然言語を組み込んだモデルに興味がある方はぜひ!

#15 KuroNet: Pre-Modern Japanese Kuzushiji Character Recognition

こんにちは,ohashiです. 今回は近代以前の日本語『くずし字』の文字認識技術をご紹介します. ページ画像からの一括文字列認識に興味がある方はぜひ!

#14 GEC via Copy-Augmented Architecture with Unlabeled Data

こんにちは,ohashiです. 今回はコピー機構を導入したTransformerによる文章誤り訂正をご紹介します. Transformerを拡張例,新たな事前学習に興味がある方はぜひ!

#13 A Multilayer Convolutional Encoder-Decoder for GEC

こんにちは,ohashiです. 今回はAttention+CNNによる文章誤り訂正をご紹介します. 自然前後処理におけるCNNに興味がある方はぜひ!

#12 End-to-End Object Detection with Transformer

こんにちは,ohashiです. 今回はTransformerを使った物体検出をご紹介します. 画像処理と自然言語処理の組み合わせに興味がある方はぜひ!

#11 The CoNLL-2014 Shared Task on GEC

こんにちは,ohashiです. 今回は文法誤り訂正のデータセットをご紹介します. ベンチマークとなっているデータセットの内容に興味がある方はぜひ!

#10 Diverse Backtranslation for Grammar Correction

こんにちは,ohashiです. 今回は逆翻訳を使った文章のデータ拡張手法をご紹介します. これから流行りそうな逆翻訳の概念に興味がある方はぜひ!

#9 日本語の誤り傾向を考慮した疑似誤り生成

こんにちは,ohashiです. 今回は日本語における疑似誤り生成をご紹介します. 文法の誤りを訂正するAIについて,興味がある方はぜひ!

#8 BERT: Pre-training of Deep Bidirectional Transformers

こんにちは,ohashiです. 今回は汎用事前学習モデルBERTをご紹介します. なぜ事前学習が重要なのか,理由に興味がある方はぜひ!

#7 Attention is All You Need

こんにちは,ohashiです. 今回は畳み込み層を持たない機械翻訳モデルをご紹介します. 従来の自然言語処理を刷新して新たな定番となったTransformerに興味がある方はぜひ!

#6 Xavier, Heの初期値

こんにちは,ohashiです. 今回はXavierとHeの初期値の論文をご紹介します. よく使うモデルの初期値の理由に興味のある方はぜひ!

#5 Anime Sketch Colorization GAN

こんにちは,ohashiです. 今回はマンガにおける線画の自動着色をご紹介します. 実用への期待と課題が多く残るフロンティアな領域に興味がある方はぜひ!

#4 Let There Be Color!

こんにちは,ohashiです. 今回はグレイスケール画像の自動着色技術をご紹介します. グレイスケール画像から色情報を復元する技術に興味がある方はぜひ!

#3 pix2pix

こんにちは,ohashiです. 今回は条件付き画像生成モデルpix2pixをご紹介します. 画像変換タスクに興味のある方はぜひ!

#2 GAN, Conditional GAN

こんにちは,ohashiです. 今回は画像生成モデルのGANとCGANをご紹介します. 聞いたことはあるけど詳しくは知らない,という方はぜひ!

#1 Alex Net, FCN, U-Net

こんにちは,ohashiです. CNNの基盤技術となる論文3本をご紹介します. 深層学習を始める第一歩にぜひ!