情報学部大学生のダラダラ日記

β日記

機械学習や日記っぽいものを書きます

論文

論文メモ⑥:Spatially-Adaptive Pixelwise Networks for Fast Image Translation

論文の情報 Spatially-Adaptive Pixelwise Networks for Fast Image Translation 論文リンク: https://arxiv.org/abs/2012.02992 被引用数(2021年11月時点): 3 採択日: 5 Dec 2020 リンク:https://ai-scholar.tech/articles/image2image/ASAPNet まとめ Cycl…

論文メモ⑤:Reducing Transformer Depth on Demand with Structured Dropout

論文の情報 Reducing Transformer Depth on Demand with Structured Dropout 論文リンク: https://arxiv.org/abs/1909.11556 被引用数(2021年8月時点): 142 採択日: 25 Sep 2019 リンク:https://ai-scholar.tech/articles/dropout/LayerDrop 一言まとめ Drop…

論文メモ④TransGaGa: Geometry-Aware Unsupervised Image-to-Image Translation

論文の情報 TransGaGa: Geometry-Aware Unsupervised Image-to-Image Translation 論文リンク: https://arxiv.org/abs/2003.02819 被引用数(2021年3月15日時点): 40 採択日: 21 Apr 2019 UTC プロジェクトページ: https://wywu.github.io/projects/TGaGa/TGa…

SGDを使うにあたってのハイパーパラメータの設定(論文紹介③ Control Batch Size and Learning Rate to Generalize Well: Theoretical and Empirical Evidence)

概要 深層学習において、確率的勾配降下法(SGD)はOptimizerとして良い結果を出しており、SGDをより良く動かすためにハイパーパラメータの調整が必要。複数あるハイパーパラメータのうち、特にバッチサイズ(Batch Size)と学習率(Learning Rate)に着目し、どの…

モデルを蒸留するのではなくデータセットを蒸留する(論文紹介②Dataset Distillation)

蒸留とは 中学生の時に化学で学んだ蒸留について、 蒸留(じょうりゅう、Distillation)とは、混合物を一度蒸発させ、後で再び凝縮させることで、沸点の異なる成分を分離・濃縮する操作をいう。 引用元:Wikipedia 深く、大きいモデルが優秀であることは想像…

自動運転に潜む怖さ(論文紹介①Adversarial examples in the physical world)

はじめに 先日、UberのAI車が死亡事故を起こすという痛ましいニュースが流れました。 news.yahoo.co.jp この事故は「歩行者は歩道にいる」というシステム設計から起こった事故ですが、例えばAI車が読み込む標識などに誰かが細工をして「とまれ」を別の標識に…

スポンサーリンク