情報学部大学生のダラダラ日記

β日記

機械学習や日記っぽいものを書きます

機械学習

論文メモ⑥:Spatially-Adaptive Pixelwise Networks for Fast Image Translation

論文の情報 Spatially-Adaptive Pixelwise Networks for Fast Image Translation 論文リンク: https://arxiv.org/abs/2012.02992 被引用数(2021年11月時点): 3 採択日: 5 Dec 2020 リンク:https://ai-scholar.tech/articles/image2image/ASAPNet まとめ Cycl…

論文メモ⑤:Reducing Transformer Depth on Demand with Structured Dropout

論文の情報 Reducing Transformer Depth on Demand with Structured Dropout 論文リンク: https://arxiv.org/abs/1909.11556 被引用数(2021年8月時点): 142 採択日: 25 Sep 2019 リンク:https://ai-scholar.tech/articles/dropout/LayerDrop 一言まとめ Drop…

pandasのdatatime型でのAssertionError: <class 'numpy.ndarray'>

はじめに pandasのdatetime型を扱ったときにエラーを吐かれ、検索してもほぼ出てこなかったので残しておきます。 問題設定 以下のようなcsvファイルをpandasで読み込み、dateをindexにした後にdateが2020年のものをスライスすることを目的とする。下の表は一…

論文メモ④TransGaGa: Geometry-Aware Unsupervised Image-to-Image Translation

論文の情報 TransGaGa: Geometry-Aware Unsupervised Image-to-Image Translation 論文リンク: https://arxiv.org/abs/2003.02819 被引用数(2021年3月15日時点): 40 採択日: 21 Apr 2019 UTC プロジェクトページ: https://wywu.github.io/projects/TGaGa/TGa…

2020年第3回G検定合格体験記

はじめに 資格とかには特に興味がなかったのですが、コロナの影響で大学へあまり行くことができず、春休み~夏休みを何もせずに過ごしさらに年も越してしまいそうな勢いだったので何かやることのきっかけが欲しくて受験を決意しました。研究室で深層学習につ…

SGDを使うにあたってのハイパーパラメータの設定(論文紹介③ Control Batch Size and Learning Rate to Generalize Well: Theoretical and Empirical Evidence)

概要 深層学習において、確率的勾配降下法(SGD)はOptimizerとして良い結果を出しており、SGDをより良く動かすためにハイパーパラメータの調整が必要。複数あるハイパーパラメータのうち、特にバッチサイズ(Batch Size)と学習率(Learning Rate)に着目し、どの…

言語処理100本ノック2020 第4章 Pythonでの解答例

前章↓↓ parco1021.hatenablog.com 第4章 形態素解析 30.形態素解析結果の読み込み(31日目|9月4日) 31.動詞(32日目|9月5日) 32.動詞の原形(33日目|9月6日) 33.「AのB」(34日目|9月7日) 34.名詞の連接(35日目|9月8日) 35.単語の出現頻度(36日目|9月9日) 36.…

言語処理100本ノック2020 第3章 Pythonでの解答例

第2章↓↓ parco1021.hatenablog.com 第3章:正規表現 20.JSONデータの読み込み(21日目|8月25日) 21.カテゴリ名を含む行を抽出(22日目|8月26日) 22.カテゴリ名の抽出(23日目|8月27日) 23.セクション構造(24日目|8月28日) 24.ファイル参照の抽出(25日目|8月29日)…

言語処理100本ノック2020 第2章 Pythonでの解答例

第1章↓↓ parco1021.hatenablog.com 第2章:UNIXコマンド 10.行数のカウント(11日目|8月15日) 11.タブをスペースに変換(12日目|8月16日) 12.1列目をcol1.txtに、2列目をcol2.txtに保存(13日目|8月17日) 13.col1.txtとcol2.txtをマージ(14日目|8月18日) 14.先頭…

言語処理100本ノック2020 第1章 Pythonでの解答例

はじめに 第1章:事前準備 00.文字列の逆順(1日目|8月5日) 01.パタトクカシーー(2日目|8月6日) 02. 「パトカー」+「タクシー」=「パタトクカシーー」(3日目|8月7日) 03.円周率(4日目|8月8日) 04.元素記号(5日目|8月9日) 05.n-gram(6日目|8月10日) 06.集合(7…

【参考書感想】Pythonで動かして学ぶ!あたらしい機械学習の教科書第2版

はじめに 機械学習を学ぶにあたり、少しですが何冊か参考書を読んだのでこれから何回かにわけて感想を書いていきたいと思います。 今回は僕が機械学習系統で初めて読んだ本です。 // リンク 読んだ当時、参考程度に僕は 機械学習→機械学習と深層学習って何が…

VAEを理論的に理解する

はじめに 今回は、VAE(Variational AutoEncoder)について数式面のみのアウトプットをしたいと思います。VAEとはなんたるか、実装方法等には触れません。そこではじめに参考文献を示します。 参考文献 Variational Autoencoder徹底解説 - Qiita AutoEncoder, …

線形基底関数モデルの最適解

はじめに 前回、D次元の線形回帰モデルを解きました。 parco1021.hatenablog.com 話を1次元に戻します。線形回帰モデルを解くとイメージとしては下図のようになります。 の形ですね。しかしこの分布を見ているとこのようにも見えると思います。 汚くてすみま…

D次元線形回帰モデルを平均二乗誤差を用いて解く

※自分のはてなブログの編集都合上、行列表現がTexで表現できないため画像を挿入します。すみません。※ 導入 線形回帰モデルとは 例えば直線モデルについて考えてみます。以下の図を見てください。 引用元:線形単回帰分析の仕組みをわかりやすく解説! | 全人…

誤差逆伝播法についてできるだけ丁寧に初心者がまとめる

導入 はじめに 勾配法において、損失関数を重みにおいて偏微分しそれを用いて重みを更新します。その手法の一種として以前に数値微分法という微分の定義に基づき、近似を用いることで勾配を求める手法をまとめました。今回は勾配を求める手法の1つとして誤差…

数値微分法についてまとめてPythonで色々してみる

勾配法あたりでやたらと見る数値微分法について調査し、まとめてみました。 今回、理論的なことは以下の書籍を参照し、図とプログラムは1から自作したものであり、特にプログラムは筆者がその場で簡易的に考え実装したものです。変数名などおかしい点があり…

予測損失と経験損失について簡単にまとめる

機械学習の大きな目的は訓練データから未知のデータ、すなわちテストデータに対する損失を小さくすることです。予測損失(テストデータ)と経験損失(訓練データ)についてまとめてみます。 予測損失 予測損失というよりも汎化誤差という言葉の方が親しみがある…

モデルを蒸留するのではなくデータセットを蒸留する(論文紹介②Dataset Distillation)

蒸留とは 中学生の時に化学で学んだ蒸留について、 蒸留(じょうりゅう、Distillation)とは、混合物を一度蒸発させ、後で再び凝縮させることで、沸点の異なる成分を分離・濃縮する操作をいう。 引用元:Wikipedia 深く、大きいモデルが優秀であることは想像…

自動運転に潜む怖さ(論文紹介①Adversarial examples in the physical world)

はじめに 先日、UberのAI車が死亡事故を起こすという痛ましいニュースが流れました。 news.yahoo.co.jp この事故は「歩行者は歩道にいる」というシステム設計から起こった事故ですが、例えばAI車が読み込む標識などに誰かが細工をして「とまれ」を別の標識に…

スポンサーリンク