読者です 読者をやめる 読者になる 読者になる

みらいテックラボ

音声・画像認識や機械学習など, 管理人が興味のある技術の紹介や実際にトライしてみた様子などメモしていく.

「Pythonで体験する深層学習」の紹介

発売前に, タイトルを見て面白そうと予約購入したのだが, 先日やっと読み終えた.
(実は別の本を先に読んでいただけ...)

 目 次
第1章 はじめに
第2章 Python
第3章 ニューラルネットワークの基盤となる考え方
第4章 深層学習理論
第5章 深層学習の現在
第6章 深層学習の展開
第7章 おわりに

タイトルからすると,
 Python機械学習フレームワークを使用して, 具体的に深層学習を試してみよう的な初心者向けの本」
といった感じがするが, 実際は機械学習についてある程度知識がある人向けで,
 ニューラルネットワークの変遷や深層学習の現在及び今後期待される技術などを網羅的に説明してあり, 全体を俯瞰している本」
という印象である.
第5章のR-CNN/Fast R-CNN/Faster R-CNNや第6章のDQNなどは, 聞いたことはあったが具体的なことはよく知らなかったので, これらのポイントがまとめてあり理解に役立った.
また, 引用文献も多数リストアップされているので, より深く知りたい場合にはこれらの論文にチャレンジすることも可能である.

機械学習や深層学習の基礎的な知識のある方や基本的な本を2-3冊読んだ方にはおすすめしたい.

最後に, 残念なのは初版第1刷ということで誤植が目立つ.
誤りと思われる箇所を正誤表として載せておく.

ページ
p.23 上部リスト9行目 True True True True True
p.23 1行目 dは辞書, eは集合である。 cは辞書, dは集合, eは辞書である。
p.23 3行目 dでは辞書となる。 dでは集合となる。
p.25 上部リスト 2行目 Le Cun LeCun
p.27 下部リスト 1行目 >>> a=[ ]; b=[ ]] >>> a=[ ]; b=[ ]
p.35 下部リスト 2行目 >>> a = np.array([[1,2,], [3, 4], [5, 6]]) >>> a = np.array([[1, 2], [3, 4], [5, 6]])
p.37 4行目 柔軟な処理機構を行うことを 柔軟な処理を行うことを
p.71 3行目 不応期V_{ref}をもつ。 不応期t_{ref}をもつ。
p.72 9行目 g(t,V)=\overline{g}・m(t,V)^p・h(t,V)^q g(t,V)=\overline{G}・m(t,V)^p・h(t,V)^q
p.74 19行目 式(3.7)では\sum{w_{ij} x_i}などと 式(3.7)では\sum{w_{ij} x_j}などと
p.75 図3.5の中 ジグモイド関数 シグモイド関数
p.75 12-13行目 ソフトマックス(y=log(1+exp(x)))も用いられる。 ソフトプラス(y=log(1+exp(x)))も用いられる。
p.76 図3.6のタイトル シグモイド, ソフトマックス シグモイド, ソフトプラス
p.77 21行目 E=(t-\Sigma^m_{j=0}w_jx_j)^2, である。 E=\Sigma(t-\Sigma^m_{j=0}w_jx_j)^2, である。
p.152 9行目 図5.1の楕円で囲まれた部分が 図5.1の四角で囲まれた部分が
p.153 1行目 楕円の上の数字が 四角の上の数字が
p.206 式6.18 w_{t+1}=w_t+α(Y_{t+1}-Y_t){\displaystyle \Sigma^t_{k=1}λ^{t-k}\nabla_w Y_t}, w_{t+1}=w_t+α(Y_{t+1}-Y_t){\displaystyle \Sigma^t_{k=1}λ^{t-k}\nabla_w Y_k},
p.224 14行目 従来手法の顔検出機による 従来手法の顔検出器による

----

Deep Learning Javaプログラミング 深層学習の理論と実装 (impress top gear)

Deep Learning Javaプログラミング 深層学習の理論と実装 (impress top gear)

Chainerによる実践深層学習

Chainerによる実践深層学習