最近の機械学習について知ろうと思い, 「実践 機械学習システム」(Willi Richert著, 他)を少し前に購入し, 読んでみた.
目 次
2章 実例の対象とした分類法入門
3章 クラスタリング:関連のある文書を見つける
4章 トピックモデル
5章 クラス分類:悪い回答を判別する
6章 クラス分類II:感情分析
7章 回帰:レコメンド
8章 回帰:レコメンドの改良
9章 クラス分類III:音楽ジャンル分類
10章 コンピュータビジョン:パターン認識
11章 次元削減
12章 ビッグデータ
いろいろなテーマを取り上げ, 機械学習について,
・どのようにやるかを知ることができる.
・なぜそのようにやるかを知ることができる.
・Pythonのサンプルコードがあり, 試しながら読むことができる.
という点では, なかなか良い感じ.
ただ, 初版ということもあり誤字・脱字が多く, 書籍の品質という面ではイマイチ.
以下に, 初版第4刷の正誤表を気付いた範囲で載せておく.
p.146 22-23行目結果は5.6になり、先ほどの値(4.6)より結果は5.9になり、先ほどの値(4.7)より
p.12 図1-1 データ2行目 |
[本] 2 nan |
[File] 2 1656] |
p.12 >>> print(data,[:10]) 出力2行目 |
[本] [ 2.00000000e+00 nan] |
[実行結果] [ 2.00000000e+00 1.65600000e+03] |
p.13 >>> sp.sum(sp.isnan(y)) | [本] 8 | [実行結果] 0 |
p.46 3.1.1から12行目 | 編集距離は5と | 編集距離は6と |
p.47 表3-1 | now | how |
p.96 5.4 最終行 | k近傍方 | k近傍法 |
p.126 下から4行目 | もしあるツイートにに | もしあるツイートに |
p.128 6.4.3から2行目 | それついては時間を | それについては時間を |
p.128 6.4.3から18行目 | スムージングについてを検証するため | スムージングについて検証するため |
p.129 下から9行目 | metric.accuracy | metrics.accuracy |
p.145 7.1.1のコード5行目 | x = np.array([np.concatename(v, [1]) for v in boston.dat]) | x = np.array([np.concatename*1 for v in boston.dat]) |
p.146 8行目 | 結果は前と同じ4.6に | 結果は前と同じ4.7に |
p.146 12行目 | from sklearn.cross_validation import Kfold | from sklearn.cross_validation import KFold |
p.146 22-23行目 | 結果は5.6になり、先ほどの値(4.6)より | 結果は5.9になり、先ほどの値(4.7)より |
p.148 8行目 | 訓練誤差は5.0(前は4.6)に | 訓練誤差は5.0(前は4.7)に |
p.148 9行目 | 誤差は5.4(前は5.6)に減少しました。 | 誤差は5.5(前は5.9)に減少しました。 |
p.152 11行目 | 場合がよくありあますが | 場合がよくありますが |
p.180 9.4.3から6行目 | 私たちはは6つの | 私たちは6つの |
p.183 下から4行目 | 6つのグラフになます | 6つのグラルになります |
p.189 9.6から3行目と5行目 | MFC | MFCC |
p.203 中段の説明 | 分類のことをパターン認識(pattern recognition)と呼ばれるようになりました | 分類のことをパターン認識(pattern recognition)と呼ぶようになりました |
p.209 14行目 | 始めて論文で提案されたの2004年です | 初めて論文で提案されたのは2004年です |
p.224 11.3から3行目 | ラッパー法と混合しない | ラッパー法と混同しない |
p.246 5行目 p.248 8行目, 9行目, 13行目 |
インスタン | インスタンス |
注) 記載してあるデータとダウンロードしたデータとに一部齟齬があり, 他にも実行結果の数値が異なる場合があるかも...
----
|
|
|
ディープラーニング、ビッグデータ、機械学習 あるいはその心理学
|
*1:v, [1]