見て試してわかる機械学習アルゴリズムの仕組み 機械学習図鑑(秋庭 伸也 杉山 阿聖 寺田 学 加藤 公一)|翔泳社の本
  1. ホーム >
  2. 書籍 >
  3. 見て試してわかる機械学習アルゴリズムの仕組み 機械学習図鑑

見て試してわかる機械学習アルゴリズムの仕組み 機械学習図鑑




監修

形式:
書籍
発売日:
ISBN:
9784798155654
定価:
2,948(本体2,680円+税10%)
仕様:
B5変・208ページ
分類:
人工知能・機械学習

本書籍の他の形式を確認する

  • このエントリーをはてなブックマークに追加

機械学習アルゴリズムの違いが見てわかる!

「機械学習アルゴリズムは種類が多く、複雑で何をしているのかわかりにくい」と思ったこと、ありませんか?本書は、そのような機械学習アルゴリズムをオールカラーの図を用いて解説した機械学習の入門書です。
いままで複雑でわかりにくかった機械学習アルゴリズムを図解し、わかりやすく解説しています。アルゴリズムごとに項目を立てているので、どのアルゴリズムがどのような仕組みで動いているのか比較をしやすくしています。
これから機械学習を勉強する方だけでなく、実際に機械学習を業務で使用している方にも新しい気付きを得られるのでお勧めの1冊です。

【本書の特徴】
・複雑な機械学習アルゴリズムの仕組みを1冊で学べる
・オールカラーの図をたくさん掲載
・各アルゴリズム毎にScikit-Learnを使用したコードを記載しているので、見るだけでなく試すこともできる
・仕組みだけでなく、実際の使い方や注意点もわかる

【本書で紹介するアルゴリズム】
01 線形回帰
02 正則化
03 ロジスティック回帰
04 サポートベクトルマシン
05 サポートベクトルマシン(カーネル法)
06 ナイーブベイズ
07 ランダムフォレスト
08 ニューラルネットワーク
09 kNN
10 PCA
11 LSA
12 NMF
13 LDA
14 k-means
15 混合ガウス
16 LLE
17 t-SNE


複雑な機械学習アルゴリズムの仕組みを1冊で学べる!

複雑な機械学習アルゴリズムの仕組みを1冊で学べる!

機械学習の勉強を始めたばかりの方は、慣れない数式や統計の用語に苦労することがあるのではないでしょうか。そんなとき、1つの図が理解を助け、頭の中で機械学習のイメージができるようになることがあります。本書は、機械学習を専門としていない方々が理解しやすいように、なるべく少ない数式で図を中心に解説を行なっています。

図はすべてフルカラー!

図はすべてフルカラー!

各アルゴリズム毎にScikit-Learnを使用したコードを記載!見るだけでなく試すこともできる!

各アルゴリズム毎にScikit-Learnを使用したコードを記載!見るだけでなく試すこともできる!

仕組みだけでなく、実際の使い方や注意点もわかる!

仕組みだけでなく、実際の使い方や注意点もわかる!

第1章 機械学習の基礎
 1.1 機械学習の概要
 1.2 機械学習に必要なステップ

第2章 教師あり学習
 01 線形回帰
 02 正則化
 03 ロジスティック回帰
 04 サポートベクトルマシン
 05 サポートベクトルマシン(カーネル法)
 06 ナイーブベイズ
 07 ランダムフォレスト
 08 ニューラルネットワーク
 09 kNN

第3章 教師なし学習
 10 PCA
 11 LSA
 12 NMF
 13 LDA
 14 k-means法
 15 混合ガウス分布
 16 LLE
 17 t-SNE

第4章 評価方法および各種データの扱い
 4.1 評価方法
 4.2 文書データの変換処理
 4.3 画像データの変換処理

第5章 環境構築
 5.1 Python3 のインストール
 5.2 仮想環境
 5.3 パッケージインストール

付属データはこちら

会員特典はこちら

書籍への問い合わせ

正誤表、追加情報をご確認の上、こちらよりお問い合わせください

書影の利用許諾について

本書籍に関する利用許諾申請はこちらになります

追加情報はありません。

ご購入いただいた書籍の種類を選択してください。

書籍の刷数を選択してください。

刷数は奥付(書籍の最終ページ)に記載されています。

現在表示されている正誤表の対象書籍

書籍の種類:

書籍の刷数:

本書に誤りまたは不十分な記述がありました。下記のとおり訂正し、お詫び申し上げます。

対象の書籍は正誤表がありません。

最終更新日:2022年04月15日
発生刷 ページ数 書籍改訂刷 電子書籍訂正 内容 登録日
1刷 018
「実装方法」2つ目のサンプルコードの下にある段落 2行目
3刷
 学習前モデルmodel のfit_predictメソッドに特徴量データを代入して、学習を行うと同時に予測も行っています。学習を行うと同時に予測も行なっています。予測結果は変数predに代入しています。
 学習前モデルmodel のfit_predictメソッドに特徴量データを代入して、学習を行うと同時に予測も行っています。予測結果は変数predに代入しています。

文章が重複していたため、該当箇所を削除しました。
2020.02.21
1刷 039
表2.1.2のi列の値
4刷
2020.02.28
1刷 043
下から8行目(数式含む)
4刷
表2のデータを代入すると
表2.1.2のデータを代入すると
2020.02.28
1刷 053
本文、下から5行目
2の学習パラメータが0になっています。
1の学習パラメータが0になっています。
2022.04.15
1刷 058
本文 上から3~6行目
4刷
 決定境界の形は用いるアルゴリズムにより大きく異なります。平面の場合、ロジスティック回帰の決定境界は直線になります。他のアルゴリズム、例えばkNNやニューラルネットワークでは決定境界はより複雑な形になります。詳細はそれぞれのアルゴリズムの節で説明します。また、他のアルゴリズム、例えばkNNやニューラルネットワークなどでは決定境界はより複雑な形になります。詳細はそれぞれのアルゴリズムので説明します。
 決定境界の形は用いるアルゴリズムにより大きく異なります。平面の場合、ロジスティック回帰の決定境界は直線になります。他のアルゴリズム、例えばkNNやニューラルネットワークでは決定境界はより複雑な形になります。詳細はそれぞれのアルゴリズムので説明します。

文章が重複していたため、該当箇所を削除し、「章」を「節」に修正しました。
2020.01.07
1刷 073
表2.6.1 「学習データ」欄1行目
3刷
あの名作映画が甦る
あの感動名作映画が甦る
2019.06.27
1刷 073
表2.6.2 左側の項目名
2刷
テストデータ
検証データ
2019.06.13
1刷 074
図2.6.2の下の本文 1行目
2刷
カテゴリが「映画」のデータ中に現れる
カテゴリが「映画」のデータ中に、
2019.06.13
1刷 075
表2.6.3 「学習データ」欄の最下行
4刷
{"VR", "探査", "再開"}
{"VR", "火星", "砂嵐", "感動"}

2021/12/28に更新しました。
2020.03.25
1刷 075
表2.6.3「学習データ」欄 1行目
3刷
{"名作", "映画"}
{"感動","名作", "映画"}
2019.06.27
1刷 076
表2.6.4 最下行、「砂嵐」と「探査」の数字
4刷


2020.03.25
1刷 076
表2.6.4の1行目
3刷
2020.02.21
1刷 076
表2.6.5とその下の本文 1行目
2刷

(画像クリックで拡大)

(画像クリックで拡大)
2019.06.13
1刷 078
サンプルコード
4刷

(画像クリックで拡大)

(画像クリックで拡大)
2022.02.25
1刷 079
コードの3行目
2刷
model.predict([[0, 1, 0, 1, 0, 1, 0, 0, 0, 0, 0]]) #評価
model.predict([[1, 0, 0, 1, 0, 1, 0, 0, 0, 0, 0]]) #評価
2019.06.13
1刷 083
図2.7.3
2刷

(画像クリックで拡大)

(画像クリックで拡大)
2019.06.13
1刷 089
下から1~3行目
4刷
図2.8.6のようなデータは正しく分類することができません。単純パーセプトロンでも同様に、次のような線形分離可能でないデータは正しく分類することができません。
図2.8.6のような線形分離可能でないデータは正しく分類することができません。

内容が重複していた部分を削除、調整しました。
2020.10.22
1刷 092
「詳細」上から1行目
4刷
中間層のノードの数を増やといった方法で、
中間層のノードの数を増やといった方法で、
2021.05.31
1刷 092
「サンプルコード」の続き 2行目
4刷
model = model = MLPClassifier(hidden_layer_sizes(16, ))
model = MLPClassifier(hidden_layer_sizes=(16, ))
2021.06.23
1刷 115
サンプルコード 下から4行目
2刷
W = model.transform(X) # 分解後の行列
W = model.transform(V) # 分解後の行列
2019.06.13
1刷 140
「近傍点の数」3行目 
4刷
の結果です。では、近傍点の数を5、50にした場合の結果です。近傍点の数が5のときは
の結果です。近傍点の数が5のときは

上から3行目の「では、近傍点の数を5、50にした場合の結果です。」を削除します。
2021.06.03
1刷 148
表4.1.1 「分類問題」の1行目
4刷
行列(Mixing matrix)
行列 (Confusion matrix)
2020.04.28
1刷 176
1つ目の「サンプルコード」下から3行目
2刷
model.fit(X_train_counts twenty_train.target)
model.fit(X_train_counts, twenty_train.target)

正しくは「、」ではなく「,」(カンマ)です。
2019.06.13
1刷 179
コードの最終行
2刷
print(metrics.model_report(expected, predicted))
print(metrics.classification_report(expected, predicted))
2019.06.13
1刷 193
索引「M」の3行目
3刷
MNIST

上記項目を削除しました。
2020.02.21

感想・レビュー

Taizo さん

2020-04-18

ゆるふわな本かと思ってたけど、すごく幅広い範囲をカバーしてる。アルゴリズム入門だったらとりあえずこれを読んでおけばいいと思う。よくもまあこれだけの分量でこんなに分かりやすく説明できるもんだという感じ。図鑑の名に恥じずビジュアルで直感的に理解できる。pythonコードを叩きながらとりあえず試せるところもいい。環境構築から、学習の精度評価まで実用的な泥臭い部分もカバーしていて好感が持てる。

ぴよぴよ さん

2019-09-25

比較的に判りやすく、入門書としては良いのかと思いました。ですが、この本一冊だけで全てを完全に理解することはできず、一部のアルゴリズムについては、ネットで少し調べて理解したりもしました。

Kazuki さん

2020-02-29

図解もあってわかりやすいかも。それぞれの機械学習アルゴリズムに対して、その概要とアルゴリズムについて説明されている。また、はじめの機械学習に必要なステップに関してはとても役にたつと思うので繰り返し参照したい。