ページ数 |
内容 |
書籍修正刷 |
電子書籍訂正 |
発生刷 |
登録日 |
007
「ベイズ則を用いた計算方法」1つ目の数式 |
誤 |

4行目右側の数式および5行目の数式に誤り |
正 |

4行目右側の数式および5行目の数式を訂正 |
|
2刷 |
済 |
1刷 |
2024.12.03 |
007
「ベイズ則を用いた計算方法」2つ目の数式 |
誤 |

数式内の数字のうち、0.8の箇所が誤り |
正 |

数式内の数字のうち、0.8が0.5となるのが正しい |
|
2刷 |
済 |
1刷 |
2024.12.03 |
025
小問3の上から2.3行目 |
誤 |
xとyのコサイン距離 |
正 |
xとyのコサイン類似度 |
|
2刷 |
済 |
1刷 |
2024.12.03 |
038
「ここがポイント」2行目 |
誤 |
…二つのベクトルの類似度を示し、… |
正 |
…二つのベクトルの類似度を基に定義され、… |
|
2刷 |
済 |
1刷 |
2024.12.03 |
038
「コサイン距離」2行目 |
誤 |
…内積を二つのベクトルのL2ノルムで割った距離、すなわち…(数式が続く) |
正 |
…内積を二つのベクトルのL2ノルムで割った値…(数式が続く) |
|
2刷 |
済 |
1刷 |
2024.12.03 |
038
「コサイン距離」3行目 |
誤 |
(数式)…で与えられる距離をコサイン距離またはコサイン類似度といい、… |
正 |
(数式)…はコサイン類似度といい、… |
|
2刷 |
済 |
1刷 |
2024.12.03 |
038
「マハラノビス距離」上から3-6行目 |
誤 |
ユークリッド距離を分散共分散行列で割ることで分布の広がりを考慮に入れています。
下図において、点aと点bの中心からのユークリッド距離は等しいですが、点aの方がマハラノビス距離が大きいです。
マハラノビス距離の代表的な利用例に異常検知の分野があり、マハラノビス距離が閾値を超えたものは異常とみなされます。 |
正 |
この距離は、分散共分散行列を用いることで、ユークリッド距離では考慮されないデータの分布の広がりや方向性を反映しています。
マハラノビス距離の代表的な利用例に異常検知が挙げられます。
この手法では、マハラノビス距離が設定した閾値を超えたデータ点を異常とみなします。 |
|
2刷 |
済 |
1刷 |
2024.12.03 |
038
A~Dの解説 |
誤 |
コサイン距離 |
正 |

コサイン類似度に修正 |
|
2刷 |
済 |
1刷 |
2024.12.03 |
040
下から1-4行目 |
誤 |
A. : 不適切です。
教師あり学習における回帰タスクは連続値を予測するタスクであり、分類タスクは離散値を予測するタスクです。
B. : 適切です。
教師あり学習における回帰タスクは連続値を予測するタスクであり、分類タスクは離散値を予測するタスクです。 |
正 |
A. : 不適切です。
「ロジスティック回帰」は分類(離散ラベルの予測)に利用する手法であり、連続値を予測する回帰タスクでは通常使われません。
B. : 適切です。
分類タスクの説明も、分類タスクにおける代表的なアルゴリズムの説明もともに適切です。 |
備
考 |
正答が「B.」であることに変更はありません。 |
|
未 |
未 |
1刷 |
2025.02.20 |
043
「A」の上から2-4行目 |
誤 |
訓練誤差は増加しますが、過剰適合の可能性が低くなるため、汎化誤差はそれほど大きくなりません。 |
正 |
過小適合や過剰適合の可能性が高くなるため、汎化誤差と訓練誤差の差は縮小しにくい傾向になります。 |
|
未 |
未 |
1刷 |
2024.12.26 |
044
「汎化誤差」数式1行目 |
誤 |

1行目の右の数式のうち、2つ目の項 |
正 |

1行目の右の数式のうち、2つ目の項を削除 |
|
2刷 |
済 |
1刷 |
2024.11.15 |
067
大問1小問1選択肢A.~D.の(い) |
誤 |

2つ目のwの添え字が「2 1 1」 |
正 |

2つ目のwの添え字が「3 1 2」 |
|
2刷 |
済 |
1刷 |
2024.11.15 |
072
Bの縦軸の数字 |
誤 |
6
4
2
0
-2
-4
-6 |
正 |
6
5
4
3
2
1
0 |
備
考 |
同様に以下も修正します。
72ページ:グラフ「C」の縦軸の数字
89ページ:正答のグラフの縦軸の数字 |
|
2刷 |
済 |
1刷 |
2024.11.15 |
074
上から4行目 |
誤 |
~を選べ。 |
正 |
~を選べ。なお、教師データtは整数ベクトルで与えられているとする。 |
備
考 |
前提条件の追加 |
|
未 |
未 |
1刷 |
2025.02.25 |
074
選択肢「D」 |
|
未 |
未 |
1刷 |
2025.03.06 |
077
「コード3-大問5-3:Tanh」内、下から4-5行目 |
誤 |
self.out = np.tanh(x)
return self.out |
正 |
self.out = np.tanh(x)
self.tanh_out = self.out
return self.out |
備
考 |
間に「self.tanh_out = self.out」を挿入 |
|
未 |
未 |
1刷 |
2025.05.28 |
080
小問1正答B.の(い) |
誤 |

2つ目のwの添え字が「2 1 1」
|
正 |

2つ目のwの添え字が「3 1 2」 |
|
2刷 |
済 |
1刷 |
2024.12.10 |
084
小問2正答 |
誤 |
正答:D.
多クラス分類は、訓練データのラベルをone-hotベクトルで表す。
また、出力層にソフトマックス関数を用いて、クロスエントロピー誤差を最小化する。 |
正 |
正答:B.
多クラス分類は、訓練データのラベルを0または1の整数値で表す。
また、出力層にシグモイド関数を用いて、バイナリクロスエントロピー誤差を最小化する。 |
|
2刷 |
済 |
1刷 |
2024.11.01 |
085
「C」の解説 |
誤 |
適切です。
2値分類では、訓練データのラベルをone-hot ベクトルではなく、0または1の整数値で表します。 |
正 |
適切です。
2値分類では、出力層にシグモイド関数を用いて、バイナリクロスエントロピー誤差を最小化します。
訓練データのラベルは、one-hotベクトルでも、0または1の整数値で表すことも可能です。 |
|
未 |
未 |
1刷 |
2025.02.20 |
085
「A」の2行目 |
誤 |
…また、2値分類でも損失関数にソフトマックス関数、… |
正 |
…また、2値分類でも出力層の活性化関数にソフトマックス関数、… |
|
未 |
未 |
1刷 |
2025.01.08 |
086
上から3行目 |
誤 |
よって、正解はD.となります。 |
正 |
よって、正解はB.となります。 |
|
2刷 |
済 |
1刷 |
2024.11.01 |
094
上から3行目 |
|
2刷 |
済 |
1刷 |
2024.12.03 |
096
正答2行目 |
誤 |
[-1, 1] |
正 |
(-1, 1) |
備
考 |
下から2行目、選択肢「D」の解説も同様に修正。 |
|
未 |
未 |
1刷 |
2025.03.06 |
117
下から7-8行目 |
|
未 |
未 |
1刷 |
2025.02.20 |
165
HINT 4-5行目 |
誤 |
~へ畳み込みを行わないため、これらを… |
正 |
~へ畳み込みを行います。これらを… |
|
未 |
未 |
1刷 |
2025.02.18 |
166
「転置畳み込み」上から3行目 |
|
未 |
未 |
1刷 |
2025.02.19 |
219
小問3の選択肢「D.」 |
誤 |
D. Self-Attention 機構とSource Target Attention 機構はクエリ・キー・バリューの入力元が異なるだけで、それぞれの構造に違いはない。 |
正 |
D. Self-Attention 機構とSource Target Attention 機構はクエリ・キー・バリューの入力元が異なるだけで、それぞれの構造で行われる処理に違いは全くない。 |
備
考 |
C.だけでなくD.も適切な選択肢となってしまっているため、不適切な選択肢となるようD.の文言を変更 |
|
未 |
未 |
1刷 |
2025.02.27 |
227
大問31小問1の選択肢C. |
誤 |
C. q, k.transpose(-1, -2) |
正 |
C. v, q.transpose(-2, -1) |
備
考 |
従来のCの選択肢では正答になってしまうため、誤りの選択肢に変更 |
|
未 |
未 |
1刷 |
2025.05.28 |
229
上から4-5行目 |
誤 |
複数のAttention 機構を用いてアンサンブル学習のようにすることで、より高い表現力を実現しています。 |
正 |
複数のAttention 機構を用いて、並列的に異なる特徴を抽出することで、より高い表現力を実現しています。 |
備
考 |
Multi-Head Attention機構は厳密にはアンサンブル機構とは異なり、誤解を生みやすい表現であるため修正 |
|
未 |
未 |
1刷 |
2025.03.14 |
231
「D」の解説 |
誤 |
不適切です。
Self‒Attention 機構とSource Target Attention 機構はクエリ・キー・バリューの入力元は異なりますが、それぞれの基本的な構造に違いはありません。 |
正 |
不適切です。
Self‒Attention 機構とSource Target Attention 機構は、クエリ、キー、バリューのそれぞれの基本的な構造に違いはありませんが、Self‒Attention 機構には、未来の情報に対してマスク処理が行われます。 |
|
未 |
未 |
1刷 |
2025.02.27 |
235
下から4-6行目 |
誤 |
問題で問われている(あ)のtf.transpose 関数は、テンソルの指定された二つの軸を交換することができます。この場合、tf.transpose(k, [0, 2, 3, 1]) は、k テンソルの最後から2 番目の次元と最後の次元を交換したものを返します。 |
正 |
問題で問われている(あ)のtf.transpose関数は、テンソルの軸を指定した順序で並び替えることができます。例えば、tf.transpose(k, [0, 2, 3, 1]) は、元の軸の並びである[0, 1, 2, 3]を、[0, 2, 3, 1]の順番に再配置します。 |
|
未 |
未 |
1刷 |
2025.05.28 |
254
「コード3-大問37-3」の7行目 |
誤 |
tf.keras.layers.(い)(), #(C,H,W) |
正 |
(い) # チャネル C ごとに(H, W) を正規化 |
備
考 |
同様に14行目も修正します。 |
|
2刷 |
済 |
1刷 |
2024.12.03 |
256
小問3の上から2行目 |
誤 |
…(い)に入るNormalization 層の最も適切な選択肢を… |
正 |
…(い)で行われる処理として最も適切な選択肢を… |
|
2刷 |
済 |
1刷 |
2024.12.03 |
267
「GaussianFilter(ノイズ付与)」の見出し |
誤 |
GaussianFilter(ノイズ付与) |
正 |
GaussianNoise(ノイズ付与)
|
備
考 |
同様に上から1行目も修正します。 |
|
未 |
未 |
1刷 |
2025.02.20 |
302
下から4-5行目 |
誤 |
不適切です。
WideResNet はResNet よりも深い層を持つモデルに対する精度が上がるわけではありません。 |
正 |
不適切です。
WideResNetは、ResNetをさらに深くするのではなく、各層のチャネル数(幅)を広げることで精度を高めたモデルです。 |
|
未 |
未 |
1刷 |
2025.03.06 |
313
小問2の正答 |
誤 |
D. WideResNetの方がResNetよりも、ResBlockのin_channelsが大きくなる。 |
正 |
[TensorFlow] D. WideResNetの方がResNetよりも、ResBlockのin_channelsが大きくなる。
[PyTorch] D. WideResNetの特徴は、ネットワークを深くしても、計算時間を大幅に削減することができるようになったことである。 |
備
考 |
大問④小問2(PyTorch問題)の選択肢反映漏れ |
|
未 |
未 |
1刷 |
2025.02.20 |
314
「C」「D」の解説 |
誤 |
C. : 適切です。
WideResNetは、ResNetと同等のパラメータ数でより少ない層数でも、より優れた性能を示していることが記されています。
D. : 不適切です。
WideResNetの主な特徴は、ネットワークを「広く」する(Residual Block 内の畳み込みに対してチャネル数を増やす)ことで性能を向上させることです。これをコード化するとout_channelsがResNetよりも大きくなるのが正しい記述であり、in_channelsが大きくなるという記述は誤りです。
in_channelsは入力データに依存するため、ResNetとWideResNetの違いにおいて重要なのは、各層のフィルタ数(out_channels)の増加です。 |
正 |
C. :
[TensorFlow] 適切です。
WideResNetは、ResNetと同等のパラメータ数でより少ない層数でも、より優れた性能を示していることが記されています。
[PyTorch] 適切です。
Zagoruykoらの論文では、WideResNetを浅めの層数(例えば16層程度)に抑えつつも、 従来の非常に深いResNet(1000層など)より良好な精度を達成できることが報告されています。
ネットワークを「深く」するのではなく「広く」する(Residual Block内部のチャネル数を増やす)ことで、少ない層数でも高い性能を実現しているのが特徴です。
D. :
[TensorFlow] 不適切です。
WideResNetの主な特徴は、ネットワークを「広く」する(Residual Block内の畳み込みに対してチャネル数を増やす)ことで性能を向上させることです。
これをコード化するとout_channelsがResNetよりも大きくなるのが正しい記述であり、in_channelsが大きくなるという記述は誤りです。
in_channelsは入力データに依存するため、ResNetとWideResNetの違いにおいて重要なのは、各層のフィルタ数(out_channels)の増加です。
[PyTorch] 不適切です。
WideResNetの主な狙いは、ネットワークを「広く」することで表現能力を高める点にあります。 |
備
考 |
大問④小問2(PyTorch問題)の解説漏れ |
|
未 |
未 |
1刷 |
2025.02.20 |
321
小問3問題文の1行目 |
誤 |
Llic (x,l,g) |
正 |
Lloc (x,l,g) |
|
未 |
未 |
1刷 |
2025.02.27 |
321
「A」「B」の(あ)の数式の右辺 |
誤 |
 |
正 |
 |
備
考 |
同様に338ページの「小問3」の正答も修正します。 |
|
未 |
未 |
1刷 |
2025.03.14 |
323
小問4解説 下から2行目 |
誤 |
1{ cx, y>0} |
正 |
I{ cx, y>0} |
備
考 |
「1」ではなく「I」 |
|
未 |
未 |
1刷 |
2025.02.21 |
323
下から1行目 |
誤 |
Faster R-CNN |
正 |
Fast R-CNN |
|
未 |
未 |
1刷 |
2024.12.26 |
385
小問3問題文 6行目 |
誤 |
…また、第一項はELBO… |
正 |
…また、第二項はELBO… |
|
未 |
未 |
1刷 |
2025.03.14 |
402
「VAEの目的関数と変分下限」3行目 |
|
未 |
未 |
1刷 |
2025.03.14 |
404
上から3行目 |
|
未 |
未 |
1刷 |
2025.03.14 |
408
下から3-4行目 |
誤 |
yをxに変換する生成器G |
正 |
xをyに変換する生成器G |
|
未 |
未 |
1刷 |
2025.03.14 |
419
大問23小問1選択肢A.~D.の(あ) |
誤 |
Δ |
正 |
∇ |
備
考 |
※デルタではなく、ナブラ
※p.420小問3の上から6行目の数式、p.420同小問3の(い)IIの数式内も同様 |
|
未 |
未 |
1刷 |
2025.05.28 |
427
小問2正答:D.の(あ) |
誤 |
Δ |
正 |
∇ |
備
考 |
※デルタではなく、ナブラに修正
※p.427下から2行目の数式、p.428上から1行目の数式、p.429上から1行目の数式、p.429下から5行目の数式のデルタも同様 |
|
未 |
未 |
1刷 |
2025.05.28 |
458
[TensorFlow] (あ)の解説 |
誤 |
畳み込み層の出力サイズが[1, 1, 512] であるため、Flatten層を適用すると、サイズが512になります。 |
正 |
畳み込み層の出力サイズが[14, 14, 512] であるため、Flatten層を適用すると、サイズが25088になります。
一方でこのサイズをこのまま利用すると、パラメータ数が膨大になり、計算負荷が大きくなりがちです。
転移学習の実装例としては、Flatten後のベクトルをより小さな次元数のDense層に通して特徴を圧縮し、その後に最終出力層(10)をつける形が一般的です。
従って、パラメータ数を減らす選択肢として、512が適切となります。 |
|
未 |
未 |
1刷 |
2025.02.20 |
459
上から8行目 |
誤 |
(あ)の部分を考えると、features部分の… |
正 |
(あ)の部分を考えると、classifier部分の… |
|
未 |
未 |
1刷 |
2025.05.28 |
DL-155
大問54・68小問1正答(総合問題第6章) |
誤 |
A. (あ)y_pred(い)y_true |
正 |
[TensorFlow]B.(あ)y_true(い)y_pred
[PyTorch]A. (あ)y_pred(い)y_true |
|
未 |
未 |
1刷 |
2025.03.14 |
DL-155
上から7-9行目 |
誤 |
TensorFlow のロス関数は、一般に最初の引数として予測値、次に実際の値を取ります。
選択肢A の‘y_pred’、’y_true’は、’loss_fn’に予測値‘y_pred’と実際の値‘y_true’を正しい順序で渡しています。 |
正 |
TensorFlow のロス関数は、一般に最初の引数として実際の値、次に予測値を取ります。
選択肢Bの‘y_true’、’y_pred’は、’loss_fn’に予測値‘y_true’と実際の値‘y_pred’を正しい順序で渡しています。 |
|
未 |
未 |
1刷 |
2025.03.14 |