深層学習教科書 ディープラーニング E資格(エンジニア)精選問題集(岩澤 有祐 小林 範久 小林 寛幸)|翔泳社の本
  1. ホーム >
  2. 書籍 >
  3. 深層学習教科書 ディープラーニング E資格(エンジニア)精選問題集

深層学習教科書 ディープラーニング E資格(エンジニア)精選問題集

監修


形式:
書籍
発売日:
ISBN:
9784798180656
定価:
6,600(本体6,000円+税10%)
仕様:
A5・544ページ
カテゴリ:
ベンダー資格
キーワード:
#IT関連資格,#情報処理技術者試験,#開発環境,#システム運用
レーベル:
EXAMPRESS
シリーズ:
深層学習教科書
紙の書籍

「E2024#2」試験から適用される新シラバスに完全対応!

〈本書の特長〉
●受講生の高い試験合格率を誇る講師陣の合格メソッドに基づいた、精選問題集。
●E2024#2以降の試験に対応した、唯一の問題集!
●良質な重要問題282問と解説を収録。
 ⇒出題範囲が広いE資格の中で優先して押さえるべき重要な論点をマスターできる。
●出題範囲を幅広くカバーした「総合問題」1回分をダウンロード提供。
 ⇒学習を終えた後に、復習や力だめしができる。
●読者特典として、本書の内容に完全対応した「AI読者アシスタント」付き!
 ⇒難解な用語や問題・解説に関する質問に、瞬時に回答してくれる!

〈監修〉
●岩澤有祐(いわさわ・ゆうすけ)
東京大学大学院工学系研究科准教授。2017年東京大学大学院工学系研究科技術経営戦略学専攻博士後期課程修了。博士(工学)、修士(情報理工学)。『深層学習』(KADOKAWA)共訳。

〈著者〉
●小林範久(こばやし・のりひさ)
株式会社Present Square 最高技術責任者(CTO)。
早稲田大学大学院修了。AI技術を活用したシステムサービスの開発やAI導入のコンサルティングに従事。東京大学松尾・岩澤研究室輪読会会員。
●小林寛幸(こばやし・ひろゆき)
株式会社Present Square 創業者/最高経営責任者(CEO)。
慶應義塾大学大学院修了。経営、事業企画及びAIを含む教育・コンサルティングに従事。社外取締役、非常勤講師等を歴任。東京大学AI経営寄付講座修了(2022)。

〈編者〉
●株式会社Present Square
日本ディープラーニング協会(JDLA)より認定を受けたエンジニア育成講座『DeepSquare』(認定No.00016)、AI動画像解析『Smart Counter-スマカチ-』等のサービスを提供。E資格、G検定、Generative AI Test等の専門資格を保有するコンサルタント及びエンジニアが、初学者から実務者向けの講義、PoC、サービス開発を支援。

<目次>
第1章:数学的基礎
第2章:機械学習
第3章:深層学習の基礎
第4章:深層学習の応用
第5章:開発・運用環境
Web提供:総合問題

01
02

第1章:数学的基礎
 ・確率・統計
 ・情報理論

第2章:機械学習
 ・機械学習の基礎

第3章:深層学習の基礎
 ・順伝播型ネットワーク
 ・深層モデルのための最適化
 ・深層モデルのための正則化
 ・畳み込みニューラルネットワーク
 ・リカレントニューラルネットワーク
 ・Transformer
 ・汎化性能向上のためのテクニック

第4章:深層学習の応用
 ・画像認識
 ・物体検出
 ・セマンティックセグメンテーション
 ・自然言語処理
 ・生成モデル
 ・深層強化学習
 ・様々な学習方法
 ・深層学習の説明性

第5章:開発・運用環境
 ・エッジコンピューティング
 ・分散処理
 ・アクセラレータ
 ・環境構築

Web提供:第6章 総合問題

付属データはこちら

会員特典はこちら

お問い合わせ

内容についてのお問い合わせは、正誤表、追加情報をご確認後に、お送りいただくようお願いいたします。

正誤表、追加情報に掲載されていない書籍内容へのお問い合わせや
その他書籍に関するお問い合わせは、書籍のお問い合わせフォームからお送りください。

利用許諾に関するお問い合わせ

本書の書影(表紙画像)をご利用になりたい場合は書影許諾申請フォームから申請をお願いいたします。
書影(表紙画像)以外のご利用については、こちらからお問い合わせください。

  • よくある質問

    ①第3章大問2小問2の解答はDではなくBではないか?
    ご指摘の通り、正しい解答は以下のとおり、Bとなります。
    本書の誤りによりご迷惑をおかけし、誠に申し訳ございません。
    -----------------------------------------
    p.84:第3章大問2小問2正答
    <誤>
    正答:D. 多クラス分類は、訓練データのラベルをone-hotベクトルで表す。また、出力層にソフトマックス関数を用いて、クロスエントロピー誤差を最小化する。

    <正>
    正答:B. 多クラス分類は、訓練データのラベルを0または1の整数値で表す。また、出力層にシグモイド関数を用いて、バイナリクロスエントロピー誤差を最小化する。

    p.86(上から3行目)
    <誤>
    よって、正解はD.となります。

    <正>
    よって、正解はB.となります。
    -----------------------------------------

    ②第3章大問2小問2の解答が「B.」である理由について
    小問2の問題は、「最も不適切な選択肢」を選ぶ設問です。Bは、ラベルの表現、出力層の活性化関数、誤差関数のすべてが不適切です。

     A.出力層の活性化関数、誤差関数が一般的ではありません。技術的には可能です。
     B.ラベルの表現、出力層の活性化関数、誤差関数のすべてが不適切です。技術的にも不適切です。
     C.ラベルの表現が一般的ではありません。技術的には可能です。
     D.ラベルの表現、出力層の活性化関数、誤差関数のすべてが適切です。
この商品の「よくある質問」はありません。

現在表示されている正誤表の対象書籍

書籍の種類:紙書籍

書籍の刷数:全刷


※重版をした際に、内容が修正されている場合があります。「刷数の確認方法(例)」の図を参考に、お手元の書籍の刷数をご確認ください。下の「書籍の刷数」の欄で刷数を選択すると、お持ちの書籍の刷数に合わせて、正誤情報を絞り込むことができます。

書籍によっては表記が異なる場合がございます


本書に誤りまたは不十分な記述がありました。下記のとおり訂正し、お詫び申し上げます。

対象の書籍は正誤表がありません。

 書籍の刷数で正誤情報を絞り込みたい場合は選択してください。

 書籍の種類:

最終更新日:2025年05月28日
ページ数 内容 書籍修正刷 電子書籍訂正 発生刷 登録日
007
「ベイズ則を用いた計算方法」1つ目の数式

4行目右側の数式および5行目の数式に誤り

4行目右側の数式および5行目の数式を訂正
2刷 1刷 2024.12.03
007
「ベイズ則を用いた計算方法」2つ目の数式

数式内の数字のうち、0.8の箇所が誤り

数式内の数字のうち、0.8が0.5となるのが正しい
2刷 1刷 2024.12.03
025
小問3の上から2.3行目
xとyのコサイン距離
xとyのコサイン類似度
2刷 1刷 2024.12.03
038
「ここがポイント」2行目
…二つのベクトルの類似度を示し、…
…二つのベクトルの類似度を基に定義され、…
2刷 1刷 2024.12.03
038
「コサイン距離」2行目
…内積を二つのベクトルのL2ノルムで割った距離、すなわち…(数式が続く)
…内積を二つのベクトルのL2ノルムで割った値…(数式が続く)
2刷 1刷 2024.12.03
038
「コサイン距離」3行目
(数式)…で与えられる距離をコサイン距離またはコサイン類似度といい、…
(数式)…はコサイン類似度といい、…
2刷 1刷 2024.12.03
038
「マハラノビス距離」上から3-6行目
ユークリッド距離を分散共分散行列で割ることで分布の広がりを考慮に入れています。 下図において、点aと点bの中心からのユークリッド距離は等しいですが、点aの方がマハラノビス距離が大きいです。 マハラノビス距離の代表的な利用例に異常検知の分野があり、マハラノビス距離が閾値を超えたものは異常とみなされます。
この距離は、分散共分散行列を用いることで、ユークリッド距離では考慮されないデータの分布の広がりや方向性を反映しています。 マハラノビス距離の代表的な利用例に異常検知が挙げられます。 この手法では、マハラノビス距離が設定した閾値を超えたデータ点を異常とみなします。
2刷 1刷 2024.12.03
038
A~Dの解説
コサイン距離

コサイン類似度に修正
2刷 1刷 2024.12.03
040
下から1-4行目
A. : 不適切です。 教師あり学習における回帰タスクは連続値を予測するタスクであり、分類タスクは離散値を予測するタスクです。 B. : 適切です。 教師あり学習における回帰タスクは連続値を予測するタスクであり、分類タスクは離散値を予測するタスクです。
A. : 不適切です。 「ロジスティック回帰」は分類(離散ラベルの予測)に利用する手法であり、連続値を予測する回帰タスクでは通常使われません。 B. : 適切です。 分類タスクの説明も、分類タスクにおける代表的なアルゴリズムの説明もともに適切です。

正答が「B.」であることに変更はありません。
1刷 2025.02.20
043
「A」の上から2-4行目
訓練誤差は増加しますが、過剰適合の可能性が低くなるため、汎化誤差はそれほど大きくなりません。
過小適合や過剰適合の可能性が高くなるため、汎化誤差と訓練誤差の差は縮小しにくい傾向になります。
1刷 2024.12.26
044
「汎化誤差」数式1行目

1行目の右の数式のうち、2つ目の項

1行目の右の数式のうち、2つ目の項を削除
2刷 1刷 2024.11.15
067
大問1小問1選択肢A.~D.の(い)

2つ目のwの添え字が「2 1 1」

2つ目のwの添え字が「3 1 2」
2刷 1刷 2024.11.15
072
Bの縦軸の数字
6 4 2 0 -2 -4 -6
6 5 4 3 2 1 0

同様に以下も修正します。
72ページ:グラフ「C」の縦軸の数字
89ページ:正答のグラフの縦軸の数字
2刷 1刷 2024.11.15
074
上から4行目
~を選べ。
~を選べ。なお、教師データtは整数ベクトルで与えられているとする。

前提条件の追加
1刷 2025.02.25
074
選択肢「D」
[-1, 1]
(-1, 1)
1刷 2025.03.06
077
「コード3-大問5-3:Tanh」内、下から4-5行目
self.out = np.tanh(x) return self.out
self.out = np.tanh(x) self.tanh_out = self.out return self.out

間に「self.tanh_out = self.out」を挿入
1刷 2025.05.28
080
小問1正答B.の(い)

2つ目のwの添え字が「2 1 1」

2つ目のwの添え字が「3 1 2」
2刷 1刷 2024.12.10
084
小問2正答
正答:D.  多クラス分類は、訓練データのラベルをone-hotベクトルで表す。 また、出力層にソフトマックス関数を用いて、クロスエントロピー誤差を最小化する。
正答:B. 多クラス分類は、訓練データのラベルを0または1の整数値で表す。 また、出力層にシグモイド関数を用いて、バイナリクロスエントロピー誤差を最小化する。
2刷 1刷 2024.11.01
085
「C」の解説
適切です。 2値分類では、訓練データのラベルをone-hot ベクトルではなく、0または1の整数値で表します。
適切です。 2値分類では、出力層にシグモイド関数を用いて、バイナリクロスエントロピー誤差を最小化します。 訓練データのラベルは、one-hotベクトルでも、0または1の整数値で表すことも可能です。
1刷 2025.02.20
085
「A」の2行目
…また、2値分類でも損失関数にソフトマックス関数、…
…また、2値分類でも出力層の活性化関数にソフトマックス関数、…
1刷 2025.01.08
086
上から3行目
よって、正解はD.となります。
よって、正解はB.となります。
2刷 1刷 2024.11.01
094
上から3行目
数の式:…
関数の式:…
2刷 1刷 2024.12.03
096
正答2行目
[-1, 1]
(-1, 1)

下から2行目、選択肢「D」の解説も同様に修正。
1刷 2025.03.06
117
下から7-8行目
異常に大きくなる
異常に小さくなる
1刷 2025.02.20
165
HINT 4-5行目
~へ畳み込みを行わないため、これらを…
~へ畳み込みを行います。これらを…
1刷 2025.02.18
166
「転置畳み込み」上から3行目
DGGAN
DCGAN
1刷 2025.02.19
219
小問3の選択肢「D.」
D. Self-Attention 機構とSource Target Attention 機構はクエリ・キー・バリューの入力元が異なるだけで、それぞれの構造に違いはない。
D. Self-Attention 機構とSource Target Attention 機構はクエリ・キー・バリューの入力元が異なるだけで、それぞれの構造で行われる処理に違いは全くない。

C.だけでなくD.も適切な選択肢となってしまっているため、不適切な選択肢となるようD.の文言を変更
1刷 2025.02.27
227
大問31小問1の選択肢C.
C. q, k.transpose(-1, -2)
C. v, q.transpose(-2, -1)

従来のCの選択肢では正答になってしまうため、誤りの選択肢に変更
1刷 2025.05.28
229
上から4-5行目
複数のAttention 機構を用いてアンサンブル学習のようにすることで、より高い表現力を実現しています。
複数のAttention 機構を用いて、並列的に異なる特徴を抽出することで、より高い表現力を実現しています。

Multi-Head Attention機構は厳密にはアンサンブル機構とは異なり、誤解を生みやすい表現であるため修正
1刷 2025.03.14
231
「D」の解説
不適切です。 Self‒Attention 機構とSource Target Attention 機構はクエリ・キー・バリューの入力元は異なりますが、それぞれの基本的な構造に違いはありません。
不適切です。 Self‒Attention 機構とSource Target Attention 機構は、クエリ、キー、バリューのそれぞれの基本的な構造に違いはありませんが、Self‒Attention 機構には、未来の情報に対してマスク処理が行われます。
1刷 2025.02.27
235
下から4-6行目
問題で問われている(あ)のtf.transpose 関数は、テンソルの指定された二つの軸を交換することができます。この場合、tf.transpose(k, [0, 2, 3, 1]) は、k テンソルの最後から2 番目の次元と最後の次元を交換したものを返します。
問題で問われている(あ)のtf.transpose関数は、テンソルの軸を指定した順序で並び替えることができます。例えば、tf.transpose(k, [0, 2, 3, 1]) は、元の軸の並びである[0, 1, 2, 3]を、[0, 2, 3, 1]の順番に再配置します。
1刷 2025.05.28
254
「コード3-大問37-3」の7行目
tf.keras.layers.(い)(), #(C,H,W)
(い) # チャネル C ごとに(H, W) を正規化

同様に14行目も修正します。
2刷 1刷 2024.12.03
256
小問3の上から2行目
…(い)に入るNormalization 層の最も適切な選択肢を…
…(い)で行われる処理として最も適切な選択肢を…
2刷 1刷 2024.12.03
267
「GaussianFilter(ノイズ付与)」の見出し
GaussianFilter(ノイズ付与)
GaussianNoise(ノイズ付与)

同様に上から1行目も修正します。
1刷 2025.02.20
302
下から4-5行目
不適切です。 WideResNet はResNet よりも深い層を持つモデルに対する精度が上がるわけではありません。
不適切です。 WideResNetは、ResNetをさらに深くするのではなく、各層のチャネル数(幅)を広げることで精度を高めたモデルです。
1刷 2025.03.06
313
小問2の正答
D. WideResNetの方がResNetよりも、ResBlockのin_channelsが大きくなる。
[TensorFlow] D. WideResNetの方がResNetよりも、ResBlockのin_channelsが大きくなる。 [PyTorch] D. WideResNetの特徴は、ネットワークを深くしても、計算時間を大幅に削減することができるようになったことである。

大問④小問2(PyTorch問題)の選択肢反映漏れ
1刷 2025.02.20
314
「C」「D」の解説
C. : 適切です。 WideResNetは、ResNetと同等のパラメータ数でより少ない層数でも、より優れた性能を示していることが記されています。 D. : 不適切です。 WideResNetの主な特徴は、ネットワークを「広く」する(Residual Block 内の畳み込みに対してチャネル数を増やす)ことで性能を向上させることです。これをコード化するとout_channelsがResNetよりも大きくなるのが正しい記述であり、in_channelsが大きくなるという記述は誤りです。 in_channelsは入力データに依存するため、ResNetとWideResNetの違いにおいて重要なのは、各層のフィルタ数(out_channels)の増加です。
C. : [TensorFlow] 適切です。 WideResNetは、ResNetと同等のパラメータ数でより少ない層数でも、より優れた性能を示していることが記されています。 [PyTorch] 適切です。 Zagoruykoらの論文では、WideResNetを浅めの層数(例えば16層程度)に抑えつつも、 従来の非常に深いResNet(1000層など)より良好な精度を達成できることが報告されています。 ネットワークを「深く」するのではなく「広く」する(Residual Block内部のチャネル数を増やす)ことで、少ない層数でも高い性能を実現しているのが特徴です。 D. : [TensorFlow] 不適切です。 WideResNetの主な特徴は、ネットワークを「広く」する(Residual Block内の畳み込みに対してチャネル数を増やす)ことで性能を向上させることです。 これをコード化するとout_channelsがResNetよりも大きくなるのが正しい記述であり、in_channelsが大きくなるという記述は誤りです。 in_channelsは入力データに依存するため、ResNetとWideResNetの違いにおいて重要なのは、各層のフィルタ数(out_channels)の増加です。 [PyTorch] 不適切です。 WideResNetの主な狙いは、ネットワークを「広く」することで表現能力を高める点にあります。

大問④小問2(PyTorch問題)の解説漏れ
1刷 2025.02.20
321
小問3問題文の1行目
Llic (x,l,g)
Lloc (x,l,g)
1刷 2025.02.27
321
「A」「B」の(あ)の数式の右辺

同様に338ページの「小問3」の正答も修正します。
1刷 2025.03.14
323
小問4解説 下から2行目
1{ cx, y>0}
I{ cx, y>0}

「1」ではなく「I」
1刷 2025.02.21
323
下から1行目
Faster R-CNN
Fast R-CNN
1刷 2024.12.26
385
小問3問題文 6行目
…また、第一項はELBO…
…また、第二項はELBO…
1刷 2025.03.14
402
「VAEの目的関数と変分下限」3行目
右辺の第2項
右辺の第1項
1刷 2025.03.14
404
上から3行目
第2項を最小化
第2項を最大化
1刷 2025.03.14
408
下から3-4行目
yをxに変換する生成器G
xをyに変換する生成器G
1刷 2025.03.14
419
大問23小問1選択肢A.~D.の(あ)
Δ

※デルタではなく、ナブラ
※p.420小問3の上から6行目の数式、p.420同小問3の(い)IIの数式内も同様
1刷 2025.05.28
427
小問2正答:D.の(あ)
Δ

※デルタではなく、ナブラに修正
※p.427下から2行目の数式、p.428上から1行目の数式、p.429上から1行目の数式、p.429下から5行目の数式のデルタも同様
1刷 2025.05.28
458
[TensorFlow] (あ)の解説
畳み込み層の出力サイズが[1, 1, 512] であるため、Flatten層を適用すると、サイズが512になります。
畳み込み層の出力サイズが[14, 14, 512] であるため、Flatten層を適用すると、サイズが25088になります。 一方でこのサイズをこのまま利用すると、パラメータ数が膨大になり、計算負荷が大きくなりがちです。 転移学習の実装例としては、Flatten後のベクトルをより小さな次元数のDense層に通して特徴を圧縮し、その後に最終出力層(10)をつける形が一般的です。 従って、パラメータ数を減らす選択肢として、512が適切となります。
1刷 2025.02.20
459
上から8行目
(あ)の部分を考えると、features部分の…
(あ)の部分を考えると、classifier部分の…
1刷 2025.05.28
DL-155
大問54・68小問1正答(総合問題第6章)
A. (あ)y_pred(い)y_true
[TensorFlow]B.(あ)y_true(い)y_pred [PyTorch]A. (あ)y_pred(い)y_true
1刷 2025.03.14
DL-155
上から7-9行目
TensorFlow のロス関数は、一般に最初の引数として予測値、次に実際の値を取ります。 選択肢A の‘y_pred’、’y_true’は、’loss_fn’に予測値‘y_pred’と実際の値‘y_true’を正しい順序で渡しています。
TensorFlow のロス関数は、一般に最初の引数として実際の値、次に予測値を取ります。 選択肢Bの‘y_true’、’y_pred’は、’loss_fn’に予測値‘y_true’と実際の値‘y_pred’を正しい順序で渡しています。
1刷 2025.03.14