深層学習教科書 ディープラーニング E資格(エンジニア)精選問題集 電子書籍|翔泳社の本
  1. ホーム >
  2. 電子書籍 >
  3. 深層学習教科書 ディープラーニング E資格(エンジニア)精選問題集

深層学習教科書 ディープラーニング E資格(エンジニア)精選問題集

監修


形式:
電子書籍
発売日:
ISBN:
9784798180663
価格:
6,600(本体6,000円+税10%)
カテゴリ:
ベンダー資格
キーワード:
#IT関連資格,#情報処理技術者試験,#開発環境,#システム運用
レーベル:
EXAMPRESS
シリーズ:
深層学習教科書
電子書籍

「E2024#2」試験から適用される新シラバスに完全対応!

〈本書の特長〉
●受講生の高い試験合格率を誇る講師陣の合格メソッドに基づいた、精選問題集。
●E2024#2以降の試験に対応した、唯一の問題集!
●良質な重要問題282問と解説を収録。
 ⇒出題範囲が広いE資格の中で優先して押さえるべき重要な論点をマスターできる。
●出題範囲を幅広くカバーした「総合問題」1回分をダウンロード提供。
 ⇒学習を終えた後に、復習や力だめしができる。
●読者特典として、本書の内容に完全対応した「AI読者アシスタント」付き!
 ⇒難解な用語や問題・解説に関する質問に、瞬時に回答してくれる!

〈監修〉
●岩澤有祐(いわさわ・ゆうすけ)
東京大学大学院工学系研究科准教授。2017年東京大学大学院工学系研究科技術経営戦略学専攻博士後期課程修了。博士(工学)、修士(情報理工学)。『深層学習』(KADOKAWA)共訳。

〈著者〉
●小林範久(こばやし・のりひさ)
株式会社Present Square 最高技術責任者(CTO)。
早稲田大学大学院修了。AI技術を活用したシステムサービスの開発やAI導入のコンサルティングに従事。東京大学松尾・岩澤研究室輪読会会員。
●小林寛幸(こばやし・ひろゆき)
株式会社Present Square 創業者/最高経営責任者(CEO)。
慶應義塾大学大学院修了。経営、事業企画及びAIを含む教育・コンサルティングに従事。社外取締役、非常勤講師等を歴任。東京大学AI経営寄付講座修了(2022)。

〈編者〉
●株式会社Present Square
日本ディープラーニング協会(JDLA)より認定を受けたエンジニア育成講座『DeepSquare』(認定No.00016)、AI動画像解析『Smart Counter-スマカチ-』等のサービスを提供。E資格、G検定、Generative AI Test等の専門資格を保有するコンサルタント及びエンジニアが、初学者から実務者向けの講義、PoC、サービス開発を支援。

<目次>
第1章:数学的基礎
第2章:機械学習
第3章:深層学習の基礎
第4章:深層学習の応用
第5章:開発・運用環境
Web提供:総合問題

※本電子書籍は同名出版物を底本として作成しました。記載内容は印刷出版当時のものです。
※印刷出版再現のため電子書籍としては不要な情報を含んでいる場合があります。
※印刷出版とは異なる表記・表現の場合があります。予めご了承ください。
※プレビューにてお手持ちの電子端末での表示状態をご確認の上、商品をお買い求めください。

(翔泳社)

01
02
目次の登録はありません。

付属データはこちら

会員特典はこちら

お問い合わせ

内容についてのお問い合わせは、正誤表、追加情報をご確認後に、お送りいただくようお願いいたします。

正誤表、追加情報に掲載されていない書籍内容へのお問い合わせや
その他書籍に関するお問い合わせは、書籍のお問い合わせフォームからお送りください。

利用許諾に関するお問い合わせ

本書の書影(表紙画像)をご利用になりたい場合は書影許諾申請フォームから申請をお願いいたします。
書影(表紙画像)以外のご利用については、こちらからお問い合わせください。

  • よくある質問

    ①第3章大問2小問2の解答はDではなくBではないか?
    ご指摘の通り、正しい解答は以下のとおり、Bとなります。
    本書の誤りによりご迷惑をおかけし、誠に申し訳ございません。
    -----------------------------------------
    p.84:第3章大問2小問2正答
    <誤>
    正答:D. 多クラス分類は、訓練データのラベルをone-hotベクトルで表す。また、出力層にソフトマックス関数を用いて、クロスエントロピー誤差を最小化する。

    <正>
    正答:B. 多クラス分類は、訓練データのラベルを0または1の整数値で表す。また、出力層にシグモイド関数を用いて、バイナリクロスエントロピー誤差を最小化する。

    p.86(上から3行目)
    <誤>
    よって、正解はD.となります。

    <正>
    よって、正解はB.となります。
    -----------------------------------------

    ②第3章大問2小問2の解答が「B.」である理由について
    小問2の問題は、「最も不適切な選択肢」を選ぶ設問です。Bは、ラベルの表現、出力層の活性化関数、誤差関数のすべてが不適切です。

     A.出力層の活性化関数、誤差関数が一般的ではありません。技術的には可能です。
     B.ラベルの表現、出力層の活性化関数、誤差関数のすべてが不適切です。技術的にも不適切です。
     C.ラベルの表現が一般的ではありません。技術的には可能です。
     D.ラベルの表現、出力層の活性化関数、誤差関数のすべてが適切です。
この商品の「よくある質問」はありません。

ご購入いただいた書籍の種類を選択してください。

書籍の刷数を選択してください。

刷数は奥付(書籍の最終ページ)に記載されています。

現在表示されている正誤表の対象書籍

書籍の種類:

書籍の刷数:

本書に誤りまたは不十分な記述がありました。下記のとおり訂正し、お詫び申し上げます。

対象の書籍は正誤表がありません。

最終更新日:2025年02月21日
発生刷 ページ数 書籍改訂刷 電子書籍訂正 内容 登録日
1刷 007
「●ベイズ則を用いた計算方法」上から4-5行目の数式
2刷
4行目右側の数式および5行目の数式に誤り(詳細は画像を参照)
4行目右側の数式および5行目の数式を訂正(詳細は画像を参照)
2024.12.03
1刷 007
「●ベイズ則を用いた計算方法」上から9行目の数式
2刷
数式内の数字のうち、0.8の箇所が誤り(詳細は画像を参照)
数式内の数字のうち、0.8が0.5となるのが正しい(詳細は画像を参照)
2024.12.03
1刷 025
第2章大問1小問3の上から2-3行目
2刷
xとyのコサイン距離
xとyのコサイン類似度
2024.12.03
1刷 038
小問3「ここがポイント」2行目
2刷
…二つのベクトルの類似度を示し、…
…二つのベクトルの類似度を基に定義され、…
2024.12.03
1刷 038
「●コサイン距離」解説2行目
2刷
…内積を二つのベクトルのL2ノルムで割った距離、すなわち…(数式が続く)
…内積を二つのベクトルのL2ノルムで割った値…(数式が続く)
2024.12.03
1刷 038
「●コサイン距離」解説3行目
2刷
(数式)…で与えられる距離をコサイン距離またはコサイン類似度といい、…
(数式)…はコサイン類似度といい、…
2024.12.03
1刷 038
「●マハラノビス距離」解説の上から3-6行目
2刷
ユークリッド距離を分散共分散行列で割ることで分布の広がりを考慮に入れています。下図において、点aと点bの中心からのユークリッド距離は等しいですが、点aの方がマハラノビス距離が大きいです。マハラノビス距離の代表的な利用例に異常検知の分野があり、マハラノビス距離が閾値を超えたものは異常とみなされます。
この距離は、分散共分散行列を用いることで、ユークリッド距離では考慮されないデータの分布の広がりや方向性を反映しています。マハラノビス距離の代表的な利用例に異常検知が挙げられます。この手法では、マハラノビス距離が設定した閾値を超えたデータ点を異常とみなします。
2024.12.03
1刷 038
小問3 A.~D.の解説(共通)
2刷
コサイン距離
コサイン類似度(添付の画像を参照)
2024.12.03
1刷 040
下から1-4行目
A. : 不適切です。教師あり学習における回帰タスクは連続値を予測するタスクであり、分類タスクは離散値を予測するタスクです。 B. : 適切です。教師あり学習における回帰タスクは連続値を予測するタスクであり、分類タスクは離散値を予測するタスクです。
A. : 不適切です。「ロジスティック回帰」は分類(離散ラベルの予測)に利用する手法であり、連続値を予測する回帰タスクでは通常使われません。 B. : 適切です。分類タスクの説明も、分類タスクにおける代表的なアルゴリズムの説明もともに適切です。

正答が「B.」であることに変更はありません。
2025.02.20
1刷 043
大問3解説小問1の「A.」解説の上から2-4行目
訓練誤差は増加しますが、過剰適合の可能性が低くなるため、汎化誤差はそれほど大きくなりません。
過小適合や過剰適合の可能性が高くなるため、汎化誤差と訓練誤差の差は縮小しにくい傾向になります。
2024.12.26
1刷 044
「●汎化誤差」数式1行目
2刷
1行目の右の数式のうち、2つ目の項(詳細は画像を参照)
1行目の右の数式のうち、2つ目の項を削除(詳細は画像を参照)
2024.11.15
1刷 067
大問1小問1選択肢A.~D.の(い)
2刷
2つ目のwの添え字が「2 1」(詳細は画像を参照)
2つ目のwの添え字が「3 2」(詳細は画像を参照)
2024.11.15
1刷 072
B.ReLUグラフの縦軸の数字 (C. Leaky ReLUグラフの縦軸の数字も同様)
2刷
6 4 2 0 -2 -4 -6
6 5 4 3 2 1 0
2024.11.15
1刷 080
小問1正答B.の(い)
2刷
2つ目のwの添え字が「2 1」(詳細は画像を参照)
2つ目のwの添え字が「3 2」(詳細は画像を参照)
2024.12.10
1刷 084
小問2正答(上から3行目)
2刷
正答:D.  多クラス分類は、訓練データのラベルをone-hotベクトルで表す。また、出力層にソフトマックス関数を用いて、クロスエントロピー誤差を最小化する。
正答:B. 多クラス分類は、訓練データのラベルを0または1の整数値で表す。また、出力層にシグモイド関数を用いて、バイナリクロスエントロピー誤差を最小化する。
2024.11.01
1刷 085
大問②小問2「C.」の解説
適切です。2 値分類では、訓練データのラベルをone-hot ベクトルではなく、0 または1 の整数値で表します。
適切です。2値分類では、出力層にシグモイド関数を用いて、バイナリクロスエントロピー誤差を最小化します。訓練データのラベルは、one-hotベクトルでも、0または1の整数値で表すことも可能です。
2025.02.20
1刷 085
第3章大問2小問2解説「A.」の上から2行目
…また、2値分類でも損失関数にソフトマックス関数、…
…また、2値分類でも出力層の活性化関数にソフトマックス関数、…
2025.01.08
1刷 086
上から3行目
2刷
よって、正解はD.となります。
よって、正解はB.となります。
2024.11.01
1刷 089
B.ReLUグラフの縦軸の数字
6 4 2 0 -2 -4 -6
6 5 4 3 2 1 0
2025.02.19
1刷 094
上から3行目
2刷
数の式:…
関数の式:…
2024.12.03
1刷 117
下から7-8行目
異常に大きくなる
異常に小さくなる
2025.02.20
1刷 165
HINT 上から4-5行目
~へ畳み込みを行わないため、これらを…
~へ畳み込みを行います。これらを…
2025.02.18
1刷 166
「⚫️転置畳み込み」解説の上から3行目
DGGAN
DCGAN
2025.02.19
1刷 254
「コード3-大問37-3:Normalization(TensorFlow)」内の上から7行目および上から14行目
2刷
tf.keras.layers.(い)(), #(C,H,W)
(い) # チャネル C ごとに(H, W) を正規化
2024.12.03
1刷 256
小問3の上から2行目
2刷
…(い)に入るNormalization 層の最も適切な選択肢を…
…(い)で行われる処理として最も適切な選択肢を…
2024.12.03
1刷 267
「●GaussianFilter(ノイズ付与)」の見出し名および1行目
●GaussianFilter(ノイズ付与) GaussianFilter(ノイズ付与)は、…
●GaussianNoise(ノイズ付与) GaussianNoise(ノイズ付与)は…
2025.02.20
1刷 313
大問③・④小問2の正答
D. WideResNetの方がResNetよりも、ResBlockのin_channelsが大きくなる。
[TensorFlow] D. WideResNetの方がResNetよりも、ResBlockのin_channelsが大きくなる。 [PyTorch] D. WideResNetの特徴は、ネットワークを深くしても、計算時間を大幅に削減することができるようになったことである。

大問④小問2(PyTorch問題)の選択肢反映漏れ
2025.02.20
1刷 314
小問2「C.」・「D.」の解説
C. : 適切です。WideResNetは、ResNetと同等のパラメータ数でより少ない層数でも、より優れた性能を示していることが記されています。 D. : 不適切です。WideResNetの主な特徴は、ネットワークを「広く」する(Residual Block 内の畳み込みに対してチャネル数を増やす)ことで性能を向上させることです。これをコード化するとout_channelsがResNetよりも大きくなるのが正しい記述であり、in_channelsが大きくなるという記述は誤りです。in_channelsは入力データに依存するため、ResNetとWideResNetの違いにおいて重要なのは、各層のフィルタ数(out_channels)の増加です。
C. : [TensorFlow] 適切です。WideResNetは、ResNetと同等のパラメータ数でより少ない層数でも、より優れた性能を示していることが記されています。 [PyTorch] 適切です。Zagoruykoらの論文では、WideResNetを浅めの層数(例えば16層程度)に抑えつつも、 従来の非常に深いResNet(1000層など)より良好な精度を達成できることが報告されています。 ネットワークを「深く」するのではなく「広く」する(Residual Block内部のチャネル数を増やす)ことで、少ない層数でも高い性能を実現しているのが特徴です。 D. : [TensorFlow] 不適切です。WideResNetの主な特徴は、ネットワークを「広く」する(Residual Block内の畳み込みに対してチャネル数を増やす)ことで性能を向上させることです。これをコード化するとout_channelsがResNetよりも大きくなるのが正しい記述であり、in_channelsが大きくなるという記述は誤りです。in_channelsは入力データに依存するため、ResNetとWideResNetの違いにおいて重要なのは、各層のフィルタ数(out_channels)の増加です。 [PyTorch] 不適切です。WideResNetの主な狙いは、ネットワークを「広く」することで表現能力を高める点にあります。

大問④小問2(PyTorch問題)の解説漏れ
2025.02.20
1刷 323
上から13行目(指示関数の数式)
1{ cx, y>0}
I{ cx, y>0}

「1」ではなく「I」
2025.02.21
1刷 323
下から1行目
Faster R-CNN
Fast R-CNN
2024.12.26
1刷 458
[TensorFlow]解説の上から9-10行目
畳み込み層の出力サイズが[1, 1, 512] であるため、Flatten層を適用すると、サイズが512になります。
畳み込み層の出力サイズが[14, 14, 512] であるため、Flatten層を適用すると、サイズが25088になります。一方でこのサイズをこのまま利用すると、パラメータ数が膨大になり、計算負荷が大きくなりがちです。転移学習の実装例としては、Flatten後のベクトルをより小さな次元数のDense層に通して特徴を圧縮し、その後に最終出力層(10)をつける形が一般的です。従って、パラメータ数を減らす選択肢として、512が適切となります。
2025.02.20