発生刷 |
ページ数 |
書籍改訂刷 |
電子書籍訂正 |
内容 |
登録日 |
1刷 |
042
リスト3.5
inの下から2行目のコメント |
3刷 |
済 |
|
2022.12.05 |
1刷 |
073
上から1-2行目 |
2刷 |
済 |
誤 |
そして、中間色はこれらの中間の値の表します。 |
正 |
そして、中間色はこれらの中間の値を表します。 |
備
考 |
※リフローEPUBの場合、「3-3-6 画像の表示」の「Out」の図の下にある段落が該当箇所になります。 |
|
2022.02.02 |
1刷 |
096
リスト4.2 in 上から2行目と下から3行目(ライブラリのバージョンアップによる修正) |
未 |
未 |
誤 |
・・・
from keras.utils import np_utils
・・・
t = np_utils.to_categorical(iris.target) |
正 |
・・・
import tensorflow as tf
・・・
t = tf.keras.utils.to_categorical(iris.target) |
備
考 |
※リフローEPUBの場合は「下から3行目」ではなく「下から2行目」になります。 |
|
2023.10.11 |
1刷 |
110
リスト4.10 in 上から5行目、下から空行ふくめて4行目(ライブラリのバージョンアップによる修正) |
未 |
未 |
誤 |
…
from keras.utils import np_utils
…
t = np_utils.to_categorical(iris.target) |
正 |
…
import tensorflow as tf
…
t = tf.keras.utils.to_categorical(iris.target) |
備
考 |
※リフローEPUBの場合、「下から空行ふくめて4行目」ではなく「下から空行ふくめて3行目」になります。 |
|
2023.10.13 |
1刷 |
160
式5.10.6の下の文章、式5.10.7の左辺分母の記載 |
3刷 |
済 |
誤 |
・式5.10.6の下の文章
これは、損失関数である二乗和誤差を出力xkで偏微分することにより求めることができます。
・式5.10.7の左辺分母の記載
|
正 |
・式5.10.6の下の文章
これは、損失関数である二乗和誤差を出力ykで偏微分することにより求めることができます。
・式5.10.7の左辺分母の記載
|
|
2022.04.28 |
1刷 |
297
リスト8.14の結果(Out)のグラフ(右上の凡例も変更) |
2刷 |
済 |
誤 |
(画像クリックで拡大) |
正 |
(画像クリックで拡大) |
|
2022.03.24 |
1刷 |
298
リスト8.15の結果(Out)のグラフ(右上の凡例も変更) |
2刷 |
済 |
誤 |
(画像クリックで拡大) |
正 |
(画像クリックで拡大) |
|
2022.02.02 |
1刷 |
364
リスト10.2 (ライブラリのバージョンアップによる修正) |
未 |
未 |
誤 |
from tensorflow.keras.optimizers import Adam
optimizer = Adam(0.0002, 0.5)
|
正 |
from tensorflow.keras.optimizers.legacy import Adam
from tensorflow.keras.utils import disable_interactive_logging
disable_interactive_logging()
optimizer = Adam(0.0002, 0.5) |
|
2023.11.24 |
1刷 |
412
リスト11.8 (ライブラリのバージョンアップによる修正) |
未 |
未 |
誤 |
!apt install swig cmake libopenmpi-dev zlib1g-dev
!pip install stable-baselines==2.5.1 box2d box2d-kengz pyvirtualdisplay
!apt-get install -y xvfb python-opengl ffmpeg
!pip install tensorflow==1.14 |
正 |
!pip install setuptools==65.5.1 wheel==0.38.4 -U
!apt-get update
!apt install swig cmake libopenmpi-dev zlib1g-dev
!pip install stable-baselines3==1.6.0 box2d box2d-kengz pyvirtualdisplay
!apt-get install -y xvfb freeglut3-dev ffmpeg
!pip install PyOpenGL PyOpenGL_accelerate
!pip install pyglet==1.5.27
!pip uninstall box2d-py
!pip install box2d-py |
|
2023.11.28 |
1刷 |
413
リスト11.9(ライブラリのバージョンアップによる修正) |
未 |
未 |
誤 |
import os
import io
import glob
import base64
import gym
from gym.wrappers import Monitor
import numpy as np
from stable_baselines.deepq.policies import MlpPolicy # 2層のニューラルネットワーク
from stable_baselines.common.vec_env import DummyVecEnv # ベクトル化環境
from stable_baselines import DQN
from stable_baselines.common.vec_env import VecVideoRecorder
from IPython import display as ipythondisplay
from IPython.display import HTML
import warnings
warnings.filterwarnings("ignore") |
正 |
import os
import io
import glob
import base64
import gym
import numpy as np
from stable_baselines3.common.vec_env import DummyVecEnv # ベクトル化環境
from stable_baselines3 import DQN
from stable_baselines3.common.vec_env import VecVideoRecorder
from IPython import display as ipythondisplay
from IPython.display import HTML
import warnings
warnings.filterwarnings("ignore") |
|
2023.11.28 |
1刷 |
415,416
リスト11.13 (MlpPolicyを"MlpPolicy"に修正) |
未 |
未 |
誤 |
env = VecVideoRecorder(env_vec, video_folder="videos_before_train/", # 動画記録の設定
record_video_trigger=lambda step: step == 0, video_length=500,
name_prefix="")
model = DQN(MlpPolicy, env, verbose=0) # DQNの設定
ave_reward, n_episode = evaluate(env, model, n_step=10000, n_ave=100) # モデルの評価
print("ave_reward:", ave_reward, "n_episode:", n_episode) |
正 |
env = VecVideoRecorder(env_vec, video_folder="videos_before_train/", # 動画記録の設定
record_video_trigger=lambda step: step == 0, video_length=500,
name_prefix="")
model = DQN("MlpPolicy", env, verbose=0) # DQNの設定
ave_reward, n_episode = evaluate(env, model, n_step=10000, n_ave=100) # モデルの評価
print("ave_reward:", ave_reward, "n_episode:", n_episode) |
|
2023.11.28 |
1刷 |
417
リスト11.15(MlpPolicyを"MlpPolicy"に修正) |
未 |
未 |
誤 |
trained_model = DQN(MlpPolicy, env_vec, verbose=0) # モデルの初期化
trained_model.learn(total_timesteps=100000) # モデルの訓練
trained_model.save("lunar_lander_control") # モデルの保存 |
正 |
trained_model = DQN("MlpPolicy", env_vec, verbose=0) # モデルの初期化
trained_model.learn(total_timesteps=100000) # モデルの訓練
trained_model.save("lunar_lander_control") # モデルの保存 |
|
2023.11.28 |