エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
ここにツイート内容が記載されます https://b.hatena.ne.jp/URLはspanで囲んでください
Twitterで共有ONにすると、次回以降このダイアログを飛ばしてTwitterに遷移します
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
E資格に出題される活性化関数について、それぞれの関数の特徴についてまとめてみました。 ステップ関数 ... E資格に出題される活性化関数について、それぞれの関数の特徴についてまとめてみました。 ステップ関数 ステップ関数は、入力値が0以上の場合は1、入力値が0未満の場合は0を出力する関数です。 この関数は、ニューラルネットワークが登場する前のパーセプトロンで採用されていた活性化関数ですが、現在の誤差逆伝播を行うネットワークにおいては後述のReLU関数に取って代わられています。 シグモイド関数 シグモイド関数は、入力値に対して0.0~1.0の値を出力する関数です。 ニューラルネットワークの活性化関数として用いられる場合は、厳密には「標準シグモイド関数」であり、本来のシグモイド関数はオイラー数eの指数に係数であるαが着きます。ニューラルネットワークの活性化関数として登場する場合、この係数αは1として定義され、記載が省略されます。 関数の微分値の最大値は0.25です。 勾配消失問題 シグモイド関数を採