人気の記事一覧

れるちおめでとおおおおおおお!!!

1か月前

れるち(Relu)の曲いいぞ! つらい人は泣いちゃうと思われる

3か月前

【機械学習】主要な活性化関数をまとめてみた

多層パーセプトロンと活性化関数

1年前

GELUとは?GPTが採用する活性化の仕組み

機械学習の関数たち〜sigmoid, tanh, softmaxとか〜

🧠学習の為、非常に単純な1次元4層位のニューラルネットをモデル化できますか?

再生

中学数学からはじめるディープラーニングの準備12(ReLU)

Sigmoid関数とRelu関数の実装