DDIJ這個人很懶,什麼都沒有留下~ 1 文章 0 評論 0 粉絲 關注私信 文章 評論 問答 關注 收藏 深入理解ReLU(Rectified Linear Unit) 一、概述 ReLU(Rectified Linear Unit)是神經網絡中一種常用的非線性激活函數。相比於傳統的sigmoid函數和tanh函數,ReLU具有許多優勢。 二、特點… DDIJ 編程 2024-10-04 點擊查看更多