DDIJ这个人很懒,什么都没有留下~ 1 文章 0 评论 0 粉丝 关注私信 文章 评论 问答 关注 收藏 深入理解ReLU(Rectified Linear Unit) 一、概述 ReLU(Rectified Linear Unit)是神经网络中一种常用的非线性激活函数。相比于传统的sigmoid函数和tanh函数,ReLU具有许多优势。 二、特点… DDIJ 编程 2024-10-04 点击查看更多