单选题

关于深度学习的说法中,下面说法正确的是()

A. 用Sigmoid激活函数时,如果权重初始化较大或较小时,容易出现梯度饱和梯度消失,可选用Tanh函数改进
B. 批规范化(batch normalization)是在不引入新参数的情况下保证每一层网络的输入具有相同的分布
C. 与Sigmoid函数相比,Relu较不容易使网络产生梯度消失
D. 梯度下降法实现简单,当目标函数是凸函数时,可基于二阶收敛快速到达目标值

查看答案
该试题由用户224****11提供 查看答案人数:17648 如遇到问题请联系客服
正确答案
该试题由用户224****11提供 查看答案人数:17649 如遇到问题请联系客服
购买搜题卡会员须知|联系客服
会员须知|联系客服
关注公众号,回复验证码
享30次免费查看答案
微信扫码关注 立即领取
恭喜获得奖励,快去免费查看答案吧~
去查看答案
全站题库适用,可用于聚题库网站及系列App

    只用于搜题看答案,不支持试卷、题库练习 ,下载APP还可体验拍照搜题和语音搜索

    支付方式

     

     

     
    首次登录享
    免费查看答案20
    登录成功
    首次登录已为您完成账号注册,
    可在【个人中心】修改密码或在登录时选择忘记密码
    账号登录默认密码:手机号后六位