登录/
注册
下载APP
帮助中心
首页
考试
APP
当前位置:
首页
>
查试题
>
计算机
>
计算机二级
>
对于信息增益,决策树分裂节点,下面说法正确的是()1.纯度高的节点需要更多的信息去区分2.信息增益可以用”1比特-熵”获得3.如果选择一个属性具有许多归类值,那么这个信息增益是有偏差的
单选题
对于信息增益,决策树分裂节点,下面说法正确的是()1.纯度高的节点需要更多的信息去区分2.信息增益可以用”1比特-熵”获得3.如果选择一个属性具有许多归类值,那么这个信息增益是有偏差的
A. 1
B. 2
C. 2和3
D. 所有以上
查看答案
该试题由用户609****34提供
查看答案人数:49822
如遇到问题请
联系客服
正确答案
该试题由用户609****34提供
查看答案人数:49823
如遇到问题请
联系客服
搜索
热门试题
下列关于决策树算法的论述错误的是: ID3算法的属性选择度量就是使用信息增益,选择最小信息增益的属性作为当前节点的测试属性。 决策树基本思想是贪心算法,它以自顶(根节点)向下递推生成的方式构造决策树。 条件熵H(Y|X)表示在已知特征X的条件下,类别Y的不确定性的度量 熵可用于描述信息的不确定性或混乱程度,信息的不确定性越大则熵越大,反之越小
决策树法中,决策树的根基是()
在决策树中,从状态节点引出的分枝叫()分枝。
什么是决策树? 决策树的最佳用途是什么? 决策树分为哪两种树?
决策树中的分类结果是最末端的节点,这些节点称为?()
下列关于决策树的说法不正确的是()
对于复杂的、多阶段的决策,决策树法便于决策机构做出正确的决策()
下列对于决策树的描述错误的是()
决策树算法中每次分类都按照信息增益最大进行的,分类前和分类后数据集的信息熵变化情况是()
在决策树分析法中,决策节点的个数只能是一个()
决策树
决策树()。
决策树是决策
决策树算法对于样本特征的取值要求是()
决策树决策法是()
决策树决策法是( )。
有关决策树的说法哪个是错误的?
以下关于决策树的说法错误的( )。
关于决策树算法陈述正确的是()
随机森林中可以采用各种决策树算法,常见的决策树算法有()。
购买搜题卡
会员须知
|
联系客服
免费查看答案
购买搜题卡
会员须知
|
联系客服
关注公众号,回复验证码
享30次免费查看答案
微信扫码关注 立即领取
恭喜获得奖励,快去免费查看答案吧~
去查看答案
全站题库适用,可用于聚题库网站及系列App
只用于搜题看答案,不支持试卷、题库练习 ,下载APP还可体验拍照搜题和语音搜索
支付方式
首次登录享
免费查看答案
20
次
账号登录
短信登录
获取验证码
立即登录
我已阅读并同意《用户协议》
免费注册
新用户使用手机号登录直接完成注册
忘记密码
登录成功
首次登录已为您完成账号注册,
可在
【个人中心】
修改密码或在登录时选择忘记密码
账号登录默认密码:
手机号后六位
我知道了