国家开放大学大数据分析
在聚类分析中,如果新类与其他类别之间存在多个点与点之间的距离,将公式作为两类的距离,按照最小距离原则吧类别之间距离最小的两类合并为一类,直至把所有样本归为一类,该方法为( )。 【A.】中间距离法 【B.】离差平方和法 【C.】重心法
答案是:A

更新时间:2023/6/29 19:19:00
出自:国家开放大学大数据分析与挖掘技术
首先考虑在没有进行聚类之前,所有参加聚类过程的个体没有归入任何类别,即对于每个个体而言,自成一类的方法是( )。 【A.】关联分析 【B.】系统聚类 【C.】快速聚类 【D.】DBSCAN聚类
答案是:B

更新时间:2023/6/29 19:19:00
出自:国家开放大学大数据分析与挖掘技术
在聚类分析中,如果新类与其他类别之间存在多个点与点之间的距离,取这些距离最大者作为两类的距离,该方法为( )。 【A.】重心法 【B.】离差平方和法 【C.】最长距离法 【D.】类平均法
答案是:C

更新时间:2023/6/29 19:19:00
出自:国家开放大学大数据分析与挖掘技术
在聚类过程中的类需要遵从的原则中,说明了每一个个体在同一次分类过程中只能分在一个类别当中的原则是( )。 【A.】同质性原则 【B.】互斥性原则 【C.】完备性原则 【D.】充分性原则
答案是:C

更新时间:2023/6/29 19:18:00
出自:国家开放大学大数据分析与挖掘技术
在聚类分析中,如果新类与其他类别之间存在多个点与点之间的距离,取这些距离最小者作为两类的距离,该方法为( )。 【A.】重心法 【B.】离差平方和法 【C.】最短距离法 【D.】类平均法
答案是:C

更新时间:2023/6/29 19:18:00
出自:国家开放大学大数据分析与挖掘技术
在聚类分析中,如果新类与其他类别之间存在多个点与点之间的距离,通过计算两类重心之间的欧氏距离平方作为两类之间的距离的方法为( )。 【A.】中间距离法 【B.】离差平方和法 【C.】重心法 【D.】类平均法
答案是:C

更新时间:2023/6/29 19:18:00
出自:国家开放大学大数据分析与挖掘技术
Mahalanobis距离指的是:( ) 【A.】明氏距离 【B.】车比雪夫距离 【C.】欧氏距离 【D.】马氏距离
答案是:D

更新时间:2023/6/29 19:18:00
出自:国家开放大学大数据分析与挖掘技术
多元统计分析中的聚类分析方法既可以对样本进行分类,记为Q型分类,也可以对反映事物特征的指标或变量进行分类,记为R型分类。 【A.】√ 【B.】×
答案是:A

更新时间:2023/6/29 19:18:00
出自:国家开放大学大数据分析与挖掘技术
多元统计分析中的聚类分析方法既可以对样本进行分类,记为R型分类,也可以对反映事物特征的指标或变量进行分类,记为Q型分类。 【A.】√ 【B.】×
答案是:B

更新时间:2023/6/29 19:18:00
出自:国家开放大学大数据分析与挖掘技术
多元统计分析中的聚类分析方法可以对样本进行分类,记为( )。 【A.】S型分类 【B.】H型分类 【C.】Q型分类 【D.】R型分类
答案是:C

更新时间:2023/6/29 19:18:00
出自:国家开放大学大数据分析与挖掘技术
不知道哪些学生有相同的某些特征。考虑按照学生的考试成绩、社会实践、思想品德等方面划分奖学金的等级。通常采用( )。 【A.】回归分析 【B.】分类 【C.】聚类分析 【D.】关联分析
答案是:C

更新时间:2023/6/29 19:18:00
出自:国家开放大学大数据分析与挖掘技术
下列哪一项不属于聚类分析( )。 【A.】系统聚类 【B.】决策树 【C.】Kmeans 【D.】DBSCAN聚类
答案是:B

更新时间:2023/6/29 19:18:00
出自:国家开放大学大数据分析与挖掘技术
多元统计分析中的聚类分析方法可以对反映事物特征的指标或变量进行分类,记为( )。 【A.】S型分类 【B.】H型分类 【C.】Q型分类 【D.】R型分类
答案是:D

更新时间:2023/6/29 19:18:00
出自:国家开放大学大数据分析与挖掘技术
不知道哪些客户有同样的购物习惯与特征等。考虑按照客户的个人资料、购物特征、购物习惯等将客户进行分类。通常采用( )。 【A.】回归分析 【B.】聚类分析 【C.】分类 【D.】关联分析
答案是:B

更新时间:2023/6/29 19:17:00
出自:国家开放大学大数据分析与挖掘技术
当不知道哪些花是同一品种,哪些花不同品种时,考虑按照花瓣长宽与花萼长宽将不同品种的花分类。通常采用( )。 【A.】聚类分析 【B.】分类 【C.】回归分析 【D.】关联分析
答案是:A

更新时间:2023/6/29 19:17:00
出自:国家开放大学大数据分析与挖掘技术
按照经济发展、教育水平、面积大小、人口等诸多方面对我国地市级以上城市进行分类。通常采用( )。 【A.】回归分析 【B.】分类 【C.】关联分析 【D.】聚类分析
答案是:D

更新时间:2023/6/29 19:17:00
出自:国家开放大学大数据分析与挖掘技术
非线性支持向量机通过引进核函数解决线性不可分问题。 【A.】√ 【B.】×
答案是:A

更新时间:2023/6/29 19:17:00
出自:国家开放大学大数据分析与挖掘技术
常用的核函数有( )。 【A.】线性核 【B.】高斯核 【C.】神经网络核 【D.】多项式核
答案是:ABCD

更新时间:2023/6/29 19:17:00
出自:国家开放大学大数据分析与挖掘技术
构成随机森林的决策树越多,那么( ) 【A.】随机森林的预测精度越高 【B.】随机森林的预测精度越低 【C.】随机森林的训练精度越低 【D.】随机森林的训练精度越高
答案是:D

更新时间:2023/6/29 19:17:00
出自:国家开放大学大数据分析与挖掘技术
以寻找最大边缘超平面为目的,以及构建相应的分类决策函数来分类的算法是( ) 【A.】决策树 【B.】线性判别分析 【C.】线性可分支持向量机 【D.】随机森林
答案是:C

更新时间:2023/6/29 19:17:00
出自:国家开放大学大数据分析与挖掘技术
支持向量机算法中,超平面到所有两类数据点的距离之和称为分类器的边缘。 【A.】√ 【B.】×
答案是:A

更新时间:2023/6/29 19:17:00
出自:国家开放大学大数据分析与挖掘技术
对于解决小样本、非线性及高维模式识别问题,( )表现出许多特有的优势。 【A.】支持向量机 【B.】最近邻分类 【C.】随机森林 【D.】线性判别
答案是:A

更新时间:2023/6/29 19:17:00
出自:国家开放大学大数据分析与挖掘技术
随机森林的优势是( )。 【A.】能够处理高维度数据,并且不用做特征选择; 【B.】在训练过程中,能够检测到特征间的交互作用; 【C.】训练速度快; 【D.】容易做成并行化方法。
答案是:ABCD

更新时间:2023/6/29 19:17:00
出自:国家开放大学大数据分析与挖掘技术
随机森林算法建立决策树过程中,对于行采样,采样无放回的方式。 【A.】√ 【B.】×
答案是:B

更新时间:2023/6/29 19:16:00
出自:国家开放大学大数据分析与挖掘技术
随机森林算法建立决策树过程中,对于行采样,采样有放回的方式,也就是在采样得到的样本集合中,可能有重复的样本。 【A.】√ 【B.】×
答案是:A

更新时间:2023/6/29 19:16:00
出自:国家开放大学大数据分析与挖掘技术
下列关于随机森林算法,说法正确的是( )。 【A.】建立决策树的过程中,需要注意采样和完全分裂两点; 【B.】建立决策树过程中需要两个随机采样,即行采样和列采样; 【C.】对于行采样,采样无放回的方式; 【D.】采用完全分裂的方式
答案是:ABD

更新时间:2023/6/29 19:16:00
出自:国家开放大学大数据分析与挖掘技术
用随机的方式建立一个森林。森林由很多决策树组成的算法是:( ) 【A.】支持向量机 【B.】最近邻分类 【C.】随机森林 【D.】线性判别
答案是:C

更新时间:2023/6/29 19:16:00
出自:国家开放大学大数据分析与挖掘技术
下列关于随机森林算法,说法错误的是( ) 【A.】建立决策树的过程中,需要注意采样和完全分裂两点; 【B.】建立决策树过程中需要两个随机采样,即行采样和列采样; 【C.】对于行采样,采样无放回的方式; 【D.】采用完全分裂的方式构建
答案是:C

更新时间:2023/6/29 19:16:00
出自:国家开放大学大数据分析与挖掘技术
决策树中,CART算法生成的决策树是结构简洁的二叉树,在每一步的决策树只能选择“是”或“否”但当一个feature有多个取值,可以把数据分为多个部分。 【A.】√ 【B.】×
答案是:B

更新时间:2023/6/29 19:16:00
出自:国家开放大学大数据分析与挖掘技术
CART的结果不受自变量的单调变换的影响。 【A.】√ 【B.】×
答案是:A

更新时间:2023/6/29 19:16:00
出自:国家开放大学大数据分析与挖掘技术
CART的结果受自变量的单调变换的影响。 【A.】√ 【B.】×
答案是:B

更新时间:2023/6/29 19:16:00
出自:国家开放大学大数据分析与挖掘技术
决策树中,CART算法生成的决策树是结构简洁的二叉树,在每一步的决策树只能选择“是”或“否”,即使一个feature有多个取值,也只能把数据分为两部分。 【A.】√ 【B.】×
答案是:A

更新时间:2023/6/29 19:15:00
出自:国家开放大学大数据分析与挖掘技术
下面关于决策树的剪枝操作理解不正确的是( )。 【A.】对决策树进行剪枝的目的是提高模型的预测误差 【B.】对决策树进行剪枝是为了提高模型的解释能力 【C.】只能在生成决策树后再剪枝 【D.】剪枝就是从下往上的剪掉一些节点
答案是:ABD

更新时间:2023/6/29 19:14:00
出自:国家开放大学大数据分析与挖掘技术
下面关于决策树的剪枝操作理解正确的是( )。 【A.】对决策树进行剪枝是为了降低模型复杂度 【B.】决策树的剪枝操作可以在生成决策树后再剪枝 【C.】不可以在决策树生成过程中剪枝 【D.】一般用复杂度参数设定门限来进行剪枝
答案是:ABD

更新时间:2023/6/29 19:14:00
出自:国家开放大学大数据分析与挖掘技术
下列属于CART算法的优点的是( )。 【A.】CART对于自变量和因变量不做任何形式的分布假定; 【B.】CART的结果受自变量的单调变换的影响; 【C.】CART分析所产生的树的结构很容易被任何领域的人理解; 【D.】CART
答案是:ACD

更新时间:2023/6/29 19:14:00
出自:国家开放大学大数据分析与挖掘技术
关于下面的决策树说法正确的是( )。         【图片】 【A.】此决策树根节点的熵为1.581 【B.】根
答案是:ABD

更新时间:2023/6/29 19:14:00
出自:国家开放大学大数据分析与挖掘技术
决策树的cp值越小,那么( ) 【A.】模型越复杂 【B.】训练误差越小 【C.】预测误差越小 【D.】模型更简单
答案是:C

更新时间:2023/6/29 19:13:00
出自:国家开放大学大数据分析与挖掘技术
决策树算法中,将当前样本划分为两个子样本,使得生成的每个非叶节点都有两个分支的算法是( ) 【A.】Hunt 【B.】ID3 【C.】CART 【D.】C4.5
答案是:C

更新时间:2023/6/29 19:13:00
出自:国家开放大学大数据分析与挖掘技术
减枝准则是为了在精确性和复杂性中找到平衡,一般采用( )来度量两者之间的关系。 【A.】代回误分损失 【B.】惩罚常数 【C.】叶节点数目 【D.】复杂性损失
答案是:D

更新时间:2023/6/29 19:13:00
出自:国家开放大学大数据分析与挖掘技术
下列不属于CART算法的优点的是( )。 【A.】CART对于自变量和因变量不做任何形式的分布假定; 【B.】CART的结果受自变量的单调变换的影响; 【C.】CART分析所产生的树的结构很容易被任何领域的人理解; 【D.】CART
答案是:B

更新时间:2023/6/29 19:13:00
出自:国家开放大学大数据分析与挖掘技术
关于下面的决策树说法不正确的是( )。 【图片】 【A.】此决策树根节点的熵为1.581 【B.】根节点的子节点的熵为0与1 【C.】此根节点的子节点都需要继续划分 【D.】落入Peta
答案是:C

更新时间:2023/6/29 19:13:00
出自:国家开放大学大数据分析与挖掘技术
下面关于决策树的剪枝操作理解错误的是( )。 【A.】对决策树进行剪枝是为了降低模型复杂度 【B.】决策树的剪枝操作可以在生成决策树后再剪枝 【C.】不可以在决策树生成过程中剪枝 【D.】一般用复杂度参数设定门限来进行剪枝
答案是:C

更新时间:2023/6/29 19:13:00
出自:国家开放大学大数据分析与挖掘技术
决策树中,C4.5算法是ID3算法的延伸,可以处理缺失值、连续变量及剪枝等。 【A.】√ 【B.】×
答案是:A

更新时间:2023/6/29 19:12:00
出自:国家开放大学大数据分析与挖掘技术
决策树中,由于信息增益最大的划分原则容易产生小而纯的子集,所以ID3算法提出了增益比。 【A.】√ 【B.】×
答案是:B

更新时间:2023/6/29 19:12:00
出自:国家开放大学大数据分析与挖掘技术
决策树中,由于信息增益最大的划分原则容易产生小而纯的子集,所以C4.5算法提出了增益比。 【A.】√ 【B.】×
答案是:A

更新时间:2023/6/29 19:12:00
出自:国家开放大学大数据分析与挖掘技术
决策树算法的C4.5算法可以处理( )。 【A.】定性变量 【B.】缺失值 【C.】连续变量 【D.】剪枝
答案是:ABCD

更新时间:2023/6/29 19:12:00
出自:国家开放大学大数据分析与挖掘技术
决策树中,由于信息增益最大的划分原则容易产生小而纯的子集,所以C4.5算法提出了增益比。其中k为划分的总数,关于k的说法正确的是( ) 【A.】代表如果某个属性产生了大量的划分,它的划分信息将会很小,从而降低增益比。 【B.】代表如果某
答案是:C

更新时间:2023/6/29 19:12:00
出自:国家开放大学大数据分析与挖掘技术
决策树中,ID3算法既能处理定性变量,也能处理连续变量、缺失值等。 【A.】√ 【B.】×
答案是:B

更新时间:2023/6/29 19:12:00
出自:国家开放大学大数据分析与挖掘技术
决策树中,ID3算法只能处理定性变量,且一个变量使用过后就不能再次使用了。 【A.】√ 【B.】×
答案是:A

更新时间:2023/6/29 19:12:00
出自:国家开放大学大数据分析与挖掘技术
决策树中,ID3算法的一个变量使用过后还能再次使用。 【A.】√ 【B.】×
答案是:B

更新时间:2023/6/29 19:12:00
出自:国家开放大学大数据分析与挖掘技术
决策树中,我们需要比较父节点与子节点的不纯度,他们的差越大,测试条件的效果就越好。 【A.】√ 【B.】×
答案是:A

更新时间:2023/6/29 19:12:00
出自:国家开放大学大数据分析与挖掘技术
决策树只有单一输出。 【A.】√ 【B.】×
答案是:A

更新时间:2023/6/29 19:12:00
出自:国家开放大学大数据分析与挖掘技术
决策树中,我们需要比较父节点与子节点的不纯度,他们的差越小,测试条件的效果就越好。 【A.】√ 【B.】×
答案是:B

更新时间:2023/6/29 19:12:00
出自:国家开放大学大数据分析与挖掘技术
决策树中结点的最优划分是依据( )来确定的。 【A.】局部最优性 【B.】信息增益大的划分 【C.】信息增益小的划分 【D.】GINI增益大的划分
答案是:ABD

更新时间:2023/6/29 19:11:00
出自:国家开放大学大数据分析与挖掘技术
决策树是一种由节点和有向边组成的层次结构。下列属于决策树的节点的是:( ) 【A.】根节点 【B.】内部节点 【C.】叶节点 【D.】终节点
答案是:ABCD

更新时间:2023/6/29 19:11:00
出自:国家开放大学大数据分析与挖掘技术
决策树算法依据数据类型的不同和树状结构的不同有不同版本的决策树,下列属于决策算法的是:( ) 【A.】Hunt 【B.】ID3 【C.】CART 【D.】C4.5
答案是:ABCD

更新时间:2023/6/29 19:11:00
出自:国家开放大学大数据分析与挖掘技术
采用将样本递归划分建立对象属性与对象值之间映射的算法是:( ) 【A.】支持向量机 【B.】决策树 【C.】最近邻分类 【D.】线性判别
答案是:B

更新时间:2023/6/29 19:11:00
出自:国家开放大学大数据分析与挖掘技术
在决策树中,节点误分率越大,那么( ) 【A.】节点的不纯度越低 【B.】节点的不纯度越高 【C.】节点越靠近根节点 【D.】节点越靠近叶节点
答案是:B

更新时间:2023/6/29 19:11:00
出自:国家开放大学大数据分析与挖掘技术
(假定在某个节点)如果数据已经只有一类了,则该节点为叶节点,否则进行下一步。该算法是:( ) 【A.】Hunt 【B.】ID3 【C.】CART 【D.】C4.5
答案是:A

更新时间:2023/6/29 19:11:00
出自:国家开放大学大数据分析与挖掘技术
在决策树中,节点熵越大,那么( ) 【A.】节点的不纯度越低 【B.】节点的不纯度越高 【C.】节点越靠近根节点 【D.】节点越靠近叶节点
答案是:B

更新时间:2023/6/29 19:11:00
出自:国家开放大学大数据分析与挖掘技术
目前为: 2/9 页  首页   上页  下页 尾页