我们想要减少数据集中的特征数,即降维.选择以下适合的方案:( ) A.使用前向特征选择方法B.使用后向特征排除方法C.我们先把所有特征都使用,去训练一个模型,得到测试集上的表现.然后我们去掉一个特征,再去训练,用交叉验证看看测试集上的表现.如果表现比原来还要好,我们可以去除这个特征.D.查看相关性表,去除相关性最高的一些特征

我们想要减少数据集中的特征数,即降维.选择以下适合的方案:( )

A.使用前向特征选择方法

B.使用后向特征排除方法

C.我们先把所有特征都使用,去训练一个模型,得到测试集上的表现.然后我们去掉一个特征,再去训练,用交叉验证看看测试集上的表现.如果表现比原来还要好,我们可以去除这个特征.

D.查看相关性表,去除相关性最高的一些特征


相关考题:

特征选择和降维都是用于减少特征数量,进而降低模型复杂度、防止过度拟合。() 此题为判断题(对,错)。

我们建立一个5000个特征,100万数据的机器学习模型.我们怎么有效地应对这样的大数据训练()A.我们随机抽取一些样本,在这些少量样本之上训练B.我们可以试用在线机器学习算法C.我们应用PCA算法降维,减少特征数D.B和CE.A和BF.以上所有

我们想要减少数据集中的特征数,即降维.选择以下适合的方案()1.使用前向特征选择方法2.使用后向特征排除方法3.我们先把所有特征都使用,去训练一个模型,得到测试集上的表现.然后我们去掉一个特征,再去训练,用交叉验证看看测试集上的表现.如果表现比原来还要好,我们可以去除这个特征.4.查看相关性表,去除相关性最高的一些特征A.1和2B.2,3和4C.1,2和4D.All

数据抽象包含哪些方法() A. 数据聚类 B. 数据降维 C. 数据降维 D. 数据简化 正确答案:B C DA.数据聚类B.数据降维C.特征选取D.数据简化

LDA(线性区别分析)与PCA(主成分分析)均是降维的方法,下面描述不正确的是()A.PCA对高维数据降维后的维数是与原始数据特征维度相关(与数据类别标签无关)B.LDA降维后所得到维度是与数据样本的类别个数K有关(与数据本身维度无关)C.假设原始数据一共有K个类别,那么LDA所得数据的降维维度小于或等于K−1D.PCA和LDA均是基于监督学习的降维方法

70、特征降维的方法包括特征选择和特征提取。

12、特征提取和特征选择是对整个样本集进行特征降维的方法之一。

下列关于数据降维的说法不正确的是()A.神经网络算法不能用于数据降维。#B.原始数据可能包含数以百/千/万计的属性,大部分情况下会有很多属性与任务不相关,是冗余的,数据降维可以提高数据质量,提升数据挖掘和机器学习的效率及精度。#C.数据降维的方法包括人工降维和自动降维,其中自动降维又分为维度规约和数据压缩 。#D.维度规约又称又称特征选择, 就是要删除冗余无用的属性;被保留的属性仍保持原有的物理意义。

15、采用数据选择器实现逻辑函数时,当逻辑函数变量数多于地址端的情况下,应当()A.采用多片数据选择器进行扩展B.采用降维卡诺图的方法C.对逻辑函数进行化简,减少变量D.改用译码器实现