我们想要减少数据集中的特征数,即降维.选择以下适合的方案:( ) A.使用前向特征选择方法B.使用后向特征排除方法C.我们先把所有特征都使用,去训练一个模型,得到测试集上的表现.然后我们去掉一个特征,再去训练,用交叉验证看看测试集上的表现.如果表现比原来还要好,我们可以去除这个特征.D.查看相关性表,去除相关性最高的一些特征
我们想要减少数据集中的特征数,即降维.选择以下适合的方案:( )
A.使用前向特征选择方法
B.使用后向特征排除方法
C.我们先把所有特征都使用,去训练一个模型,得到测试集上的表现.然后我们去掉一个特征,再去训练,用交叉验证看看测试集上的表现.如果表现比原来还要好,我们可以去除这个特征.
D.查看相关性表,去除相关性最高的一些特征
相关考题:
我们建立一个5000个特征,100万数据的机器学习模型.我们怎么有效地应对这样的大数据训练()A.我们随机抽取一些样本,在这些少量样本之上训练B.我们可以试用在线机器学习算法C.我们应用PCA算法降维,减少特征数D.B和CE.A和BF.以上所有
我们想要减少数据集中的特征数,即降维.选择以下适合的方案()1.使用前向特征选择方法2.使用后向特征排除方法3.我们先把所有特征都使用,去训练一个模型,得到测试集上的表现.然后我们去掉一个特征,再去训练,用交叉验证看看测试集上的表现.如果表现比原来还要好,我们可以去除这个特征.4.查看相关性表,去除相关性最高的一些特征A.1和2B.2,3和4C.1,2和4D.All
LDA(线性区别分析)与PCA(主成分分析)均是降维的方法,下面描述不正确的是()A.PCA对高维数据降维后的维数是与原始数据特征维度相关(与数据类别标签无关)B.LDA降维后所得到维度是与数据样本的类别个数K有关(与数据本身维度无关)C.假设原始数据一共有K个类别,那么LDA所得数据的降维维度小于或等于K−1D.PCA和LDA均是基于监督学习的降维方法
下列关于数据降维的说法不正确的是()A.神经网络算法不能用于数据降维。#B.原始数据可能包含数以百/千/万计的属性,大部分情况下会有很多属性与任务不相关,是冗余的,数据降维可以提高数据质量,提升数据挖掘和机器学习的效率及精度。#C.数据降维的方法包括人工降维和自动降维,其中自动降维又分为维度规约和数据压缩 。#D.维度规约又称又称特征选择, 就是要删除冗余无用的属性;被保留的属性仍保持原有的物理意义。
15、采用数据选择器实现逻辑函数时,当逻辑函数变量数多于地址端的情况下,应当()A.采用多片数据选择器进行扩展B.采用降维卡诺图的方法C.对逻辑函数进行化简,减少变量D.改用译码器实现