A.不需要,因为新的信息会逐步修正先验概率B.需要,因为后验概率计算需要使用先验概率C.不需要,因为后验概率的计算与先验概率无关D.其余3种说法都不对
单项选择题事件A(结果A )出现后,各不相容的条件B存在的概率称为()。
A.后验概率B.先验概率C.类条件概率D.全概率
多项选择题以下关于贝叶斯分类的特点的说法中错误的是?()
A.先验概率是未知的B.分类决策不存在错误率C.先验概率是已知的D.以新获得的信息对先验概率进行修正E.分类决策存在错误率
判断题使用核函数可以在低维空间中直接计算某一些高维空间中的向量内积。
判断题在相同维度的特征空间中,分类器函数形式的阶次越低,其VC维也越小,在样本集数量有限的情况下,训练好的分类器结构风险也越小,泛化能力越强。
判断题代价函数和损失函数之间没有联系。
判断题损失函数是样本整体的损失函数的期望。
判断题代价函数是对于单个样本的模型得到的输出与该样本对应的真实输出之间的误差。
判断题线性支持向量机是把具有最大分类间隔的最优线性判别函数的求解转化为求解最小权向量的二次规划问题。
判断题结构风险指训练好的分类器错分样本占有的比例,经验风险指训练好的分类器面对未知样本时分类错误的概率。
判断题支持向量机只能处理线性可分类的模式识别问题。
判断题SVM的优点是不需要大量的样本且具有较强的泛化能力。
判断题分类间隔由所有训练集样本决定。
判断题H-K算法是LMSE中一种比较优异的算法。
判断题H-K算法的出发点不是以均方误差为准则函数的LMSE算法。
判断题损失函数是模型得到的输出与该样本对应的真实输出之间的差值。