机器学习那些事儿
查看新浪微博主页机器学习那些事儿
🔗 网页链接 deep learning in nlp →词向量与语言模型,,,通俗的不能再通俗了。推荐。 原微博 机器学习那些事儿
数据集每个样本采用<A1,A2,A3,A4,A5,B1,B2,B3,B4,B5>表示,可以基于这10个属性表示的数据集训练一个分类模型M0;也可以基于<A1..A5>,<B1..B5>表示的数据集分别训练两个模型M1,M2然后根据判别概率再集成;哪一种方案会好些呢?请大牛帮忙@老师木 @余凯_西二旗民工 @南大周志华 @张栋_机器学习 @李沐mu 展开全文原微博 机器学习那些事儿
今天看了@南大周志华 老师07年发表的半监督文章tri-training,有两点困惑: 1)针对生成模型(如朴素贝叶斯)是不是训练集的规模越大越好?2)什么规模的数据才适合用半监督学习?比如工业界千万级规模的样本,是否还需要半监督?。请大牛帮忙 @老师木 @余凯_西二旗民工 @张栋_机器学习 @北冥乘海生 展开全文原微博 机器学习那些事儿
LWR(局部加权线性回归)较好的解决了自变量和因变量是非线性关系的情况,但是作为与KNN类似的non-parametric算法,与普通线性回归最大区别是每次预测时都需要训练集,在数据集比较大时效率肯定问题,请问有没有一种机制把训练集分成N份子集(使得每份中自变量与因变量线性相关)?@老师木 @heavenfireray 展开全文原微博