- 腾讯Qzone团队(深圳)招聘 机器学习、数据挖掘算法人员,1)如果你在深圳,或者想来深圳发展 2)如果你对 机器学习、数据挖掘的岗位很感兴趣且有一定基础 请私信我 或发我邮件 求帮扩散@元龙-数据 @王利锋Fandy @52nlp
- 正在看@52nlp 里介绍mcmc 和Gibbs采样的那篇文章,很喜欢作者的写作思路。1)给定概率分布来生成样本,可以用基于马氏链采样的过程来实现。2)使马氏链平稳的分布正好是给定的概率分布,此过程中的采样的样本就是给定概率分布要生成的样本:)
- 整理了一下PLSA EM的详细推导过程,利用Jensen引入Q函数,最终将目标函数整理成MLE可解形式。知道Q函数和目标函数后,就可用EM迭代求解了。下面这个推导主要是得到EM中M步的目标函数的详细过程。@JerryLead @晓风_机器学习 看下中间推导的有没有问题?
- 求解LDA问题,EM变体和Gibbs sampling都是方法。以Gibbs sampling为例,它最终收敛后得到文档集中每个主题的分布。之后用这个分布,通过计算后验概率,分别得到文档对主题的分布、主题对word的分布这两个隐含变量。@何彬_HIT, 看下@杨柳Larry_NLP 的文章,以及@rickjin 的LDA,肯定能解决你的问题。。展开全文
- 一直没有动手推倒过PLSA,只知道原理,不自己推倒,始终体会不到里面的精华。这周给自己强加这个“任务”!。关于PLSA与EM、LDA与Gibbs Samping、@52nlp 的http://t.cn/zTfGskx,@丕子 的http://t.cn/zljurdv,值得参考的好资源。还可看Thomas Hofmann的ppt,矩阵分解的奥妙。展开全文
- 看到@丕子 的博客http://t.cn/zYsjt5z中总结了LDA的应用,其中一条是用LDA得到的topic作为分类的特征,里面谈及效果不错。@rickjin 提到这种做法效果准确率召回率显著提升。我之前试过这种做法,效果不好,回头再试一下看是否自己细节没做好
- //@卢奇Sam: 3.到了这一步,再来说说互信息与信息增益之间的关系,定义系统的平均互信息I(X;Y) = H(X) - H(X|Y)。可见平均互信息就是信息增益!