- //@rickjin: 这个文章其实应该专门为善科改一个版本再发在善科上比较合适,等我有空的时候整理一个通俗点的伽马函数历史投稿给数学文化
【善科文库:神奇的Gamma函数 (上)】网友@rickjin 自《正态分布的前世今生》🔗 网页链接 又推出力作神奇的Gamma函数。本章讲到Gamma函数的诞生和性质。 带着“这个长得这么怪异的一个函数,数学家是如何找到的”这一问题,作者让我们轻松上了一课。🔗 网页链接
【光线如何影响你的容貌】打光竟然会有这么大的影响。。这下妹纸们知道怎样打光拍美美的照片了吧🔗 网页链接
- 回复@EwenZHAO84: 感谢大家对DNN的热情,后续有精彩报告再跟大家交流。 //@EwenZHAO84: 第10页能量函数定义最后一项有问题,应为sum(sum(W_{ij}*v_i*h_j))。第12页的条件概率分布是新定义的还是由11页推导出来的?11页推导的结果应该不是这样的,hinton的视频教程里也说RBM和无限多层sigmoid网等价。展开全文
- //@邓亚峰-人脸识别: //@沈复民: hashing一般训练数据都很大,百万以上,overfitting的问题不大。但有些基于机器学习技术的算法复杂度过高,如MLH,只能在很小的数据集上做训练,和普通的learning算法一样也可能会产生overfitting。 //@ICT山世光: 但后者是否会有类似overfitting的问题?展开全文
大家在讨论lsh与learning based hashing,很精彩。我觉得各自优劣是比较直观的,出发点不同。前者是万金油,不对数据分布作任何假设,后者是基于数据分布特点设计出来的,在特定数据上理应比前者好。二者都是对数据的编码,按信息论,最优编码是基于数据分布的(如哈夫曼)。 - //@VinjnZhang: 依照惯例,代码开源在 github 上,http://t.cn/zYTs3UY,是一个自包含的VS2008工程
我上传了:【视频:LeapMotion体感设备使用手指玩水果忍者】http://t.cn/zYYkFQH(来 @优酷网 看我更多精彩视频:http://t.cn/zYYkFQQ)
- //@任勇_博士僧: 真的大牛,敢于跨界作代言人! 天朝有些玩系统的高手也在弄ML(?)是不是跟Dean学呢。也有老师木那样的神人,从ML跨向系统。//@Google黑板报: 让机器开始思考!走近Google科学家 Jeff Dean,一起了解机器学习。 🔗 网页链接
#走近Google科学家#【机器学习】也许大家还未意识到已在日常生活中使用了不止一次机器学习技术,它被用于语音识别、计算机视觉、拦截垃圾邮件、无人驾驶汽车等。Google一直致力于研发大规模机器学习的新方法,让机器像人类大脑一样思考。从今天起,走近Google科学家Jeff Dean,了解机器学习技术吧。展开全文