BoW(SIFT/SURF/...)+SVM/KNN的OpenCV 实现 - CodingCrazy 小组 (分享自 @推酷网) 🔗 网页链接 标记 //@doctorimage : 今晚看了下,并且下载了一部分,信息量太大了,东西太多了,哦,只能某位大牛的课程仔细学习下 “公开课可下载资源汇总” 🔗 网页链接 ,整理了10多个可以下载的公开课资源链接和方法,包括机器学习,神经网络,自然语言处理,概率图模型,算法等公开课以及龙星计划2012,2013的网盘链接,以及Udacity, edX和Coursera课程视频的下载方法,欢迎大家补充。 其实用最大熵准则很容易理解。当一次次的谣言最终被证实,当ZF一次次的辟谣被证明是说谎,大家都选择相信概率最大的(也许这里的最大是感觉上的最大)。//@南大周志华 : 创新啊//@文光围脖 : [思考]//@汪海林 : 这个第一次看到,我都蒙圈儿了 【请@贺卫方 @何兵 @袁裕来律师 @李庄 及其他公知答疑!】公知嘲讽说王书金承认杀人而检察院居然不承认是奇闻,却不具体说明检察院不承认的理由依据。我是很信任你们公知的,不过对检察院的下列理由依据,公知能解答反驳下吗? doctorimage兄也一直在关注cvpapers上的cvpr2013 change-log吧 🔗 网页链接 CVPR2013:A New Perspective on Uncalibrated Photometric Stereo->link:🔗 网页链接 他们号称效果不错: Our quantitative tests show that our method outperforms all prior work of uncalibrated pho- tometric stereo under orthographic projection. 老师木终于回归CVML了//@ICT山世光 : @余凯_西二旗民工 好像更强调用sparsity,我感觉locality实践上也不错。但sparsity有潜力实现更大范围的feature grouping,很多问题上只做局部receiptive field难以用到诸如对称性之类的先验。 展开全文 hinton的模型中RBM是基本构件,h和v之间是全连接,学习时也无正则化,这明显只能得到global feature。卷积神经网络早就把local receptive field的想法用上了。假如不用local,而只用sparse约束,好似能达到一样的效果,local是sparse的结果,当然sparse不是本质原因。。。 展开全文