用户asker2的头像

asker2

查看新浪微博主页
  • 用户头像

    asker2

    读paper最重要的是有orientation, 即心里建立一个坐标系,每种流派方法都在坐标系里某处放着,不同方法之间的相关与不同一目了然,整个领域也就有了big picture。技术的话说就是对方法集合做nonlinear component analysis。如果没这个坐标系,看再多paper,也是一个个离散的点,很快忘了,也不容易扩展
    展开全文
    原微博
  • 用户头像

    asker2

    把这本书从Springer上抓下来了: "An Introduction to Statistical Learning with Applications in R.pdf",和大名鼎鼎的 Elements of Statistical Learning 是一帮人写的,内容和 ESL 差不多,但侧重应用,数学比较简单 🔗 网页链接
    展开全文
    原微博
  • 用户头像

    asker2

    腾讯web qq的 captcha 谁做的,无语了。以为用了gif 机器人就不容易识别了吗?用gif反而更容易识别,因为以前是一幅图,现在多幅了。反而是人看起来更费劲了。可以利用人的视觉暂留让captcha更难识别:gif每帧是不完整的字母,切换的快了看起来是完整的,再加上晃动的效果,防止把几个gif拼起来识别
    展开全文
    原微博
  • 用户头像

    asker2

    程序终于bug free了。mentor发明的奥卡姆剃刀好强大,4个layer被削剩下2个,80个state变成8个。BTW, 用了半个月Python, 感觉比Perl舒服多了,从美感上说。快10年的Perl程序员就这么叛变了
    原微博
  • 用户头像

    asker2

    Google trans 经常会翻译很流利的译文,但流利不代表质量高。Hinton的NN课程举了个例子,用wikipedia文本训练一个language model, 用它随机生成一段话,几乎没语病,但整体没意义. 我想SMT存在同样问题,概率高(=在语料中高频)的未必正确。举例“付け焼き刃”是临阵磨枪的意思,但google译成pretension
    展开全文
    原微博