政企荣誉
- 亚马逊语音识别合作
意向种子企业,小语种方向 - 政府推荐参加资本力量
1+6融资活动 - 上市公司众为兴
合作伙伴 - 河南职教中心
成人学历和能力培训合作联盟成员
最近用pytorch学习神经网络,肯定要涉及算法,算法里很很多数学符号,普通程序员肯定对数学和算法不太熟悉,今天看到数学误差符号和数学鲁棒符号,有一些巧妙的记忆方法,分享给大家。
首先是误差符号,误差英文叫delta,是两个值之间的差异,符号图如下:
最左边的就是误差符号,怎么记呢?可以想是类似两个圈,上面圈少了一部分,就是差了一部分,所以是误差符号。
下面是鲁棒符号,鲁棒是指可靠性,比如某个算法,遇到特别的数据照样能处理结果,就是高鲁棒,高可靠性好算法。符号图如下:
最左边的符号就是,大家可以用英文字母L来对比记忆,因为鲁棒,第一个字鲁,发音是L,用这个方法来引导记忆。
右边中间上面是递归符号,中间下面的中间是集合符号,递归好记,像包了个口子,集合不太好记,可以理解为串起来的梯子,有多个东西,多个就是集合。
第一个图片里有个像r的符号,是:
伽马Tips
在贝尔曼(Bellman)算法用到伽马符号的目的是:
通过优化这个超参数以获得最佳结果是非常重要的
成功值在0.9到0.99之间
一个较低的值鼓励它短期思考
一个更高的值着重长期的回报
说真的,是很难记,所以要写些文章来帮自己记忆,大家觉得好的话,可以收藏关注下。