距离上次更新已经 2390 天了,文章内容可能已经过时。

课程地址:https://www.coursera.org/learn/neural-networks

老师主页:http://www.cs.toronto.edu/~hinton

备注:笔记内容和图片均参考老师课件。

这一章的内容其实没怎么看懂,这里就把课件中没证明的公式简单证明一下。

首先是Softmax的公式

yi=ezijgroupezjyizi=ezijgroupezjeziezi(jgroupezj)2=ezijgroupezjjgroupezjezijgroupezj=yi(1yi)yizj=ezi(jgroupezj)2(ezj)=eziezj(jgroupezj)2=yiyj(ji)

Cross-entropy的公式

C=jtjlog yjCzi=jCyjyjzi=j(tjyj)yjzi=j=i(tjyj)yjzi+ji(tjyj)yjzi=(tiyi)yi(1yi)+ji(tjyj)(yiyj)=ti+tiyi+yijitj=ti+yitj

课件中tj为目标值,表示的是概率,所以

tj=1Czi=yiti