首先要学会如何调用python层在protxt文件中调用python层后面补上。
FC2到输出的Loss为HingeLoss即采用最大类间分類平面的原则。
SoftMax是FC2的输出结果选出可能性最大的那个的一种方法,跟最后一层FC是否采用SVM无关
经过实验,采用HingeLoss的网络在小类别分类时(實验8类,每一类1300张图)泛化能力更强,分类更准确(相比softmax准确性大约提升30%)
经过观察发现,采用HingeLoss之后预测的输出结果,是SVM式的只有囸确的类别是正数,其他是负数体现了最大类间距离的特点。
而softmax的输出结果有正有负,所以分类平面的距离不是最大的没有SVM效果好。
备注:要充分发挥SVM的作用需要从头开始训练。
内容提示:CNN基础与Caffe实践
文档格式:PDF| 浏览次数:82| 上传日期: 22:49:45| 文档星级:?????
全文阅读已结束如果下载本文需要使用
首先要学会如何调用python层在protxt文件中调用python层后面补上。
授予每个自然月内发布4篇或4篇以上原创或翻译IT博文的用户不积跬步无以至千里,不积小流无以成江海程序人生的精彩需要坚持不懈地积累!
版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。