本月博客排行
-
第1名
lerf -
第2名
bosschen -
第3名
paulwong - fantaxy025025
- johnsmith9th
- xiangjie88
- zysnba
年度博客排行
-
第1名
青否云后端云 -
第2名
宏天软件 -
第3名
gashero - wy_19921005
- vipbooks
- e_e
- gengyun12
- benladeng5225
- wallimn
- javashop
- ranbuijj
- fantaxy025025
- jickcai
- zw7534313
- qepwqnp
- 解宜然
- ssydxa219
- zysnba
- sam123456gz
- sichunli_030
- tanling8334
- arpenker
- gaojingsong
- xpenxpen
- kaizi1992
- wiseboyloves
- jh108020
- ganxueyun
- xyuma
- xiangjie88
- wangchen.ily
- Jameslyy
- luxurioust
- mengjichen
- lemonhandsome
- jbosscn
- zxq_2017
- nychen2000
- lzyfn123
- wjianwei666
- forestqqqq
- ajinn
- zhanjia
- siemens800
- Xeden
- hanbaohong
- java-007
- 喧嚣求静
- mwhgJava
- kingwell.leng
最新文章列表
深度学习中为何要损失函数
在做深度学习模型训练的时候,我们想要的结果不就是模型的识别率越高越好吗,换句话说我能调参调出识别精度高的参数不就行了吗?搞不懂为啥来定义一个损失函数浪费我内存资源,我们不应该把精力放在如何提高我们模型的识别率做为识别精度指标吗,拿损失函数干啥。
感觉挺有道理的,难道不是吗?
哲学上有一句话说:“任何事物的存在都是有它的道理的”,那损失函数的存在也是有它道理的。对于这个疑(tai)问(gan ...
Micheal Nielsen's神经网络学习之二
依然是跟着Michael Nielsen的神经网络学习,基于前一篇的学习,已经大概明白了神经网络的基本结构和BP算法,也能通过神经网络训练数字识别功能,之后我试验了一下使用神经网络训练之前的文本分类,只是简单的使用了词频来作为词向量处理过程,没有任何的其他调参过程,对于八分类,其正确率到了84%,相比于之前各种调参才能勉强达到72%的SVM分类方法而言,神经网络有无可比拟的简单和高正确率。好了, ...