Skip to content

Latest commit

 

History

History
52 lines (40 loc) · 2.21 KB

loss function and optimizer in Deep learning.md

File metadata and controls

52 lines (40 loc) · 2.21 KB

深度学习中的损失函数和优化器(loss function and optimizer)

损失函数和优化器

损失函数(loss function)是用来估量模型的预测值 f(x)与真实值 Y 的不一致程度,损失函数越小,一般就代表模型的鲁棒性越好,正是损失函数指导了模型的学习

优化器(optimizer)是在有了损失函数之后,使用优化算法将其最小化,在优化过程中,损失函数也成称为目标函数(objective function),在动手学深度学习一章提到了,其实优化器是优化训练误差,也就是在训练过程中产生的误差,而深度学习最终的目标是为了降低泛化误差,这里优化器是有一定限制的,为了求得最小化目标函数的数值解,将通过优化算法有限次迭代模型参数来尽可能降低损失函数的值。

常见的损失函数

mean_absolute_error
mean_absolute_percentage_error
mean_squared_logarithmic_error
squared_hinge
hinge
categorical_hinge
logcosh
huber_loss
categorical_crossentropy
sparse_categorical_crossentropy
binary_crossentropy
kullback_leibler_divergence
poisson
cosine_proximity
is_categorical_crossentropy
以上来源于 keras 内置的损失函数

常见的优化器函数

SGD
RMSprop
Adagrad
Adadelta
Adam
Adamax
Nadam

相关链接

https://www.zhihu.com/question/317383780/answer/631866229 介绍了分类和回归中常见的损失函数,但是并没有说清楚原理,只给出了公式


https://blog.csdn.net/qq_41997920/article/details/88693888 给出了 pytorch 中的损失函数和优化器