1.1.3 定義損失函數
1.1.3定義損失函數
完成了網路定義后,我們可以針對指定的輸入x獲得對應的預測值y,我們自然希望預測值y與真實值y_之間的差距越小越好,理想的情況就是在數據集上預測值y和真實值y_總是完全一樣。但是事實上這幾乎是無法做到的,我們需要定義預測值和真實值之間的差距,也就是理想和現實之間的差距。可以認為深度學習訓練的過程,就是不斷追求損失函數最小化的過程。以Keras為例,常見的損失函數有以下幾種:
mean_squared_error或mse
mean_absolute_error或mae
mean_absolute_percentage_error或mape
mean_squared_logarithmic_error或msle
squared_hinge
hinge
categorical_hinge
binary_crossentropy
logcosh
categorical_crossentropy
sparse_categorical_crossentrop
其中二分類問題經常使用的是binary_crossentropy,多分類問題經常使用的是categorical_crossentropy,回歸問題使用mse和mae。