A.神經網絡調整參數(shù)的方式是一種前饋神經網絡(FeedforwardNeuralNetwork) B.學習率在迭代的參數(shù)調整過程中會固定不變 C.梯度下降是運用積分的技巧來達成 D.損失函數(shù)移動的方向跟梯度的方向相同 E.神經網絡調整參數(shù)的順序是從后面一層層往前調
A.損失函數(shù)是對每個輸入的預測值與真實值的差異計算總和 B.透過梯度下降一定可以找到降低損失函數(shù)的最佳解 C.損失函數(shù)的變量是可以調整的參數(shù) D.訓練神經網絡是透過參數(shù)的調整來降低損失函數(shù) E.梯度下降是降低損失函數(shù)的一種算法
A.傳統(tǒng)的神經網絡是指全鏈接神經網絡 B.全鏈接神經網絡也叫標準神經網絡 C.標準神經網絡通常稱為NN(neuralnetwork) D.全鏈接神經網絡的每個神經元都會跟前后層的神經元相連 E.每個神經元內部的計算架構都不一樣