第七色在线视频,2021少妇久久久久久久久久,亚洲欧洲精品成人久久av18,亚洲国产精品特色大片观看完整版,孙宇晨将参加特朗普的晚宴

為了賬號安全,請及時綁定郵箱和手機立即綁定
已解決430363個問題,去搜搜看,總會有你想問的

Tensorflow.js 神經(jīng)網(wǎng)絡(luò)中的反向傳播

Tensorflow.js 神經(jīng)網(wǎng)絡(luò)中的反向傳播

慕村225694 2023-01-06 16:18:38
當(dāng)我一直試圖將此功能實現(xiàn)tf.train.stg(learningRate).minimize(loss)到我的代碼中以進行反向傳播時。我收到了多個錯誤,例如The f passed in variableGrads(f) must be a function。我如何將上面的功能成功地實現(xiàn)到下面的代碼中?為什么會出現(xiàn)這個錯誤?神經(jīng)網(wǎng)絡(luò):    var X = tf.tensor([[1,2,3], [4,5,6], [7,8,9], [10,11,12]])    var Y = tf.tensor([[0,0,0],[0,0,0], [1,1,1]])    var m = X.shape[0]    var a0 = tf.zeros([1,3])    var y_hat = tf.zeros([1,3])    var parameters = {        "Wax": tf.randomUniform([1,3]),        "Waa": tf.randomUniform([3,3]),        "ba": tf.zeros([1,3]),        "Wya": tf.randomUniform([3,3]),        "by": tf.zeros([1,3])    }       function RNN_cell_Foward(xt, a_prev, parameters){        var Wax = parameters["Wax"]        var Waa = parameters["Waa"]        var ba = parameters["ba"]        var a_next = tf.sigmoid(tf.add(tf.add(tf.matMul(xt, Wax), tf.matMul(a_prev , Waa)),ba))        return a_next    }這是一個用于情感分類的神經(jīng)網(wǎng)絡(luò),具有多對一的結(jié)構(gòu)。
查看完整描述

1 回答

?
皈依舞

TA貢獻1851條經(jīng)驗 獲得超3個贊

錯誤說明了一切:


variableGrads(f) 中傳入的 f 必須是一個函數(shù)


optimizer.minimize期望函數(shù)作為參數(shù)而不是張量。由于代碼試圖最小化 meanSquaredError,the argumentofminimize可以是一個計算預(yù)測值和預(yù)期值之間的 meanSquaredError 的函數(shù)。


const loss = (pred, label) => pred.sub(label).square().mean();


for (let f = 0; f < 10; f++) {

            optimizer.minimize(() => tf.losses.meanSquaredError(Y, model))

}

它是否解決了問題,但還沒有完全解決?錯誤將更改為:


variableGrads() expects at least one of the input variables to be trainable

這是什么意思 ?使用優(yōu)化器時,它期望作為參數(shù)傳遞給的函數(shù)包含變量,這些變量的值將更新為minimize函數(shù)輸出。


以下是要進行的更改:


var Y = tf.tensor([[0,0,0],[0,0,0], [1,1,1]]).variable() // a variable instead


// var loss = tf.losses.meanSquaredError(Y, model)

// computed below in the minimize function


const learningRate = 0.01;

var optimizer = tf.train.sgd(learningRate);

var model = RNN_FowardProp(X, a0, parameters);


const loss = (pred, label) => pred.sub(label).square().mean();

for (let f = 0; f < 10; f++) {

    optimizer.minimize(() => tf.losses.meanSquaredError(Y, model))

}


查看完整回答
反對 回復(fù) 2023-01-06
  • 1 回答
  • 0 關(guān)注
  • 140 瀏覽
慕課專欄
更多

添加回答

舉報

0/150
提交
取消
微信客服

購課補貼
聯(lián)系客服咨詢優(yōu)惠詳情

幫助反饋 APP下載

慕課網(wǎng)APP
您的移動學(xué)習(xí)伙伴

公眾號

掃描二維碼
關(guān)注慕課網(wǎng)微信公眾號