假設(shè)我正在一些看起來(lái)像這樣的訓(xùn)練數(shù)據(jù)上實(shí)現(xiàn)線性層 以下代碼import tensorflow as tfimport numpy as npweights = tf.Variable(np.random.uniform(0.0, 1.0, 3))bias = tf.Variable(0.0)trainingData = np.array(np.arange(15).astype(float).reshape(3,5))output = tf.expand_dims(weights, 0) @ trainingData + bias產(chǎn)生可以通過(guò)改為最后一行來(lái)解決此問(wèn)題tf.cast(tf.expand_dims(weights, 0) @ trainingData, tf.float32) + bias好的,所以它不喜歡float32_ref在afloat64,上添加a float32_ref,float32.但在a上添加a也可以。但是我做錯(cuò)了,因?yàn)槲易龅氖虑楹芎?jiǎn)單,并且會(huì)引發(fā)錯(cuò)誤。(我是TensorFlow的新手。)我理解為什么它不喜歡我寫(xiě)的東西,但是我犯了什么基本錯(cuò)誤導(dǎo)致了這個(gè)問(wèn)題?我正在尋找一個(gè)答案,例如“哦,永遠(yuǎn)不要使用0.0這樣的浮點(diǎn)數(shù)來(lái)初始化偏差,因?yàn)?..”“那將更普遍地導(dǎo)致類型轉(zhuǎn)換錯(cuò)誤?!?
添加回答
舉報(bào)
0/150
提交
取消