1 回答

TA貢獻(xiàn)1865條經(jīng)驗(yàn) 獲得超7個(gè)贊
通常,您使用@tf.function占位符并將其轉(zhuǎn)換為函數(shù)參數(shù)。sess.runthen 被替換為調(diào)用該函數(shù)。過(guò)去用于返回操作的東西(比如minimize)現(xiàn)在只在函數(shù)內(nèi)部調(diào)用。這是轉(zhuǎn)換后的代碼片段:
coefficients = tf.constant([[1.], [-10.], [25.]])
w = tf.Variable(0.0)
@tf.function
def train(x):
cost = (x[0][0] * (w**2)) + (x[1][0]*w) + (x[2][0])
tf.compat.v1.train.GradientDescentOptimizer(0.05).minimize(cost, var_list=[w])
for i in range(100):
train(coefficients)
print(w)
正如您所提到的,train.GradientDescentOptimizer已棄用,因此升級(jí)該部分將需要更多更改。
添加回答
舉報(bào)