现在,我们将开始通过定义创建我们的模型的占位符X
和Y
,这样我们就可以养活我们的训练实例X
,并Y
进入优化训练过程。
X = tf.placeholder("float")
Y = tf.placeholder("float")
现在我们将为权重和偏差声明两个可训练的Tensorflow变量,并使用它们随机初始化它们
np.random.randn()
W = tf.Variable(np.random.randn(), name = "W")
b = tf.Variable(np.random.randn(), name = "b")
现在我们将定义模型的超参数,学习率和时代数。
learning_rate = 0.01
training_epochs = 1000
现在,我们将构建假设,成本函数和优化器。我们不会手动实现Gradient Descent Optimizer,因为它是在Tensorflow内部构建的。之后,我们将初始化变量。
# Hypothesis
y_pred = tf.add(tf.multiply(X, W), b)
# Mean Squared Error Cost Function
cost = tf.reduce_sum(tf.pow(y_pred-Y, 2)) / (2 * n)
# Gradient Descent Optimizer
optimizer = tf.train.GradientDescentOptimizer(learning_rate).minimize(cost)
# Global Variables Initializer
init = tf.global_variables_initializer()








暂无数据