TensorFlow 官方API学习(01)--入门
2018-01-24 00:00
302 查看
摘要: 入门总结
这里出现个警告:
后来在网上找到的解决方法:
导入 os 模块即可不在显示该警告
cmd下运行 pip 执行安装.
本人windows系统 , 其他方法传送门.
自动关闭
个人推荐第二种, 妈妈再也不用担心我在忘记了~
调用其他的cpu跟gpu
(注意 : 机器必须支持 . )
(注意: "sub= tf.sub(x, a)" 中 sub() 方法好像换名了, 现在正式更名为 subtract() , 怎么那么像XX宝. ^0^ )
(注意:initialize_all_variables() 更名了 global_variables_initializer() 步步为坑! 0.0 )
(注意 : 又是更名惹的祸 , mul() 已经被弃用了, 现在用 multiply() 哇咔咔~~)
feed 只在调用它的方法内有效, 方法结束, feed 就会消失.
标记的方法是使用 tf.placeholder()
( 注意: tf.types.float32 => tf.float32 惊不惊喜, 意不意外 )
传送门 : 门
1.1 介绍
1. 官网的示例代码import tensorflow as tf import numpy as np import os os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2' # 使用 NumPy 生成假数据(phony data), 总共 100 个点. x_data = np.float32(np.random.rand(2, 100)) # 随机输入 y_data = np.dot([0.100, 0.200], x_data) + 0.300 # 构造一个线性模型 # b = tf.Variable(tf.zeros([1])) W = tf.Variable(tf.random_uniform([1, 2], -1.0, 1.0)) y = tf.matmul(W, x_data) + b # 最小化方差 loss = tf.reduce_mean(tf.square(y - y_data)) optimizer = tf.train.GradientDescentOptimizer(0.5) train = optimizer.minimize(loss) # 初始化变量 init = tf.initialize_all_variables() # 启动图 (graph) sess = tf.Session() sess.run(init) # 拟合平面 for step in xrange(0, 201): sess.run(train) if step % 20 == 0: print step, sess.run(W), sess.run(b) # 得到最佳拟合结果 W: [[0.100 0.200]], b: [0.300]
这里出现个警告:
2018-01-24 11:45:09.048114: I C:\tf_jenkins\home\workspace\rel-win\M\windows\PY\36\tensorflow\core\platform\cpu_feature_guard.cc:137] Your CPU supports instructions that this TensorFlow binary was not compiled to use: AVX AVX2
后来在网上找到的解决方法:
import os os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2'
导入 os 模块即可不在显示该警告
1.2 下载跟安装
pip install tensorflow
cmd下运行 pip 执行安装.
本人windows系统 , 其他方法传送门.
1.3 基本用法
1 . 构建图
import tensorflow as tf # 创建一个常量 op, 产生一个 1x2 矩阵. 这个 op 被作为一个节点 # 加到默认图中. # # 构造器的返回值代表该常量 op 的返回值. matrix1 = tf.constant([[3., 3.]]) # 创建另外一个常量 op, 产生一个 2x1 矩阵. matrix2 = tf.constant([[2.],[2.]]) # 创建一个矩阵乘法 matmul op , 把 'matrix1' 和 'matrix2' 作为输入. # 返回值 'product' 代表矩阵乘法的结果. product = tf.matmul(matrix1, matrix2)
2 . 会话中启动图
手动关闭模式# 启动默认图. sess = tf.Session() # 调用 sess 的 'run()' 方法来执行矩阵乘法 op, 传入 'product' 作为该方法的参数. # 上面提到, 'product' 代表了矩阵乘法 op 的输出, 传入它是向方法表明, 我们希望取回 # 矩阵乘法 op 的输出. # # 整个执行过程是自动化的, 会话负责传递 op 所需的全部输入. op 通常是并发执行的. # # 函数调用 'run(product)' 触发了图中三个 op (两个常量 op 和一个矩阵乘法 op) 的执行. # # 返回值 'result' 是一个 numpy `ndarray` 对象. result = sess.run(product) print result # ==> [[ 12.]] # 任务完成, 关闭会话. sess.close()
自动关闭
with tf.Session() as sess: result = sess.run([product]) print result
个人推荐第二种, 妈妈再也不用担心我在忘记了~
调用其他的cpu跟gpu
with tf.Session() as sess: with tf.device("/gpu:1"): matrix1 = tf.constant([[3., 3.]]) matrix2 = tf.constant([[2.],[2.]]) product = tf.matmul(matrix1, matrix2) ... # "/cpu:0": 机器的 CPU. # "/gpu:0": 机器的第一个 GPU, 如果有的话. # "/gpu:1": 机器的第二个 GPU, 以此类推.
(注意 : 机器必须支持 . )
3 . 交互式使用
import os os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2'
# 进入一个交互式 TensorFlow 会话.
import tensorflow as tf
sess = tf.InteractiveSession()
x = tf.Variable([1.0, 2.0])
a = tf.constant([3.0, 3.0])
# 使用初始化器 initializer op 的 run() 方法初始化 'x'
x.initializer.run()
# 增加一个减法 sub op, 从 'x' 减去 'a'. 运行减法 op, 输出结果
sub = tf.subtract(x, a)
print(sub.eval())
# ==> [-2. -1.]
(注意: "sub= tf.sub(x, a)" 中 sub() 方法好像换名了, 现在正式更名为 subtract() , 怎么那么像XX宝. ^0^ )
4 . 变量
# 创建一个变量, 初始化为标量 0. state = tf.Variable(0, name="counter") # 创建一个 op, 其作用是使 state 增加 1 one = tf.constant(1) new_value = tf.add(state, one) update = tf.assign(state, new_value) # 调用run()后生效 # 启动图后, 变量必须先经过`初始化` (init) op 初始化, # 首先必须增加一个`初始化` op 到图中. init_op = tf.global_variables_initializer() # 启动图, 运行 op with tf.Session() as sess: # 运行 'init' op sess.run(init_op) # 打印 'state' 的初始值 print(sess.run(state)) # 运行 op, 更新 'state', 并打印 'state' for _ in range(3): sess.run(update) print(sess.run(state)) # 输出: # 0 # 1 # 2 # 3
(注意:initialize_all_variables() 更名了 global_variables_initializer() 步步为坑! 0.0 )
5 . Fech
input1 = tf.constant(3.0) input2 = tf.constant(2.0) input3 = tf.constant(5.0) intermed = tf.add(input2, input3) mul = tf.multiply(input1, intermed) with tf.Session() as sess: result = sess.run([mul, intermed]) # 传入多个取回多个tensor print(result) # 输出: # [21.0, 7.0]
(注意 : 又是更名惹的祸 , mul() 已经被弃用了, 现在用 multiply() 哇咔咔~~)
6 . Feed
input1 = tf.placeholder(tf.float32) input2 = tf.placeholder(tf.float32) output = tf.multiply(input1, input2) with tf.Session() as sess: print(sess.run([output], feed_dict={input1:[7.], input2:[2.]})) # 输出: # [array([ 14.], dtype=float32)]
feed 只在调用它的方法内有效, 方法结束, feed 就会消失.
标记的方法是使用 tf.placeholder()
( 注意: tf.types.float32 => tf.float32 惊不惊喜, 意不意外 )
传送门 : 门
相关文章推荐
- TensorFlow 中文资源精选,官方网站,安装教程,入门教程,实战项目,学习路径。
- TensorFlow 官方API学习02--MNIST(上)
- TensorFlow入门深度学习--01.基础知识
- TensorFlow官方教程学习笔记之1-TensorFlow入门教程(Getting Started With TensorFlow)
- 01:一文入门谷歌深度学习框架Tensorflow
- TensorFlow官方教程学习笔记(三)——MNIST入门(续)
- TensorFlow官方文档学习|TensorFlow运作方式入门
- TensorFlow 中文资源精选,官方网站,安装教程,入门教程,实战项目,学习路径
- TensorFlow 中文资源全集,官方网站,安装教程,入门教程,实战项目,学习路径。
- TensorFlow 中文资源精选,官方网站,安装教程,入门教程,实战项目,学习路径。
- tensorflow官方文档中的sub 和mul中的函数已经在API中改名了
- spring学习笔记01-spring入门
- 端口01 - 零基础入门学习汇编语言67
- Laravel5.0学习--01 入门
- 【01】框架学习—Hibernate第一个入门案例
- android官方教程学习01——ActionBar1
- 深度学习6:TensorFlow运作方式入门
- 【学习笔记】TensorFlow 入门之基本使用
- 新浪微博API使用入门:申请应用、授权、使用官方java版本SDK
- tensorflow 入门学习(2)