向量
向量在编程语言中就是最常用的一维数组(Vector)。
二维数组叫做矩阵(Matrix),三维以上叫做张量(Tensor)。
向量虽然简单,高效,且容易理解。但是与操作0维的标量数据毕竟还是不同的。比如向量经常用于表示一个序列,生成序列像标量一样一个一个手工写就不划算了。当然可以用循环来写。在向量中这样还好,如果是在矩阵或者是张量中就强烈建议不要用循环来做了。系统提供的函数一般都是经过高度优化的,而且可以使用GPU资源来进行加速。
我们一方面尽可能地多使用系统的函数,另一方面也不要迷信它们,代码优化是一个实践的过程,可以实际比较测量一下。
快速生成向量的方法
range函数生成等差数列
tf.range函数用来快速生成一个等差数列。相当于之前我们讲numpy时的np.arange函数。
原型:
tf.range(start, limit, delta=1, dtype=None, name='range')
例:
b11 = tf.range(1,100,1)
print(b11)
print(sess.run(b11))
Tensor("range:0", shape=(99,), dtype=int32)
[ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24
25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48
49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72
73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96
97 98 99]
linspace生成浮点等差数组
tf.linspace与tf.range的区别在于,数据类型不同。
tf.lin_space(start, stop, num, name=None)
其中,start和stop必须是浮点数,且类型必须相同。num必须是整数。
例:
a2 = tf.linspace(1.0,10.0,4)
print(a2)
print(sess.run(a2))
Tensor("LinSpace:0", shape=(4,), dtype=float32)
[ 1. 4. 7. 10.]
拼瓷砖
就是将一段向量重复若干次。
a10 = tf.range(1,4,1)
print(a10)
print(sess.run(a10))
a11 = tf.tile(a10,[3])
print(a11)
print(sess.run(a11))
Tensor("range_1:0", shape=(3,), dtype=int32)
[1 2 3]
Tensor("Tile:0", shape=(9,), dtype=int32)
[1 2 3 1 2 3 1 2 3]
向量操作
将向量反序
可以使用tf.reverse函数。
原型:
tf.reverse( tensor, axis, name=None)
tensor是向量,axis轴对于向量不重要,给个[-1]就可以了。折腾轴是张量时间的事情,暂时还用不到。
a2 = tf.linspace(1.0,10.0,4)
print(sess.run(a2))
a3 = tf.reverse(a2,[-1])
print(sess.run(a3))
[ 1. 4. 7. 10.]
[10. 7. 4. 1.]
切片
切片也是向量的常用操作之一,就是取数组的一部分。
例:
a5 = tf.linspace(1.0,100.0, 10)
print(sess.run(a5))
a6 = tf.slice(a5, [2],[4])
print(sess.run(a6))
[ 1. 12. 23. 34. 45. 56. 67. 78. 89. 100.]
[23. 34. 45. 56.]
将来处理张量时,我们从一个矩阵切一块,或从一个张量中切一块,就好玩得多了。但是原理跟向量上是一样的。
连接
tf.concat也是需要给定轴信息的。对于两个线性的向量,我们给0或者-1就好。
a20 = tf.linspace(1.0,2.0,10)
print(sess.run(a20))
a21 = tf.linspace(2.0,3.0,5)
print(sess.run(a21))
a23 = tf.concat([a20,a21],-1)
print(sess.run(a23))
[1. 1.1111112 1.2222222 1.3333334 1.4444444 1.5555556 1.6666667
1.7777778 1.8888888 2. ]
[2. 2.25 2.5 2.75 3. ]
[1. 1.1111112 1.2222222 1.3333334 1.4444444 1.5555556 1.6666667
1.7777778 1.8888888 2. 2. 2.25 2.5 2.75 3. ]
向量计算
向量加减法
同样长度的向量之间可以进行加减操作。
例:
a40 = tf.constant([1,1])
a41 = tf.constant([2,2])
a42 = a40 + a41
print(sess.run(a42))
a43 = a40 - a41
print(a43)
print(sess.run(a43))
[3 3]
Tensor("sub:0", shape=(2,), dtype=int32)
[-1 -1]
向量乘除标量
向量乘除标量也非常好理解,就是针对向量中的每个数都做乘除法。
例:
a44 = a40 * 2
print(sess.run(a44))
a45 = a44 / 2
print(sess.run(a45))
print(a44)
print(a45)
[2 2]
[1. 1.]
Tensor("mul:0", shape=(2,), dtype=int32)
Tensor("truediv:0", shape=(2,), dtype=float64)
广播运算
如果针对向量和标量进行加减运算,也是会对向量中的每个数进行加减运算。这种操作称为广播操作。
例:
a46 = a40 + 1
print(sess.run(a46))
print(a46)
[2 2]
Tensor("add_1:0", shape=(2,), dtype=int32)
向量乘法
两个向量相乘,默认的运算是求元素对应乘积(element-wise product),也叫做Hadamard积。
例:
b1 = tf.constant([1, 2])
b2 = tf.constant([2, 1])
b3 = b1 * b2
print(b3)
print(sess.run(b3))
Tensor("mul_1:0", shape=(2,), dtype=int32)
[2 2]
直接调用tf.multiply也是同样的效果,例:
b4 = tf.multiply(b1,b2)
print(b4)
print(sess.run(b4))
Tensor("Mul_2:0", shape=(2,), dtype=int32)
[2 2]
如果要计算点积(dot product)的话,我们得提前剧透一下矩阵的内容了。
首先,用向量是没法做矩阵计算的。
例:
a21 = tf.constant([2,3])
a22 = tf.constant([4,5])
print(a21)
print(a22)
Tensor("Const_8:0", shape=(2,), dtype=int32)
Tensor("Const_9:0", shape=(2,), dtype=int32)
这样(2,)的形状是向量,我们得先把它转换成(2,1)这样的单行矩阵,如下:
a31 = tf.constant(sess.run(tf.reshape(a21,[2,1])))
a32 = tf.constant(sess.run(tf.reshape(a22,[2,1])))
print(a31)
print(a32)
Tensor("Const_10:0", shape=(2, 1), dtype=int32)
Tensor("Const_11:0", shape=(2, 1), dtype=int32)
下面我们终于可以计算点积了,我们知道点积A.B相当于A的转置乘以B,我们可以通过matmul函数来进行矩阵乘法。
a31 = tf.matmul(a31,a32,transpose_a=True)
print(sess.run(a31)) # 也就是2*4+3*5=23
[[23]]
我们也可以用tf.tensordot函数来计算点积。我们刚才为什么没用呢?答案是tensordot要求是浮点型矩阵。
例:
第一步,需要浮点数:
f01 = tf.constant([1,1],dtype=tf.float32)
f02 = tf.constant([1,2],dtype=tf.float32)
第二步,reshape成单行矩阵:
f11 = tf.constant(sess.run(tf.reshape(f01,[2,1])))
f12 = tf.constant(sess.run(tf.reshape(f02,[2,1])))
print(f11)
print(f12)
Tensor("Const_14:0", shape=(2, 1), dtype=float32)
Tensor("Const_15:0", shape=(2, 1), dtype=float32)
第三步,调用tensordot
f13 = tf.tensordot(f11,f12,2)
print(sess.run(f13))
3.0
小结
从上面我们学习的函数我们可以看到,与普通语言中提供的函数多是为一维数组操作不同,Tensorflow中的切片、拼接等操作也是基于张量的。
当我们后面学到张量遇到困难时,不妨回来看下这一节。不管后面张量多么复杂,其实也只是从一维向二维和多维推广而己。