【abner】TF学习小组学习总结笔记


#1

开贴,希望自己能够坚持下去! 1、机器器学习中,监督学习 or 非监督学习概念区分,应⽤用场景调研? 2、做机器器学习项目,有哪些环节? 3、深度学习,目前有哪些应用领域? 4、数据预处理理,需要注意哪些? 5、tensorflow运行原理,架构有哪些核心点? 6、学习中的知识点收获记录?


#2

加油,争取按时完成作业。:joy:


#3

week1作业

import tensorflow as tf

sess =  tf.Session()
x = tf.constant(2)
y = tf.constant(3)
z = tf.constant(7)
res = sess.run(x*y+z)

print(res)

import tensorflow as tf

a = t.constant([[3.,3.]])
b = t.constant([[2.],[2.]])
sess = tf.Session()
c = sess.run(tf.matmul(a,b))

print(c)

#4

week1 笔记 监督学习和非监督学习:是否有监督(supervised),就看输入数据是否有标签(label)。输入数据有标签,则为有监督学习,没标签则为无监督学习。例如构建一个分类器时,训练集中是否含有对每项数据已知的正确的类别,有则是监督学习,没有则是非监督学习。

tensorflow的运行原理:TensorFlow 是一个编程系统, 使用图来表示计算任务. 图中的节点被称之为 op (operation 的缩写). 一个 op 获得 0 个或多个 Tensor , 执行计算, 产生 0 个或多个 Tensor . 每个 Tensor 是一个类型化的多维数组. 例如, 你可以将一小组图像集表示为一个四维浮点数数组, 这四个维度分别是 [batch, height, width, channels] 。 一个 TensorFlow 图描述了计算的过程. 为了进行计算, 图必须在 会话 里被启动. 会话 将图的 op 分发到诸如 CPU 或 GPU 之类的 设备 上, 同时提供执行 op 的方法. 这些方法执行后, 将产生的 tensor 返回。

数据预处理:现实世界中数据大体上都是不完整,不一致的脏数据,无法直接进行数据挖掘,或挖掘结果差强人意。为了提高数据挖掘的质量产生了数据预处理技术。 数据预处理有多种方法:数据清理,数据集成,数据变换,数据归约等。这些数据处理技术在数据挖掘之前使用,大大提高了数据挖掘模式的质量,降低实际挖掘所需要的时间。


#5

week2 笔记

线性分类

我们将要实现一种更强大的方法来解决图像分类问题,该方法可以自然地延伸到神经网络和卷积神经网络上。这种方法主要有两部分组成:一个是 评分函数(score function),它是原始图像数据到类别分值的映射。另一个是 损失函数(loss function),它是用来量化预测分类标签的得分与真实标签之间一致性的。该方法可转化为一个最优化问题,在最优化过程中,将通过更新评分函数的参数来最小化损失函数值。

线性分类器:在本模型中,我们从最简单的概率函数开始,一个线性映射:

在上面的公式中,假设每个图像数据都被拉长为一个长度为D的列向量,大小为[D x 1]。其中大小为[K x D]的矩阵 W和大小为[K x 1]列向量 b为该函数的 参数(parameters)。还是以CIFAR-10为例,x_i就包含了第i个图像的所有像素信息,这些信息被拉成为一个[3072 x 1]的列向量,W大小为[10x3072],b的大小为[10x1]。因此,3072个数字(原始像素数值)输入函数,函数输出10个数字(不同分类得到的分值)。参数 W被称为 权重(weights)b被称为 偏差向量(bias vector),这是因为它影响输出数值,但是并不和原始数据x_i产生关联。在实际情况中,人们常常混用权重和参数这两个术语。

back propagation 算法