
=================
建造:
=================
本章打算在TensorFlow中介绍主要对象和概念。我们还介绍了如何访问本书其余部分的数据,并提供了有关张力流的其他资源。
在TensorFlow中建立了基本对象和方法之后,我们现在想建立组成TensorFlow算法的组件。我们首先引入计算图,然后转移到损失功能和返回传播。我们以创建一个简单的分类器结尾,然后展示评估回归和分类算法的示例。
在这里,我们展示了如何在TensorFlow中实现各种线性回归技术。前两个部分显示了如何在TensorFlow中进行标准矩阵线性回归求解。其余的六个部分描述了如何使用TensorFlow中的计算图实施各种类型的回归。
本章介绍了如何使用TensorFlow实施各种SVM方法。我们首先创建一个线性SVM,并显示如何用于回归。然后,我们介绍内核(RBF高斯内核),并展示如何使用它来拆分非线性数据。我们完成了非线性SVM的多维实现,以与多个类一起使用。
最近的邻居方法是一种非常流行的ML算法。我们展示了如何实现具有混合距离功能的k-nearest邻居,加权的K-Neart邻居和K-Nearest邻居。在本章中,我们还展示了如何在Tensorflow中使用Levenshtein距离(编辑距离),并使用它来计算字符串之间的距离。我们结束了本章,展示了如何使用MNIST手写的数字识别来使用K-Nearest邻居进行分类预测。
由于先前未解决的问题的重大突破,神经网络在机器学习中非常重要,并且在受欢迎程度上越来越受欢迎。我们必须从引入“浅”神经网络开始,这些神经网络非常强大,可以帮助我们改善先前的ML算法结果。我们首先引入非常基本的NN单元,即操作门。我们逐渐为神经网络添加了越来越多的人,并以训练模型来播放TIC-TAC-TOE。
自然语言处理(NLP)是将文本信息处理成数值摘要,功能或模型的一种方式。在本章中,我们将激励和解释如何在TensorFlow中最好地处理文本。我们展示了如何实现经典的“词袋”,并表明可能有更好的方法根据手头的问题嵌入文本。有名为Word2Vec(CBOW和SKIP-GRAM)和DOC2VEC的神经网络嵌入。我们展示了如何在TensorFlow中实现所有这些。
卷积神经网络(CNN)是获取神经网络处理图像数据的方法。 CNN从使用卷积层的使用中得出其名称,该卷积层在较大图像上应用固定尺寸的滤波器,并在图像的任何部分中识别模式。他们使用的其他许多工具(最大供电,辍学等)我们展示了如何使用TensorFlow实现。我们还展示了如何重新训练现有建筑,并通过StyLenet和Deak Dream进行进一步的CNN。
复发性神经网络(RNN)与常规神经网络非常相似,只是它们允许“经常性”连接或取决于网络先前状态的循环。这允许RNN有效地处理顺序数据,而其他类型的网络则不能。然后,我们激励使用LSTM(长期短期内存)网络的用法是解决常规RNN问题的一种方式。然后,我们展示在TensorFlow中实现这些RNN类型的容易性。
当然,不仅仅是创建和拟合机器学习模型,张量还不仅仅是张量。一旦有了要使用的模型,我们就必须将其转向生产使用情况。本章将使用多个计算机(TensorFlow分布式)使用多个处理器提供实施单元测试的提示和示例,并提供完整的生产示例。
为了说明多功能张量流的多样性,我们将在本章中显示其他示例。我们首先展示如何使用日志记录/可视化工具张板。然后,我们说明了如何进行K-均值聚类,使用遗传算法并求解ODES系统。