
=================
建造:
=================
本章打算在TensorFlow中介紹主要對象和概念。我們還介紹瞭如何訪問本書其餘部分的數據,並提供了有關張力流的其他資源。
在TensorFlow中建立了基本對象和方法之後,我們現在想建立組成TensorFlow算法的組件。我們首先引入計算圖,然後轉移到損失功能和返回傳播。我們以創建一個簡單的分類器結尾,然後展示評估回歸和分類算法的示例。
在這裡,我們展示瞭如何在TensorFlow中實現各種線性回歸技術。前兩個部分顯示瞭如何在TensorFlow中進行標準矩陣線性回歸求解。其餘的六個部分描述瞭如何使用TensorFlow中的計算圖實施各種類型的回歸。
本章介紹瞭如何使用TensorFlow實施各種SVM方法。我們首先創建一個線性SVM,並顯示如何用於回歸。然後,我們介紹內核(RBF高斯內核),並展示如何使用它來拆分非線性數據。我們完成了非線性SVM的多維實現,以與多個類一起使用。
最近的鄰居方法是一種非常流行的ML算法。我們展示瞭如何實現具有混合距離功能的k-nearest鄰居,加權的K-Neart鄰居和K-Nearest鄰居。在本章中,我們還展示瞭如何在Tensorflow中使用Levenshtein距離(編輯距離),並使用它來計算字符串之間的距離。我們結束了本章,展示瞭如何使用MNIST手寫的數字識別來使用K-Nearest鄰居進行分類預測。
由於先前未解決的問題的重大突破,神經網絡在機器學習中非常重要,並且在受歡迎程度上越來越受歡迎。我們必須從引入“淺”神經網絡開始,這些神經網絡非常強大,可以幫助我們改善先前的ML算法結果。我們首先引入非常基本的NN單元,即操作門。我們逐漸為神經網絡添加了越來越多的人,並以訓練模型來播放TIC-TAC-TOE。
自然語言處理(NLP)是將文本信息處理成數值摘要,功能或模型的一種方式。在本章中,我們將激勵和解釋如何在TensorFlow中最好地處理文本。我們展示瞭如何實現經典的“詞袋”,並表明可能有更好的方法根據手頭的問題嵌入文本。有名為Word2Vec(CBOW和SKIP-GRAM)和DOC2VEC的神經網絡嵌入。我們展示瞭如何在TensorFlow中實現所有這些。
卷積神經網絡(CNN)是獲取神經網絡處理圖像數據的方法。 CNN從使用卷積層的使用中得出其名稱,該卷積層在較大圖像上應用固定尺寸的濾波器,並在圖像的任何部分中識別模式。他們使用的其他許多工具(最大供電,輟學等)我們展示瞭如何使用TensorFlow實現。我們還展示瞭如何重新訓練現有建築,並通過StyLenet和Deak Dream進行進一步的CNN。
復發性神經網絡(RNN)與常規神經網絡非常相似,只是它們允許“經常性”連接或取決於網絡先前狀態的循環。這允許RNN有效地處理順序數據,而其他類型的網絡則不能。然後,我們激勵使用LSTM(長期短期內存)網絡的用法是解決常規RNN問題的一種方式。然後,我們展示在TensorFlow中實現這些RNN類型的容易性。
當然,不僅僅是創建和擬合機器學習模型,張量還不僅僅是張量。一旦有了要使用的模型,我們就必須將其轉向生產使用情況。本章將使用多個計算機(TensorFlow分佈式)使用多個處理器提供實施單元測試的提示和示例,並提供完整的生產示例。
為了說明多功能張量流的多樣性,我們將在本章中顯示其他示例。我們首先展示如何使用日誌記錄/可視化工具張板。然後,我們說明瞭如何進行K-均值聚類,使用遺傳算法並求解ODES系統。