具體描述
基本信息
書名:機器人探索(第二版)
定價:47.00元
作者:尹超
齣版社:北京大學齣版社
齣版日期:2017-12-01
ISBN:9787301288085
字數:
頁碼:
版次:2
裝幀:平裝-膠訂
開本:16開
商品重量:0.4kg
編輯推薦
《機器人探索(第二版)》以貼近學生生活的案例活動來講解如何用樂高 WeDo 2.0 搭建機器人。本書的齣版不僅可以豐富小學科普課程的內容,而且為新課程的實施創建瞭寬闊的空間,為培養學生的創新能力,全麵實施素質教育提供瞭滋潤創新的沃土。
內容提要
《機器人探索(第二版)》以貼近學生生活的案例活動展開對WeDo 2.0 機器人的基礎零件和編程平颱的學習,介紹瞭北大附小的學生對於機器人學習探索的經驗。本書以學習—創造—探究—思考—分享—評價—閱讀為主綫,在搭建機器人結構和編寫機器人程序的過程中,鼓勵學生習得、融閤、應用多學科知識,不斷發現問題、解決問題,促進創造創新思維的提升。同時,可以利用評價錶對個人及團隊在活動中的錶現進行評價以促進共同成長。每個活動之後還有補充的“閱讀”材料,目的在於激發孩子們繼續探索研究發現創造的興趣。
本書適閤對機器人學習感興趣的老師和學生使用。
目錄
第 1 課 新鮮的 WeDo 2.0
第 2 課 愛花的毛毛蟲
第 3 課 魚和青蛙的故事
第 4 課 地震中的房屋
第 5 課 形狀變形計
第 6 課 大力士來訪
第 7 課 開著賽車去旅行
第 8 課 直升機新體驗
第 9 課 搖擺舞跳起來
第 10 課 聰明的水閘
第 11 課 不走尋常路之一
第 12 課 不走尋常路之二
第 13 課 非常起重機之一
第 14 課 非常起重機之二
第 15 課 勤勞的吊車之一
第 16 課 勤勞的吊車之二
作者介紹
尹超,北京大學附屬小學校長,專注學校教育教學幾十年,承擔多項國傢重點科研課題,獲得多項國傢、市級教育教學研究成果奬,主編二十幾部著作齣版。
文摘
序言
《機器學習原理與實踐》(第三版) 內容簡介: 《機器學習原理與實踐》(第三版)是係統介紹機器學習核心理論、算法及應用的書籍。本書旨在幫助讀者全麵理解機器學習的原理,掌握常用算法的實現細節,並能將其應用於實際問題解決。第三版在第二版基礎上,針對近年來機器學習領域的飛速發展,對內容進行瞭大幅度的更新和擴充,新增瞭深度學習的最新進展、強化學習的進階應用、模型解釋性技術以及一些新興的算法和應用場景,力求為讀者提供最前沿、最實用的知識體係。 第一部分:機器學習基礎 本部分將深入淺齣地介紹機器學習的基本概念、數學基礎以及常見的學習範式。 第一章 機器學習導論: 1.1 什麼是機器學習? 從人類學習的類比齣發,闡述機器學習的核心思想——讓計算機通過數據學習規律,而非顯式編程。 定義機器學習的幾個關鍵要素:數據、模型、算法、目標函數。 探討機器學習在人工智能領域的地位和作用,以及其在當今社會的應用價值。 1.2 機器學習的類型: 監督學習(Supervised Learning): 詳細介紹標注數據的概念,並區分分類(Classification)和迴歸(Regression)問題,給齣實際應用案例,如垃圾郵件檢測、房價預測。 無監督學習(Unsupervised Learning): 闡述無標注數據的學習方式,介紹聚類(Clustering)和降維(Dimensionality Reduction)等任務,並舉例說明,如用戶分群、數據可視化。 半監督學習(Semi-Supervised Learning): 解釋混閤使用標注和無標注數據的優勢,以及其在數據稀缺場景下的重要性。 強化學習(Reinforcement Learning): 介紹智能體(Agent)、環境(Environment)、動作(Action)和奬勵(Reward)等概念,闡述其通過試錯學習最優策略的過程,並提及經典案例如遊戲AI。 1.3 機器學習的數學基礎: 綫性代數(Linear Algebra): 重點介紹嚮量、矩陣、張量及其基本運算,講解矩陣分解(如SVD)、特徵值分解在機器學習中的應用,如PCA。 概率論與數理統計(Probability and Statistics): 梳理概率的基本概念、隨機變量、概率分布(如高斯分布、伯努利分布),以及貝葉斯定理在模型推斷中的應用。介紹期望、方差、協方差等統計量,以及最大似然估計(MLE)、最大後驗估計(MAP)等參數估計方法。 微積分(Calculus): 強調梯度下降法中導數和偏導數的作用,介紹多元函數求導,以及鏈式法則在反嚮傳播算法中的應用。 1.4 機器學習流程: 數據收集與準備: 強調數據質量的重要性,介紹數據清洗、缺失值處理、異常值檢測、特徵工程(特徵選擇、特徵提取、特徵變換)的步驟和方法。 模型選擇: 基於問題類型和數據特點,選擇閤適的模型。 模型訓練: 講解模型參數的優化過程,介紹損失函數(Loss Function)和優化器(Optimizer)的作用。 模型評估: 介紹評估指標(如準確率、精確率、召迴率、F1分數、ROC麯綫、MSE、MAE等),以及交叉驗證(Cross-Validation)等方法。 模型調優與部署: 講解超參數調優、模型泛化能力的重要性,以及如何將訓練好的模型集成到實際應用中。 第二部分:經典機器學習算法詳解 本部分將詳細介紹一係列經典且應用廣泛的機器學習算法,剖析其原理、優缺點及實現細節。 第二章 監督學習算法: 2.1 綫性模型(Linear Models): 綫性迴歸(Linear Regression): 講解最小二乘法求解模型參數,以及正則化(L1, L2)如何防止過擬閤。 邏輯斯蒂迴歸(Logistic Regression): 介紹Sigmoid函數,以及如何將其應用於二分類問題,講解Softmax迴歸處理多分類問題。 2.2 支持嚮量機(Support Vector Machines, SVM): 闡述最大間隔分類器的思想,講解核技巧(Kernel Trick)如何將低維數據映射到高維空間以實現綫性可分。 介紹不同核函數(綫性核、多項式核、徑嚮基函數核RBF)的特點。 討論軟間隔SVM和懲罰參數C的含義。 2.3 決策樹(Decision Trees): 介紹基於信息增益或基尼不純度進行節點劃分的貪婪算法。 講解如何構建分類樹和迴歸樹。 分析剪枝(Pruning)技術以避免過擬閤。 2.4 集成學習(Ensemble Learning): Bagging: 講解Bootstrap Aggregating的思想,以隨機森林(Random Forests)為例,介紹其如何通過構建多棵決策樹並投票來提高魯棒性和準確性。 Boosting: 介紹AdaBoost、Gradient Boosting(如GBDT, XGBoost, LightGBM)等算法,講解其如何迭代地訓練弱學習器,並重點關注之前預測錯誤的樣本。 2.5 K近鄰算法(K-Nearest Neighbors, KNN): 講解基於實例的學習方法,根據“物以類聚”的原則進行分類或迴歸。 討論距離度量(如歐氏距離、曼哈頓距離)的選擇以及K值的選取對模型性能的影響。 第三章 無監督學習算法: 3.1 聚類算法(Clustering Algorithms): K-Means聚類: 詳細講解算法步驟,包括初始化、分配樣本、更新質心等,討論K值選取和初始質點選擇的影響。 層次聚類(Hierarchical Clustering): 介紹凝聚型(Agglomerative)和分裂型(Divisive)兩種方式,以及樹狀圖(Dendrogram)的錶示。 DBSCAN(Density-Based Spatial Clustering of Applications with Noise): 闡述基於密度的聚類方法,能夠發現任意形狀的簇,並處理噪聲點。 3.2 降維算法(Dimensionality Reduction Algorithms): 主成分分析(Principal Component Analysis, PCA): 講解如何找到數據方差最大的方嚮(主成分),並保留最重要的信息,實現降維。 t-SNE(t-Distributed Stochastic Neighbor Embedding): 重點介紹其在高維數據可視化中的強大能力,講解其如何保留局部鄰域結構。 獨立成分分析(Independent Component Analysis, ICA): 介紹其用於信號分離的原理,尋找統計上獨立的信號分量。 第三部分:深度學習及其應用 本部分將深入探討深度學習的強大能力,介紹核心神經網絡結構和訓練方法,並展示其在圖像、文本等領域的突破性應用。 第四章 神經網絡基礎: 4.1 感知機(Perceptron): 介紹最簡單的神經網絡單元,及其綫性分類能力。 4.2 多層感知機(Multi-Layer Perceptron, MLP): 介紹隱藏層、激活函數(Sigmoid, Tanh, ReLU)及其作用,講解前嚮傳播(Forward Propagation)過程。 反嚮傳播算法(Backpropagation Algorithm): 詳細闡述誤差反嚮傳播和梯度下降的結閤,是訓練多層神經網絡的核心。 4.3 深度學習的優化: 損失函數: 介紹交叉熵損失(Cross-Entropy Loss)、均方誤差損失(Mean Squared Error Loss)等。 優化器: 講解SGD、Momentum、Adam、RMSprop等優化算法,以及它們如何加速模型收斂。 正則化技術: Dropout, Batch Normalization, L1/L2正則化等,用於防止過擬閤,提高模型泛化能力。 第五章 捲積神經網絡(Convolutional Neural Networks, CNN): 5.1 CNN的核心組件: 捲積層(Convolutional Layer): 講解捲積核(Filter)的作用,如何提取局部特徵,以及感受野的概念。 池化層(Pooling Layer): 介紹最大池化(Max Pooling)和平均池化(Average Pooling),及其降低維度、增強模型魯棒性的作用。 全連接層(Fully Connected Layer): 講解CNN末端的分類器。 5.2 經典CNN架構: 介紹LeNet, AlexNet, VGG, ResNet, Inception等裏程碑式的CNN模型,分析其結構創新和性能提升。 5.3 CNN的應用: 圖像分類、物體檢測、圖像分割、人臉識彆等。 第六章 循環神經網絡(Recurrent Neural Networks, RNN)與Transformer: 6.1 RNN的序列建模能力: 講解RNN的基本結構,如何處理序列數據,以及其在文本、語音等領域的應用。 長短期記憶網絡(Long Short-Term Memory, LSTM)和門控循環單元(Gated Recurrent Unit, GRU): 解決RNN的梯度消失/爆炸問題,更好地捕捉長期依賴關係。 6.2 Transformer模型: 介紹自注意力機製(Self-Attention Mechanism)的強大能力,能夠並行處理序列,並捕捉任意位置的依賴關係。 講解Transformer在自然語言處理(NLP)領域的革命性影響,以及BERT、GPT等預訓練模型。 6.3 RNN/Transformer的應用: 機器翻譯、文本生成、語音識彆、情感分析等。 第四部分:進階主題與實踐 本部分將拓展至更深入的機器學習技術,並指導讀者進行實際項目開發。 第七章 強化學習進階: 7.1 馬爾可夫決策過程(Markov Decision Process, MDP): 形式化強化學習問題。 7.2 值迭代與策略迭代: 求解最優值函數和最優策略。 7.3 Q-Learning與Deep Q-Networks(DQN): 結閤深度學習進行強化學習。 7.4 Actor-Critic方法: 融閤策略梯度和值函數學習。 7.5 強化學習的應用: 機器人控製、遊戲AI、推薦係統等。 第八章 模型解釋性與可信AI: 8.1 為什麼需要模型解釋性? 探討模型的可解釋性、公平性、魯棒性和隱私性。 8.2 模型無關解釋方法: LIME (Local Interpretable Model-agnostic Explanations), SHAP (SHapley Additive exPlanations)。 8.3 模型特定解釋方法: 決策樹的可視化、CNN的類激活圖(CAM)。 8.4 可信AI的挑戰與機遇。 第九章 機器學習項目實踐: 9.1 從零開始構建一個機器學習項目: 需求分析與問題定義。 數據獲取與探索性數據分析(EDA)。 特徵工程的實踐技巧。 模型選擇與評估的迭代過程。 超參數調優的係統方法。 模型部署與監控。 9.2 案例分析: 結閤實際業務場景,如電商用戶行為預測、金融風險評估、醫療影像分析等,貫穿整個項目流程。 9.3 工具與框架: 介紹Python生態係統中的主流機器學習庫(Scikit-learn, TensorFlow, PyTorch),以及數據處理工具(Pandas, NumPy)。 附錄 附錄A:常用機器學習算法僞代碼 附錄B:數學公式匯總 附錄C:機器學習術語錶 《機器學習原理與實踐》(第三版)通過理論與實踐相結閤的方式,為讀者構建一個紮實而全麵的機器學習知識體係。無論您是希望入門機器學習的研究者、希望提升技能的工程師,還是對人工智能感興趣的初學者,本書都將是您寶貴的學習資源。