中图网文创礼盒,买2个减5元
欢迎光临中图网 请 | 注册

机器学习

作者:周文安
出版社:北京邮电大学出版社出版时间:2021-09-01
开本: 其他 页数: 207
¥19.6(5.0折)?

预估到手价是按参与促销活动、以最优惠的购买方案计算出的价格(不含优惠券部分),仅供参考,未必等同于实际到手价。

00:00:00
中 图 价:¥21.8(5.6折)定价  ¥39.0 登录后可看到会员价
加入购物车 收藏
运费6元,全场折上9折期间 满39元包邮
?快递不能达地区使用邮政小包,运费14元起
云南、广西、海南、新疆、青海、西藏六省,部分地区快递不可达
本类五星书更多>

机器学习 版权信息

  • ISBN:9787563565030
  • 条形码:9787563565030 ; 978-7-5635-6503-0
  • 装帧:一般胶版纸
  • 册数:暂无
  • 重量:暂无
  • 所属分类:>

机器学习 内容简介

本书作为计算机学科数据科学与大数据专业的专业基础课的教材。本书内容考虑到和本专业其他课程内容的相互补充,重点突出对机器学习的基本概念和理论的讲解, 包括计算学习理论,监督学习、无监督学习和强化学习理论等等;并同时强调对常见的机器学习算法的讲解,包括概念学习、神经网络、生成式概率模型、集成学习、深度学习、迁移学习、强化学习等。

机器学习 目录

第1章 机器学习概述 1.1 什么是机器学习 1.2 通过MNIST解机器学习 1.2.1 MNIST概述 1.2.2 MNIST数据结构 1.2.3 利用MNIST数据集训练神经网络 1.3 机器学习系统构成要素 1.3.1 任务 1.3.2 模型 1.3.3 特征 1.4 机器学习基本模型 1.4.1 JI.何模型 1.4.2 概率模型 1.4.3 逻辑模型 l.5 发展历程 1.5.1 机器学习的萌芽时期 1.5.2 机器学习的热烈时期 1.5.3 机器学习的冷静时期 1.5.4 机器学习的复兴时期 1.5.5 机器学习的多元发展时期 本章小结 习题 第2章 几何模型 2.1 线性分类器 2.2 支持向量机 2.3 *近邻算法 2.4 K均值聚类 本章小结 延伸阅读 习题 第3章 概念学习 3.1 概念学习的定义 3.2 概念学习任务的表述 3.3 术语定义 3.3.1 假设空间 3.3.2 一般到特殊序 3.3.3 一致与变型空间 3.4 FINI)_S算法 3.5 候选消除算法 3.5.1 先列表后消除算法 3.5.2 变型空间的简明表示 3.5.3 候选消除算法的说明 3.5.4 候选消除算法的示例 本章小结 延伸阅读 习题 第4章 人工神经网络 4.1 人工神经网络的介绍 4.2 神经元模型 4.3 适合神经网络学习的问题 4.4 感知器与多层网络 4.4.1 感知器的表征能力 4.4.2 感知器学习算法 4.4.3 Delta法则 4.5 多层网络和反向传播算法 4.5.1 可微阈值单元和前向传播 4.5.2 二次代价函数 4.5.3 反向传播算法 4.6 利用单隐藏层BPNN处理MNIsT学习数据集 4.7 BPNN的应用、BPNN的优缺点及改进 本章小结 延伸阅读 习题 第5章 模型的评估和选择 5.1 测试集与训练集 5.2 经验误差与泛化误差 5.3 过拟合和欠拟合 5.4 测试集样本数据获取方法 5.4.1 留出法 5.4.2 研折交叉验证法 5.4.3 自助法 5.5 模型性能度量 5.5.1 回归模型的性能度量 5.5.2 分类模型的性能度量 5.6 回归模型的泛化误差分解 本章小结 延伸阅读 习题 第6章 概率模型 6.1 生成式概率模型与判别式概率模型 6.2 贝叶斯决策论 6.3 朴素贝叶斯模型 6.3.1 朴素贝叶斯分类器 6.3.2 极大似然估计 6.3.3 拉普拉斯修正 6.3.4 学习与分类算法 6.4 逻辑斯蒂回归模型 6.4.1 逻辑斯蒂分布 6.4.2 二项逻辑斯蒂回归模型 6.4.3 模型参数估计 6.4.4 多项逻辑斯蒂回归 6.4.5 逻辑斯蒂回归举例 6.4.6 逻辑斯蒂回归进一步讨论 6.5 高斯混合模型 6.5.1 高斯混合模型的定义 6.5.2 EM算法 6.5.3 高斯混合模型的参数估计 6.5.4 高斯混合模型举例与计算过程详解 6.5.5 高斯混合模型进一步讨论 本章小结 延伸阅读 习题 第7章 集成学习 7.1 集成学习概述 7.2 Bagging算法 7.2.1 自助采样Bagging算法 7.2.2 随机森林Bagging算法 7.3 Boosting算法 7.3.1 算法基本介绍 7.3.2 AdaBoost算法推导 7.3.3 AdaBoost算法步骤 7.3.4 AdaBoost算法应用举例 7.4 集成策略 7.5 Bagging算法与Boosting算法对比 本章小结 延伸阅读 习题 第8章 强化学习 8.1 强化学习简介 8.1.1 什么是强化学习 8.1.2 强化学习算法分类 8.2 Q-Learning算法 8.2.1 Q—Learning的原理 8.2.2 Q—Learning算法的步骤 8.2.3 Q—Learning算法中的衰减因子 8.2.4 Q—Learning算法试验 8.3 SARSA算法 8.3.1 SARSA。算法的步骤 8.3 一SA.RSA算法试验 8.3.3 SARSA(Lambda)算法 8.3.4 SARSA(Lambda)试验 本章小结 延伸阅读 习题 第9章 迁移学习 9.1 迁移学习的基本概念 9.1.1 迁移学习概述 9.1.2 迁移学习的定义 9.1.3 迁移学习的分类 9.2 迁移学习的算法 9.2.1 TrAdaBoost算法 9.2.2 TcA算法 9.2.3 JDA算法 9.2.4 TransEMDT算法 本章小结 延伸阅读 第10章 卷积神经网络 10.1 卷积运算 10.1.1 一维离散信号卷积 10.1.2 二维离散信号卷积 10.1.3 二维互相关 10.1.4 多层卷积和多通道卷积 10.1.5 池化 10.1.6 图像卷积运算示例 10.2 卷积神经网络 10.2.1 基本网络结构 10.2.2 CNN的特点 10.3 CNN反向训练 10.3.1 全连接层 10.3.2 池化层 10.3.3 卷积层 10.4 CNN处理MNIST数据集试验 10.4.1 网络结构 10.4.2 测试结果及讨论 本章小结 延伸阅读 习题 第11章 循环神经网络 11.1 简单循环神经网络 11.1.1 字符级别语言模型简介 11.1.2 网络结构 11.1.3 前向传播算法 11.1.4 反向传播算法 11.1.5 简单RNN 11.1.6 简单RNN梯度爆炸和梯度消失 11.2 LSTM 11.2.1 LSTM的发展历史和基本结构 11.2.2 LsTM前向传播 11.2.3 LsTM反向传播 11.2.4 其他形式的LSTM 11.3 双向RNN 1l.4深度RNN 本章小结 延伸阅读 习题 第12章 计算学习理论 12.1 简介 12.2 PAC可学习性 12.3 有限假设空间的样本复杂度 12.3.1 可分情形 12.3.2 不可分情形 12.4 无限假设空间的样本复杂度 12.4.1 实例集合打散 12.4.2 vC维的定义和样本复杂度 12.4.3 基于VC维表示的泛化误差 12.5 算法稳定性 本章小结 延伸阅读 习题 参考文献
展开全部

机器学习 作者简介

周文安,男,北京邮电大学计算机学院数据科学及服务中心副教授,博士生导师。中国人工智能学会智能服务专业委员会委员,中国通信学学会高级会员,北邮九三学社基层委员会副主任委员,北邮九三学社第二支社主任委员。

商品评论(0条)
暂无评论……
书友推荐
编辑推荐
返回顶部
中图网
在线客服