APP下载
反馈
数据仓库与数据挖掘
本课程共168集 翻译完 欢迎学习
立即播放
用手机看
课程免费缓存,随时观看~
扫码下载网易公开课APP
收藏
课程列表
【第1集】1.1 数据挖掘的社会需求(上)
【第2集】1.1 数据挖掘的社会需求(下)
【第3集】1.2 数据挖掘的经典实际应用(上)
【第4集】1.2 数据挖掘的经典实际应用(下)
【第5集】1.3 数据挖掘的定义(上)
【第6集】1.3 数据挖掘的定义(下)
【第7集】1.4 数据挖掘的发展历程与数据来源(上)
【第8集】1.4 数据挖掘的发展历程与数据来源(下)
【第9集】1.5 分类分析技术简介(上)
【第10集】1.5 分类分析技术简介(下)
【第11集】1.6 聚类关联孤立点分析技术简介(上)
【第12集】1.6 聚类关联孤立点分析技术简介(下)
【第13集】1.7 数据挖掘的体系结构与其他技术的异同(上)
【第14集】1.7 数据挖掘的体系结构与其他技术的异同(下)
【第15集】2.1 数据仓库与数据库的区别(上)
【第16集】2.1 数据仓库与数据库的区别(下)
【第17集】2.2 什么是数据仓库(上)
【第18集】2.2 什么是数据仓库(下)
【第19集】2.3 数据仓库的系统结构(上)
【第20集】2.3 数据仓库的系统结构(下)
【第21集】2.4 数据仓库的数据组织形式(上)
【第22集】2.4 数据仓库的数据组织形式(下)
【第23集】2.5 数据仓库的数据模型
【第24集】2.6 什么是联机分析处理(上)
【第25集】2.6 什么是联机分析处理(下)
【第26集】2.7 OLAP的多维数据存储(上)
【第27集】2.7 OLAP的多维数据存储(下)
【第28集】2.8 OLAP的分类(上)
【第29集】2.8 OLAP的分类(下)
【第30集】3.1 为什么要数据预处理(上)
【第31集】3.1 为什么要数据预处理(下)
【第32集】3.2 数据清理(上)
【第33集】3.2 数据清理(下)
【第34集】3.3 数据集成与数据变换(上)
【第35集】3.3 数据集成与数据变换(下)
【第36集】3.4 数据归约(上)
【第37集】3.4 数据归约(下)
【第38集】3.5 数据压缩与数值归约(上)
【第39集】3.5 数据压缩与数值归约(下)
【第40集】3.6 数据离散化(上)
【第41集】3.6 数据离散化(下)
【第42集】4.1 什么是PCA(上)
【第43集】4.1 什么是PCA(下)
【第44集】4.2 PCA原理推导(1)(上)
【第45集】4.2 PCA原理推导(1)(下)
【第46集】4.3 PCA原理推导(2)(上)
【第47集】4.3 PCA原理推导(2)(下)
【第48集】5.1 什么是关联规则挖掘
【第49集】5.2 关联规则挖掘示例(上)
【第50集】5.2 关联规则挖掘示例(下)
【第51集】5.3 Apriori算法(上)
【第52集】5.3 Apriori算法(下)
【第53集】5.4 频繁项集生成规则
【第54集】5.5 Apriori算法分析与改进(上)
【第55集】5.5 Apriori算法分析与改进(下)
【第56集】5.6 FP-Growth算法(上)
【第57集】5.6 FP-Growth算法(下)
【第58集】6.1 什么是多值关联规则(上)
【第59集】6.1 什么是多值关联规则(下)
【第60集】6.2 多值关联规则挖掘中的连续属性划分(上)
【第61集】6.2 多值关联规则挖掘中的连续属性划分(下)
【第62集】6.3 多值关联规则合并
【第63集】6.4 从下向上的频繁项集搜索方式(上)
【第64集】6.4 从下向上的频繁项集搜索方式(下)
【第65集】6.5 自上向下的频繁项集搜索方式(上)
【第66集】6.5 自上向下的频繁项集搜索方式(下)
【第67集】6.6 多层关联规则的社会需求(上)
【第68集】6.6 多层关联规则的社会需求(下)
【第69集】6.7 同层关联规则挖掘算法(上)
【第70集】6.7 同层关联规则挖掘算法(下)
【第71集】7.1 什么是项约束性关联规则挖掘(上)
【第72集】7.1 什么是项约束性关联规则挖掘(下)
【第73集】7.2 项约束性关联规则挖掘算法Direct(上)
【第74集】7.2 项约束性关联规则挖掘算法Direct(下)
【第75集】7.3 项约束性关联规则挖掘Direct+(上)
【第76集】7.3 项约束性关联规则挖掘Direct+(下)
【第77集】8.1 分类分析的基本思路(上)
【第78集】8.1 分类分析的基本思路(下)
【第79集】8.2 决策树分类模型
【第80集】8.3 ID3决策树算法(上)
【第81集】8.3 ID3决策树算法(下)
【第82集】8.4 ID3决策树算法分析
【第83集】9.1 C4.5算法的改进之处(上)
【第84集】9.1 C4.5算法的改进之处(下)
【第85集】9.2 信息增益比的计算方式(上)
【第86集】9.2 信息增益比的计算方式(下)
【第87集】9.3 C4.5算法处理连续属性
【第88集】9.4 C4.5算法处理缺失值策略(上)
【第89集】9.4 C4.5算法处理缺失值策略(下)
【第90集】9.5 C4.5算法中的交叉验证
【第91集】9.6 C4.5算法构建决策树示例(上)
【第92集】9.6 C4.5算法构建决策树示例(下)
【第93集】10.1 梯度提升决策树的例子
【第94集】10.2 梯度提升决策树算法(上)
【第95集】10.2 梯度提升决策树算法(下)
【第96集】11.1 SLIQ算法思路
【第97集】11.2 SLIQ如何处理连续属性(上)
【第98集】11.2 SLIQ如何处理连续属性(下)
【第99集】11.3 SLIQ算法构建判定树
【第100集】11.4 随机森林的基本思想
【第101集】11.5 CART构建决策树算法(上)
【第102集】11.5 CART构建决策树算法(下)
【第103集】11.6 随机森林的投票机制
【第104集】12.1 最近邻分类(上)
【第105集】12.1 最近邻分类(下)
【第106集】12.2 线性支持向量机(上)
【第107集】12.2 线性支持向量机(下)
【第108集】12.3 线性支持向量机求解(上)
【第109集】12.3 线性支持向量机求解(下)
【第110集】12.4 线性不可分的支持向量机和非线性支持向量机(上)
【第111集】12.4 线性不可分的支持向量机和非线性支持向量机(下)
【第112集】13.1 朴素贝叶斯分类算法(上)
【第113集】13.1 朴素贝叶斯分类算法(下)
【第114集】13.2 贝叶斯信念网络的基本结构
【第115集】13.3 联合概率计算方法(上)
【第116集】13.3 联合概率计算方法(下)
【第117集】13.4 事件独立的几种情况
【第118集】13.5 贝叶斯信念网络推理1(上)
【第119集】13.5 贝叶斯信念网络推理1(下)
【第120集】13.6 贝叶斯信念网络推理2(上)
【第121集】13.6 贝叶斯信念网络推理2(下)
【第122集】14.1 什么是聚类分析(上)
【第123集】14.1 什么是聚类分析(下)
【第124集】14.2 距离与相似性度量(上)
【第125集】14.2 距离与相似性度量(下)
【第126集】14.3 划分聚类Kmeans算法(上)
【第127集】14.3 划分聚类Kmeans算法(下)
【第128集】14.4 K中心点算法思想(上)
【第129集】14.4 K中心点算法思想(下)
【第130集】14.5 K中心点PAM算法示例
【第131集】15.1 层次聚类的基本思想
【第132集】15.2 距离测算方法1(上)
【第133集】15.2 距离测算方法1(下)
【第134集】15.3 距离测算方法2(上)
【第135集】15.3 距离测算方法2(下)
【第136集】15.4 Birch层次聚类算法基本原理(上)
【第137集】15.4 Birch层次聚类算法基本原理(下)
【第138集】15.5 Birch层次聚类中簇直径D的计算方式(上)
【第139集】15.5 Birch层次聚类中簇直径D的计算方式(下)
【第140集】15.6 Birch层次聚类树的构建(上)
【第141集】15.6 Birch层次聚类树的构建(下)
【第142集】16.1 密度聚类的基本思路(上)
【第143集】16.1 密度聚类的基本思路(下)
【第144集】16.2 DBSCAN算法的基本概念
【第145集】16.3 DBSCAN算法的实现流程(上)
【第146集】16.3 DBSCAN算法的实现流程(下)
【第147集】16.4 DBSCAN算法性能分析
【第148集】16.5 OPTICS密度聚类基本思想(上)
【第149集】16.5 OPTICS密度聚类基本思想(下)
【第150集】16.6 OPTICS密度聚类算法的实现过程(上)
【第151集】16.6 OPTICS密度聚类算法的实现过程(下)
【第152集】16.7 密度聚类OPTICS算法描述
【第153集】17.1 为什么需要高斯混合模型(上)
【第154集】17.1 为什么需要高斯混合模型(下)
【第155集】17.2 高斯混合模型推导(上)
【第156集】17.2 高斯混合模型推导(下)
【第157集】17.3 高斯混合模型求解——EM算法(上)
【第158集】17.3 高斯混合模型求解——EM算法(下)
【第159集】18.1 序列模式挖掘的基本原理(上)
【第160集】18.1 序列模式挖掘的基本原理(下)
【第161集】18.2 序列模式挖掘AprioriAll算法的实现过程(上)
【第162集】18.2 序列模式挖掘AprioriAll算法的实现过程(下)
【第163集】18.3 序列模式挖掘AprioriSome算法
【第164集】18.4 序列模式挖掘DynamicSome算法
【第165集】18.5 有时间约束的序列模式挖掘GSP算法原理(上)
【第166集】18.5 有时间约束的序列模式挖掘GSP算法原理(下)
【第167集】18.6 有时间约束的序列模式挖掘GSP算法示例(上)
【第168集】18.6 有时间约束的序列模式挖掘GSP算法示例(下)
【第169集】19.1 Pycharm环境安装与数据读取
【第170集】19.1 Pycharm环境安装与数据读取
【第171集】19.2 Pandas数据预处理(上)
【第172集】19.2 Pandas数据预处理(下)
【第173集】19.2 Pandas数据预处理(上)
【第174集】19.2 Pandas数据预处理(下)
【第175集】19.3 Apriori算法的Python实践(上)
【第176集】19.3 Apriori算法的Python实践(下)
【第177集】19.4 决策树算法的Python实践(上)
【第178集】19.4 决策树算法的Python实践(下)
【第179集】19.5 随机森林的Python实践(上)
【第180集】19.5 随机森林的Python实践(下)
【第181集】19.5 随机森林的Python实践(上)
【第182集】19.5 随机森林的Python实践(下)
【第183集】19.5 随机森林的Python实践(上)
【第184集】19.5 随机森林的Python实践(下)
【第185集】19.6 朴素贝叶斯算法的Python实践
【第186集】19.6 朴素贝叶斯算法的Python实践
【第187集】19.7 Kmeans算法的Python实践(上)
【第188集】19.7 Kmeans算法的Python实践(下)
【第189集】19.7 Kmeans算法的Python实践
【第190集】19.8 BIRCH算法的Python实践(上)
【第191集】19.8 BIRCH算法的Python实践(下)
【第192集】19.9 DBSCAN与OPTICS算法的Python实践(上)
【第193集】19.9 DBSCAN与OPTICS算法的Python实践(下)
【第194集】19.9 DBSCAN与OPTICS算法的Python实践(上)
【第195集】19.9 DBSCAN与OPTICS算法的Python实践(下)
【第196集】19.9 DBSCAN与OPTICS算法的Python实践(上)
【第197集】19.9 DBSCAN与OPTICS算法的Python实践(下)
查看全部课程
相关推荐
06:21
2.5 离散傅立叶变换(上)
2128播放
09:04
26.1 语法分析程序设计思路(下...
850播放
05:06
趁年轻一定要看的爱情片,可能会改变...
1716播放
01:36
脑力锻炼:谁的嫌疑人最大?
1484播放
16:08
第二章-导数的几何意义+复合函数求...
533播放
02:04
发刊词:韩寒沈腾二闯春节档 《飞驰...
1423播放
07:56
(新)线性回归问题:TensorF...
1192播放
14:16
1-教学录像-交通规划研究内容(上...
3905播放
03:54
开学第一课,讲点什么呢?整套的安排...
1113播放
01:12
增75期 发热不是小事
538播放
02:22
患者一会说结石结晶,一会说是息肉,...
1421播放
11:12
高数上总复习 5(下)
1336播放
00:42
服装设计,AI重生
607播放
15:43
世纪之患 新型毒品 A_标清(下...
1438播放