数据仓库与数据挖掘
本课程共168集 翻译完 欢迎学习
课程列表
【第1集】1.1 数据挖掘的社会需求(上) 译
【第2集】1.1 数据挖掘的社会需求(下) 译
【第3集】1.2 数据挖掘的经典实际应用(上) 译
【第4集】1.2 数据挖掘的经典实际应用(下) 译
【第5集】1.3 数据挖掘的定义(上) 译
【第6集】1.3 数据挖掘的定义(下) 译
【第7集】1.4 数据挖掘的发展历程与数据来源(上) 译
【第8集】1.4 数据挖掘的发展历程与数据来源(下) 译
【第9集】1.5 分类分析技术简介(上) 译
【第10集】1.5 分类分析技术简介(下) 译
【第11集】1.6 聚类关联孤立点分析技术简介(上) 译
【第12集】1.6 聚类关联孤立点分析技术简介(下) 译
【第13集】1.7 数据挖掘的体系结构与其他技术的异同(上) 译
【第14集】1.7 数据挖掘的体系结构与其他技术的异同(下) 译
【第15集】2.1 数据仓库与数据库的区别(上) 译
【第16集】2.1 数据仓库与数据库的区别(下) 译
【第17集】2.2 什么是数据仓库(上) 译
【第18集】2.2 什么是数据仓库(下) 译
【第19集】2.3 数据仓库的系统结构(上) 译
【第20集】2.3 数据仓库的系统结构(下) 译
【第21集】2.4 数据仓库的数据组织形式(上) 译
【第22集】2.4 数据仓库的数据组织形式(下) 译
【第23集】2.5 数据仓库的数据模型 译
【第24集】2.6 什么是联机分析处理(上) 译
【第25集】2.6 什么是联机分析处理(下) 译
【第26集】2.7 OLAP的多维数据存储(上) 译
【第27集】2.7 OLAP的多维数据存储(下) 译
【第28集】2.8 OLAP的分类(上) 译
【第29集】2.8 OLAP的分类(下) 译
【第30集】3.1 为什么要数据预处理(上) 译
【第31集】3.1 为什么要数据预处理(下) 译
【第32集】3.2 数据清理(上) 译
【第33集】3.2 数据清理(下) 译
【第34集】3.3 数据集成与数据变换(上) 译
【第35集】3.3 数据集成与数据变换(下) 译
【第36集】3.4 数据归约(上) 译
【第37集】3.4 数据归约(下) 译
【第38集】3.5 数据压缩与数值归约(上) 译
【第39集】3.5 数据压缩与数值归约(下) 译
【第40集】3.6 数据离散化(上) 译
【第41集】3.6 数据离散化(下) 译
【第42集】4.1 什么是PCA(上) 译
【第43集】4.1 什么是PCA(下) 译
【第44集】4.2 PCA原理推导(1)(上) 译
【第45集】4.2 PCA原理推导(1)(下) 译
【第46集】4.3 PCA原理推导(2)(上) 译
【第47集】4.3 PCA原理推导(2)(下) 译
【第48集】5.1 什么是关联规则挖掘 译
【第49集】5.2 关联规则挖掘示例(上) 译
【第50集】5.2 关联规则挖掘示例(下) 译
【第51集】5.3 Apriori算法(上) 译
【第52集】5.3 Apriori算法(下) 译
【第53集】5.4 频繁项集生成规则 译
【第54集】5.5 Apriori算法分析与改进(上) 译
【第55集】5.5 Apriori算法分析与改进(下) 译
【第56集】5.6 FP-Growth算法(上) 译
【第57集】5.6 FP-Growth算法(下) 译
【第58集】6.1 什么是多值关联规则(上) 译
【第59集】6.1 什么是多值关联规则(下) 译
【第60集】6.2 多值关联规则挖掘中的连续属性划分(上) 译
【第61集】6.2 多值关联规则挖掘中的连续属性划分(下) 译
【第62集】6.3 多值关联规则合并 译
【第63集】6.4 从下向上的频繁项集搜索方式(上) 译
【第64集】6.4 从下向上的频繁项集搜索方式(下) 译
【第65集】6.5 自上向下的频繁项集搜索方式(上) 译
【第66集】6.5 自上向下的频繁项集搜索方式(下) 译
【第67集】6.6 多层关联规则的社会需求(上) 译
【第68集】6.6 多层关联规则的社会需求(下) 译
【第69集】6.7 同层关联规则挖掘算法(上) 译
【第70集】6.7 同层关联规则挖掘算法(下) 译
【第71集】7.1 什么是项约束性关联规则挖掘(上) 译
【第72集】7.1 什么是项约束性关联规则挖掘(下) 译
【第73集】7.2 项约束性关联规则挖掘算法Direct(上) 译
【第74集】7.2 项约束性关联规则挖掘算法Direct(下) 译
【第75集】7.3 项约束性关联规则挖掘Direct+(上) 译
【第76集】7.3 项约束性关联规则挖掘Direct+(下) 译
【第77集】8.1 分类分析的基本思路(上) 译
【第78集】8.1 分类分析的基本思路(下) 译
【第79集】8.2 决策树分类模型 译
【第80集】8.3 ID3决策树算法(上) 译
【第81集】8.3 ID3决策树算法(下) 译
【第82集】8.4 ID3决策树算法分析 译
【第83集】9.1 C4.5算法的改进之处(上) 译
【第84集】9.1 C4.5算法的改进之处(下) 译
【第85集】9.2 信息增益比的计算方式(上) 译
【第86集】9.2 信息增益比的计算方式(下) 译
【第87集】9.3 C4.5算法处理连续属性 译
【第88集】9.4 C4.5算法处理缺失值策略(上) 译
【第89集】9.4 C4.5算法处理缺失值策略(下) 译
【第90集】9.5 C4.5算法中的交叉验证 译
【第91集】9.6 C4.5算法构建决策树示例(上) 译
【第92集】9.6 C4.5算法构建决策树示例(下) 译
【第93集】10.1 梯度提升决策树的例子 译
【第94集】10.2 梯度提升决策树算法(上) 译
【第95集】10.2 梯度提升决策树算法(下) 译
【第96集】11.1 SLIQ算法思路 译
【第97集】11.2 SLIQ如何处理连续属性(上) 译
【第98集】11.2 SLIQ如何处理连续属性(下) 译
【第99集】11.3 SLIQ算法构建判定树 译
【第100集】11.4 随机森林的基本思想 译
【第101集】11.5 CART构建决策树算法(上) 译
【第102集】11.5 CART构建决策树算法(下) 译
【第103集】11.6 随机森林的投票机制 译
【第104集】12.1 最近邻分类(上) 译
【第105集】12.1 最近邻分类(下) 译
【第106集】12.2 线性支持向量机(上) 译
【第107集】12.2 线性支持向量机(下) 译
【第108集】12.3 线性支持向量机求解(上) 译
【第109集】12.3 线性支持向量机求解(下) 译
【第110集】12.4 线性不可分的支持向量机和非线性支持向量机(上) 译
【第111集】12.4 线性不可分的支持向量机和非线性支持向量机(下) 译
【第112集】13.1 朴素贝叶斯分类算法(上) 译
【第113集】13.1 朴素贝叶斯分类算法(下) 译
【第114集】13.2 贝叶斯信念网络的基本结构 译
【第115集】13.3 联合概率计算方法(上) 译
【第116集】13.3 联合概率计算方法(下) 译
【第117集】13.4 事件独立的几种情况 译
【第118集】13.5 贝叶斯信念网络推理1(上) 译
【第119集】13.5 贝叶斯信念网络推理1(下) 译
【第120集】13.6 贝叶斯信念网络推理2(上) 译
【第121集】13.6 贝叶斯信念网络推理2(下) 译
【第122集】14.1 什么是聚类分析(上) 译
【第123集】14.1 什么是聚类分析(下) 译
【第124集】14.2 距离与相似性度量(上) 译
【第125集】14.2 距离与相似性度量(下) 译
【第126集】14.3 划分聚类Kmeans算法(上) 译
【第127集】14.3 划分聚类Kmeans算法(下) 译
【第128集】14.4 K中心点算法思想(上) 译
【第129集】14.4 K中心点算法思想(下) 译
【第130集】14.5 K中心点PAM算法示例 译
【第131集】15.1 层次聚类的基本思想 译
【第132集】15.2 距离测算方法1(上) 译
【第133集】15.2 距离测算方法1(下) 译
【第134集】15.3 距离测算方法2(上) 译
【第135集】15.3 距离测算方法2(下) 译
【第136集】15.4 Birch层次聚类算法基本原理(上) 译
【第137集】15.4 Birch层次聚类算法基本原理(下) 译
【第138集】15.5 Birch层次聚类中簇直径D的计算方式(上) 译
【第139集】15.5 Birch层次聚类中簇直径D的计算方式(下) 译
【第140集】15.6 Birch层次聚类树的构建(上) 译
【第141集】15.6 Birch层次聚类树的构建(下) 译
【第142集】16.1 密度聚类的基本思路(上) 译
【第143集】16.1 密度聚类的基本思路(下) 译
【第144集】16.2 DBSCAN算法的基本概念 译
【第145集】16.3 DBSCAN算法的实现流程(上) 译
【第146集】16.3 DBSCAN算法的实现流程(下) 译
【第147集】16.4 DBSCAN算法性能分析 译
【第148集】16.5 OPTICS密度聚类基本思想(上) 译
【第149集】16.5 OPTICS密度聚类基本思想(下) 译
【第150集】16.6 OPTICS密度聚类算法的实现过程(上) 译
【第151集】16.6 OPTICS密度聚类算法的实现过程(下) 译
【第152集】16.7 密度聚类OPTICS算法描述 译
【第153集】17.1 为什么需要高斯混合模型(上) 译
【第154集】17.1 为什么需要高斯混合模型(下) 译
【第155集】17.2 高斯混合模型推导(上) 译
【第156集】17.2 高斯混合模型推导(下) 译
【第157集】17.3 高斯混合模型求解——EM算法(上) 译
【第158集】17.3 高斯混合模型求解——EM算法(下) 译
【第159集】18.1 序列模式挖掘的基本原理(上) 译
【第160集】18.1 序列模式挖掘的基本原理(下) 译
【第161集】18.2 序列模式挖掘AprioriAll算法的实现过程(上) 译
【第162集】18.2 序列模式挖掘AprioriAll算法的实现过程(下) 译
【第163集】18.3 序列模式挖掘AprioriSome算法 译
【第164集】18.4 序列模式挖掘DynamicSome算法 译
【第165集】18.5 有时间约束的序列模式挖掘GSP算法原理(上) 译
【第166集】18.5 有时间约束的序列模式挖掘GSP算法原理(下) 译
【第167集】18.6 有时间约束的序列模式挖掘GSP算法示例(上) 译
【第168集】18.6 有时间约束的序列模式挖掘GSP算法示例(下) 译
【第169集】19.1 Pycharm环境安装与数据读取 译
【第170集】19.1 Pycharm环境安装与数据读取 译
【第171集】19.2 Pandas数据预处理(上) 译
【第172集】19.2 Pandas数据预处理(下) 译
【第173集】19.2 Pandas数据预处理(上) 译
【第174集】19.2 Pandas数据预处理(下) 译
【第175集】19.3 Apriori算法的Python实践(上) 译
【第176集】19.3 Apriori算法的Python实践(下) 译
【第177集】19.4 决策树算法的Python实践(上) 译
【第178集】19.4 决策树算法的Python实践(下) 译
【第179集】19.5 随机森林的Python实践(上) 译
【第180集】19.5 随机森林的Python实践(下) 译
【第181集】19.5 随机森林的Python实践(上) 译
【第182集】19.5 随机森林的Python实践(下) 译
【第183集】19.5 随机森林的Python实践(上) 译
【第184集】19.5 随机森林的Python实践(下) 译
【第185集】19.6 朴素贝叶斯算法的Python实践 译
【第186集】19.6 朴素贝叶斯算法的Python实践 译
【第187集】19.7 Kmeans算法的Python实践(上) 译
【第188集】19.7 Kmeans算法的Python实践(下) 译
【第189集】19.7 Kmeans算法的Python实践 译
【第190集】19.8 BIRCH算法的Python实践(上) 译
【第191集】19.8 BIRCH算法的Python实践(下) 译
【第192集】19.9 DBSCAN与OPTICS算法的Python实践(上) 译
【第193集】19.9 DBSCAN与OPTICS算法的Python实践(下) 译
【第194集】19.9 DBSCAN与OPTICS算法的Python实践(上) 译
【第195集】19.9 DBSCAN与OPTICS算法的Python实践(下) 译
【第196集】19.9 DBSCAN与OPTICS算法的Python实践(上) 译
【第197集】19.9 DBSCAN与OPTICS算法的Python实践(下) 译
查看全部课程
相关推荐