神经网络与深度学习——TensorFlow实践
本课程共107集 翻译完 欢迎学习
课程列表
【第1集】0 课程概述(上) 译
【第2集】0 课程概述(下) 译
【第3集】1.1 人工智能的诞生(上) 译
【第4集】1.1 人工智能的诞生(下) 译
【第5集】1.2 人工智能的发展 译
【第8集】2.1 开发环境介绍 译
【第9集】2.2 Anaconda的下载与安装 译
【第10集】2.3 Hello,Word 译
【第11集】2.4 使用JupyterNotebook(上) 译
【第12集】2.4 使用JupyterNotebook(下) 译
【第13集】2.5 包管理和环境管理 译
【第14集】2.6 安装TensorFlow2.x 译
【第15集】2.7 安装Tensorflow2.xGPU版本 译
【第16集】3.1 初识Python(上) 译
【第17集】3.1 初识Python(下) 译
【第18集】3.1 初识Python(上) 译
【第19集】3.1 初识Python(下) 译
【第20集】3.2 第一个Python程序 译
【第21集】3.3 输入和输出(上) 译
【第22集】3.3 输入和输出(下) 译
【第23集】3.4 常量、变量和表达式(上) 译
【第24集】3.4 常量、变量和表达式(下) 译
【第25集】3.4 常量、变量和表达式(上) 译
【第26集】3.4 常量、变量和表达式(下) 译
【第27集】3.5 程序控制语句 译
【第28集】3.5 程序控制语句(上) 译
【第29集】3.5 程序控制语句(下) 译
【第30集】4.1 内置数据结构(上) 译
【第31集】4.1 内置数据结构(下) 译
【第32集】4.1 内置数据结构(上) 译
【第33集】4.1 内置数据结构(下) 译
【第34集】4.2 函数和模块(上) 译
【第35集】4.2 函数和模块(下) 译
【第36集】4.2 函数和模块(上) 译
【第37集】4.2 函数和模块(下) 译
【第38集】4.3 Python面向对象编程 译
【第39集】4.3 Python面向对象编程(上) 译
【第40集】4.3 Python面向对象编程(下) 译
【第41集】4.4 文件(上) 译
【第42集】4.4 文件(下) 译
【第43集】4.5 异常处理 译
【第44集】4.6 上下文管理器 译
【第45集】5.1 多维数组 译
【第46集】5.2 创建NumPy数组(上) 译
【第47集】5.2 创建NumPy数组(下) 译
【第48集】5.3 数组运算(上) 译
【第49集】5.3 数组运算(下) 译
【第50集】5.3 数组运算 译
【第51集】5.4 矩阵和随机数(上) 译
【第52集】5.4 矩阵和随机数(下) 译
【第53集】6.1 Matplotlib绘图基础(上) 译
【第54集】6.1 Matplotlib绘图基础(下) 译
【第55集】6.2 散点图(上) 译
【第57集】6.3 折线图和柱形图 译
【第58集】6.4 实例:波士顿房价数据集可视化(上) 译
【第59集】6.4 实例:波士顿房价数据集可视化(下) 译
【第60集】6.4 实例:波士顿房价数据集可视化 译
【第61集】6.5 实例:鸢尾花数据集可视化 译
【第62集】6.5 实例:鸢尾花数据集可视化 译
【第63集】6.5 实例:鸢尾花数据集可视化(上) 译
【第64集】6.5 实例:鸢尾花数据集可视化(下) 译
【第65集】7.1 数字图像基本概念(上) 译
【第66集】7.1 数字图像基本概念(下) 译
【第67集】7.2 Pillow图像处理库(上) 译
【第68集】7.2 Pillow图像处理库(下) 译
【第69集】7.3 实例:手写数字数据集MNIST 译
【第70集】8.1 TensorFlow2.0特性(上) 译
【第71集】8.1 TensorFlow2.0特性(下) 译
【第72集】8.2 创建张量(上) 译
【第73集】8.2 创建张量(下) 译
【第74集】8.2 创建张量(上) 译
【第75集】8.2 创建张量(下) 译
【第76集】8.3 维度变换(上) 译
【第77集】8.3 维度变换(下) 译
【第78集】8.4 部分采样 译
【第79集】8.5 张量运算(上) 译
【第80集】8.5 张量运算(下) 译
【第81集】8.5 张量运算 译
【第82集】9.1 机器学习基础(上) 译
【第83集】9.1 机器学习基础(下) 译
【第84集】9.2 一元线性回归(上) 译
【第85集】9.2 一元线性回归(下) 译
【第86集】9.3 实例:解析法实现一元线性回归(上) 译
【第87集】9.3 实例:解析法实现一元线性回归(下) 译
【第88集】9.3 实例:解析法实现一元线性回归 译
【第89集】9.4 多元线性回归(上) 译
【第90集】9.4 多元线性回归(下) 译
【第91集】9.5 实例:解析法实现多元线性回归 译
【第92集】*9.6实例: 三维模型可视化 译
【第93集】*9.6实例: 三维模型可视化(上) 译
【第94集】*9.6实例: 三维模型可视化(下) 译
【第95集】10.1 梯度下降法基本原理(上) 译
【第96集】10.1 梯度下降法基本原理(下) 译
【第97集】10.2 实例:梯度下降法实现线性回归问题 译
【第98集】10.2 实例:梯度下降法实现线性回归问题(上) 译
【第99集】10.2 实例:梯度下降法实现线性回归问题(下) 译
【第100集】10.2 实例:梯度下降法实现线性回归问题 译
【第101集】10.3 TensorFlow的可训练变量和自动求导机制 译
【第102集】10.3 TensorFlow的可训练变量和自动求导机制 译
【第103集】10.4 实例:TensorFlow实现梯度下降法(上) 译
【第104集】10.4 实例:TensorFlow实现梯度下降法(下) 译
【第105集】10.5 模型评估 译
【第106集】10.6 实例:波士顿房价预测 译
【第107集】10.6 实例:波士顿房价预测 译
【第108集】11.1 逻辑回归 译
【第109集】11.1 逻辑回归 译
【第110集】11.1 逻辑回归 译
【第111集】11.2 实例:实现一元逻辑回归(上) 译
【第112集】11.2 实例:实现一元逻辑回归(下) 译
【第113集】11.3 线性分类器 译
【第114集】11.4 实例:实现多元逻辑回归(上) 译
【第115集】11.4 实例:实现多元逻辑回归(下) 译
【第116集】11.4 实例:实现多元逻辑回归 译
【第117集】11.5 多分类问题(上) 译
【第118集】11.5 多分类问题(下) 译
【第119集】11.6 实例:实现多分类(上) 译
【第120集】11.6 实例:实现多分类(下) 译
【第121集】12.1 神经元与感知机(上) 译
【第122集】12.1 神经元与感知机(下) 译
【第123集】12.2 实例:单层神经网络实现鸢尾花分类(上) 译
【第124集】12.2 实例:单层神经网络实现鸢尾花分类(下) 译
【第125集】12.3 多层神经网络(上) 译
【第126集】12.3 多层神经网络(下) 译
【第127集】12.3 多层神经网络 译
【第128集】12.4 误差反向传播算法(上) 译
【第129集】12.4 误差反向传播算法(下) 译
【第130集】12.5 激活函数(上) 译
【第131集】12.5 激活函数(下) 译
【第132集】12.6 实例:多层神经网络实现鸢尾花分类 译
【第133集】13.1 小批量梯度下降法(上) 译
【第134集】13.1 小批量梯度下降法(下) 译
【第135集】13.2 梯度下降法的优化 译
【第136集】13.2 梯度下降法的优化(上) 译
【第137集】13.2 梯度下降法的优化(下) 译
【第138集】13.3 keras和tf.keras 译
【第139集】13.4 Sequential模型(上) 译
【第140集】13.4 Sequential模型(下) 译
【第141集】13.5 实例:Sequential模型实现手写数字识别(上) 译
【第142集】13.5 实例:Sequential模型实现手写数字识别(下) 译
【第143集】13.6 实例:模型的保存和加载(上) 译
【第144集】13.6 实例:模型的保存和加载(下) 译
【第145集】14.1 深度学习基础(上) 译
【第146集】14.1 深度学习基础(下) 译
【第147集】14.1 深度学习基础 译
【第148集】14.2 图像识别与深度学习(上) 译
【第149集】14.2 图像识别与深度学习(下) 译
【第150集】14.3 图像卷积 译
【第151集】14.3 图像卷积 译
【第152集】14.4 卷积神经网络 译
【第153集】14.4 卷积神经网络 译
【第154集】14.7 实例:卷积神经网络识别cifar10图片(上) 译
【第155集】14.7 实例:卷积神经网络识别cifar10图片(下) 译
查看全部课程
相关推荐