Deep Learning Specialization on Coursera
NLPJob

标签热度

机器学习 coursera 斯坦福大学 公开课 斯坦福 深度学习 自然语言处理 python 数据科学 andrew ng 数学 nlp 数据分析 数据挖掘 神经网络 大数据 计算机科学 英语 deep learning 统计学 算法 课件 数据可视化 机器学习公开课 机器学习笔记 google 机器学习视频 计算机 推荐系统 数据结构 商业 r语言 java 密码学 udacity 金融 免费电子书 电子书 公开课笔记 计算机视觉 商务英语 学术英语 python数据可视化 机器学习课程 机器人 ted 文本挖掘 r 视频 java编程 回归模型 excel 深度学习课程 mysql cousera公开课 统计 大数据公开课 ted公开课 ted演讲 线性回归 mit 概率图模型 领导力 金融市场 tensorflow 学习英语 物联网 大数据专项课程 python入门 大数据课程 英语写作 英语学习 算法课程 强化学习 高级机器学习 kaggle 文本分析 机器学习资料 函数式编程 scala 游戏设计 cousera 机器学习系统 机器人公开课 开源代码 人工智能 普林斯顿大学 machine learning 线性代数 代价函数 软件工程 javascript 伯克利 市场营销 财务会计 沃顿商学院 网页开发 网站开发 web开发 网络安全 python数据科学 商业分析 非对称密码学 对称密码学 应用密码学 大规模数据科学 英语听说 概率 机器学习基石 python机器学习 算法公开课 源代码 数学思维 社交网络分析 微积分公开课 杜克大学 机器学习公开课视频 公开课视频 coursera公开课视频 coursera公开课 贝叶斯 信息论 离散数学 宾夕法尼亚大学 neural networks 伯克利大学 密歇根大学 成本函数 梯度下降 云计算 编译器 自动机 cs101 daphne koller spark 软件 管理 会计 英语交流 商业策略 风险管理 资产管理 地理信息系统 gis 卷积神经网络 面向对象编程 序列模型 移动应用开发 数据库 计算机通信 敏捷开发 高级商务分析 商务分析 商务英语课程 c语言 数据管理 投资 计算原理 计算基础 推荐系统导论 学术英语写作 android应用开发 android开发 android 机器人课程 机器人学 数据科学竞赛 yandex 深度学习公开课 深度学习书籍 数据集 机器学习资源 分布式 微积分 大规模机器学习系统 统计推断 数据科学公开课 游戏 数学思维公开课 机器学习课件 数学公开课 微积分公开课视频 微积分公开课下载 mit微积分 mit公开课 龙星计划 神经网络公开课 coursera视频 斯坦福公开课 windows ios udacity公开课 无人驾驶汽车 人机交互公开课 人机交互 正则化 过拟合 逻辑回归 模型思维 网易公开课 acl net 逻辑 cmu 情感分析 我爱公开课 引言 普林斯顿 经济 saas 52opencourse 逻辑导引 图模型 chirs manning dan jurafsky ppt 时间序列 go语言课程 go语言 工程师 语法 区块链基础 区块链 软件开发 商务基础 运营管理 商务 机器学习实战 数据系统 投资管理 swift 计算机安全与系统管理 系统管理 计算机安全 seo策略 seo工具 seo 组织领导力 css3 html5 会计基础 c sharp 英语沟通 并发 并行 全栈开发 数据仓库 商业智能 投资策略 金融基础 数据工程 python零基础 安全系统 现代密码学 硬件安全 软件安全 网络安全基础 递归神经网络 信息检索 云计算网络 云计算应用 云计算基础 云计算概念 分组交换网络 局域网 创意写作 写作 数学基础 台湾大学 基因序列 生物信息学 斯坦福算法课程 软件架构 软件设计 java程序设计 r语言基础 图论 组合数学 python数据表示 python基础 深度学习专项课程 游戏设计与开发 游戏开发 游戏设计概念 游戏设计艺术 angular 恐龙古生物学 恐龙 古生物学 推荐系统评价 jquery 英语语法 c# 高级算法 算法专项 iot python专项课程 python入门课程 商务英语交流技巧 商务英语交流 python社交网络分析 python文本挖掘 机器学习专项 金融价值 金融决策 金融公开课 数据结构与算法 大数据机器学习 大数据分析 商业与金融建模 金融建模 c++ 学术英语听说 数据分析工具 编程入门 编程 编程基础 算法思维 计算机基础 秘钥管理 hdfs 数据工程师 hive 3d交互设计 3d建模 虚拟现实 vr 洛桑联邦理工学院 函数式编程入门 数据科学课程 数据科学专项课程 学术英语课程 学术英语写作课程 斯坦福算法专项课程 斯坦福算法 python数据分析 英文简历 英文面试 英文写作 贝叶斯方法 商业分析技术 大数据建模 数据获取 数据清洗 文本挖掘课程 聚类分析 python公开课 python课程 主成分分析 深度学习资料 词意消歧 词义消歧 推荐系统入门 python书籍 机器学习算法 数据结构课程 图像处理 贝叶斯方法实战 深度学习源代码 sibyl p2p 机器学习书籍 数据结构资料 凸优化 推荐系统入门资料 数据科学导论 可视化 机器学习开源工具包 jane mcgonigal 公开课社区 挖课 courseminer 文本情感分析 多变量微积分 社会计算 数学分析公开课 概率图模型公开课 百度 吴恩达 香港科技大学 函数式语言 scala公开课 class2go coursera无法连接 coursera打不开 keith devlin 数学思维简介 社交网络 余凯 张潼 机器人视频 robert sedgewick 算法上 多伦多大学 莱斯大学 华盛顿大学 佐治亚理工学院 神经网络视频 矩阵 coursera在线视频

Text Summarization

Keyword Extraction

Text Processing

Word Similarity

Best Coursera Course

Best Coursera Courses

Elastic Patent

+9 投票

斯坦福大学机器学习第二课"单变量线性回归“学习笔记,本次课程主要包括7部分:

1) Model representation(模型表示)

2) Cost function(代价函数,成本函数)

3) Cost function intuition I(直观解释1)

4) Cost function intuition II(直观解释2)

5) Gradient descent(梯度下降)

6) Gradient descent intuition(梯度下降直观解释)

7) Gradient descent for linear regression(应用于线性回归的的梯度下降算法)

以下是第二课“单变量线性回归”的课件资料下载链接,视频可以在Coursera机器学习课程上观看或下载:
PPT   PDF
 
另外课程答题时间推迟一周,具体可参考:  Coursera机器学习课程作业截止时间推迟一周
 
如转载52opencourse上的任何原创文章,请务必注明出处,谢谢。
 
分类:机器学习 | 用户: (3.2k 分)
修改于 用户:

2 个回答

+2 投票

1) Model representation(模型表示)

回到第一课中的房屋价格预测问题, 首先它是一个有监督学习的问题(对于每个样本的输入,都有正确的输出或者答案),同时它也是一个回归问题(预测一个实值输出)。

训练集表示如下:

traing-set-52opencourse.com

其中:

m = 训练样本的数目

x's = “输入”变量,也称之为特征

y's = “输出”变量,也称之为“目标”变量

 

对于房价预测问题,学习过程可用下图表示:

model-represation-52opencourse.com

 

其中x代表房屋的大小,y代表预测的价格,h(hypothesis)将输入变量 x 映射到输出变量 y,如何表示h?

事实上Hypothesis可以表示成如下形式:

\[h_\theta(x) = \theta_0 + \theta_1 x\]

简写为 h(x),也就是带一个变量的线性回归或者单变量线性回归问题。

 

2) Cost function(代价函数,成本函数)

对于Hypothesis:  \(h_\theta(x) = \theta_0 + \theta_1 x\)

\(\theta_i\) 为参数

如何求\(\theta_i\)?

theta-cost function-52opencourse.com

构想: 对于训练集(x, y),选取参数\(\theta_0\), \(\theta_1\)使得\(h_\theta(x)\)尽可能的接近y。  

如何做呢?一种做法就是求训练集的平方误差函数(squared error function),Cost Function可表示为:

\[J(\theta_0, \theta_1) = \frac{1}{2m}\sum_{i=1}^m{(h_\theta(x^{(i)}) - y^{(i)})^2}\]

并且选取合适的参数使其最小化,数学表示如下:

\[\displaystyle\mathop{\mathrm{minimize}}\limits_{\theta_0, \theta_1} J(\theta_0, \theta_1)\]

3) Cost function intuition I(直观解释1)

直观来看,线性回归主要包括如下四大部分,分别是Hypothesis, Parameters, Cost Function, Goal:

costfunction-I-52opencourse.com

这里作者给出了一个简化版的Cost function解释,也就是令\(\theta_0\)为0:

然后令\(\theta_1\)分别取1、0.5、-0.5等值,同步对比\(h_\theta(x)\)和\(J(\theta_0, \theta_1)\)在二维坐标系中的变化情况,具体可参考原PPT中的对比图,很直观。

 

4) Cost function intuition II(直观解释2)

回顾线性回归的四个部分,这一次不在对Cost Function做简化处理,这个时候\(J(\theta_0, \theta_1)\)的图形是一个三维图或者一个等高线图,具体可参考原课件。

可以发现,当\(h_\theta(x)\)的直线越来越接近样本点时,\(J(\theta_0, \theta_1)\)在等高线的图中的点越来越接近最小值的位置。

用户: (3.2k 分)
修改于 用户:
+1 投票

5) Gradient descent(梯度下降)

应用的场景之一-最小值问题:

对于一些函数,例如\(J(\theta_0, \theta_1)\)

目标:  \(\displaystyle\mathop{\mathrm{min}}\limits_{\theta_0, \theta_1} J(\theta_0, \theta_1)\)

方法的框架:

1、给\(\theta_0\), \(\theta_1\)一个初始值,例如都等于0

2、每次改变\(\theta_0\), \(\theta_1\)的时候都保持\(J(\theta_0, \theta_1)\)递减,直到达到一个我们满意的最小值;

对于任一\(J(\theta_0, \theta_1)\) , 初始位置不同,最终达到的极小值点也不同,例如以下两个例子:

梯度下降-1-52opencourse.com

 

梯度下降2-52opencourse.com

 

梯度下降算法:

重复下面的公式直到收敛:

梯度下降算法

 

举例:

参数正确的更新过程如下(同步更新):

梯度下降-3-52opencourse.com

 

错误的更新过程如下:

梯度下降-4-52opencourse.com

 

6) Gradient descent intuition(梯度下降直观解释)

举例,对于一个简化的\(J(\theta_1)\)来说,无论抛物线的左边还是右边,在梯度下降算法下,\(\theta_1)\)都是保持正确的方向(递增或递减)

对于learning rate(又称为步长)来说:

learning rate-我爱公开课—52opencourse.com

如果\(\alpha\)过小,梯度下降可能很慢;如果过大,梯度下降有可能“迈过”(overshoot)最小点,并且有可能收敛失败,并且产生“分歧”(diverge)

梯度下降可以使函数收敛到一个局部最小值,特别对于learning rate \(\alpha\)是固定值的时候:

我爱公开课-52opencourse.com

当函数接近局部最小值的时候,梯度下降法将自动的采取“小步子”, 所以没有必要随着时间的推移减小learning rate.

关于梯度下降算法,可以参考维基百科的介绍: http://zh.wikipedia.org/wiki/%E6%A2%AF%E5%BA%A6%E4%B8%8B%E9%99%8D%E6%B3%95

 

7) Gradient descent for linear regression(应用于线性回归的的梯度下降算法)

梯度下降算法:
梯度下降算法-我爱公开课-52opencourse.com

线性回归模型:

线性回归模型-我爱公开课—52opencouse.com

\(J(\theta_0, \theta_1)\)对于\(\theta_0)\), \(\theta_1)\)求导,得:

梯度下降求导-我爱公开课-52opencouse.com

在梯度下降算法中进行替换,就得到单变量线性回归梯度下降算法:

单变量信息回归梯度下降算法-我爱公开课-52opencourse.com

详细的图形举例请参考官方PPT,主要是在等高线图举例梯度下降的收敛过程,逐步逼近最小值点,其中一幅图说明:线性回归函数是凸函数(convex function),具有碗状(bowl shape)。

总结: 这里的梯度下降算法也称为"Batch" 梯度下降: 梯度下降的每一步都使用了所有的训练样本。

 

用户: (3.2k 分)
修改于 用户:
...