这里首先讲解了 局部加权回归/局部加权线性回归
讲得很好,我都听懂了
今天的主角是,为啥线性回归问题的cost function是误差平方和?而不是绝对误差和,或者四次方和?
卧槽,吴恩达讲得太好了
22:20 - 41:00
接下来我们看交叉熵(逻辑回归)推导
逻辑回归定义
交叉熵推导
今天的机器学习就学到这里,先做作业
TODO: here
这里首先讲解了 局部加权回归/局部加权线性回归
讲得很好,我都听懂了
今天的主角是,为啥线性回归问题的cost function是误差平方和?而不是绝对误差和,或者四次方和?
卧槽,吴恩达讲得太好了
22:20 - 41:00
接下来我们看交叉熵(逻辑回归)推导
逻辑回归定义
交叉熵推导
今天的机器学习就学到这里,先做作业
TODO: here
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/148141.shtml
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!