吴恩达 coursera AI 第二课总结+作业答案
生活随笔
收集整理的這篇文章主要介紹了
吴恩达 coursera AI 第二课总结+作业答案
小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.
前言
吳恩達的課程堪稱經(jīng)典,有必要總結(jié)一下。
學(xué)以致用,以學(xué)促用,通過筆記總結(jié),鞏固學(xué)習(xí)成果,復(fù)習(xí)新學(xué)的概念。
目錄
文章目錄
- 前言
- 目錄
- 正文
- 梯度下降導(dǎo)數(shù)
- 計算圖
- 邏輯回歸的梯度下降
正文
本章主要引入典型問題,圖像二值分類。
圖像二分類問題,是否有貓
## 邏輯回歸
典型算法 邏輯回歸,設(shè)定圖象閾值,判斷0-1問題。
邏輯回歸代價函數(shù)。
梯度下降算法
目標(biāo)是找到最優(yōu)的參數(shù)使得代價函數(shù)最小。
梯度下降算法的流程。
梯度下降導(dǎo)數(shù)
導(dǎo)數(shù)的直觀解釋
更多導(dǎo)數(shù)的直觀解釋
更多導(dǎo)數(shù)的例子
計算圖
計算圖的形式化展示
計算導(dǎo)數(shù)
計算導(dǎo)數(shù)的形式化展示。
邏輯回歸的梯度下降
邏輯回歸的計算流程
邏輯回歸的導(dǎo)數(shù)
在m個樣本上進行邏輯回歸。
計算細(xì)節(jié)
#計算加速:向量化
向量化提高運算速度。
向量化運算的例子
向量化和矩陣值函數(shù)。
邏輯回歸導(dǎo)數(shù)
向量化邏輯回歸函數(shù)
向量化邏輯回歸
實現(xiàn)邏輯回歸
python里的廣播機制
廣播例子
總結(jié)
以上是生活随笔為你收集整理的吴恩达 coursera AI 第二课总结+作业答案的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 吴恩达 coursera AI 第一课总
- 下一篇: AI 趋势