數據分析和圖像處理要不要學全棧?想學互聯網?妳在開玩笑嗎?
對於機器學習:
妳學過概率論、線性代數、矩陣乘法嗎?它不讓妳真的算,只懂公式和推導;
方差,期望在這些中學學到,正態分布,柏樹分布和不努力分布,這些都很簡單;
線性回歸不是y = wx +bias嗎?這個小學的東西,但是這裏w和x寫的是向量,向量是小學或者初中的向量。很難嗎?
梯度下降,也就是鏈求導,也是高等數學的內容。很難嗎?
物流回歸這是通過sigmoid函數把線性回歸的y換成0到1之間。妳覺得難嗎?
對於分類問題,妳用最大似然法。妳把所有的點相乘,然後求導。真的很難嗎?
貝葉斯只是壹個公式,是基於條件概率的。妳不就是看看公式,看看例題嗎?真的很難嗎?
優化就是對函數設置壹個或多個限制。真的無法理解嗎?
拉格朗日乘數就是把壹個矩陣分成兩個矩陣,還記得嗎?
判別回歸和線性回歸、Logistic回歸壹樣,對妳的假設要求很高。生成回歸的壹個例子是貝葉斯分離器,這是貝葉斯。真的很難嗎?
PCA就是求特征值,特征向量,這是壹種求投影最大方差的特征的方法。方差越大,越有代表性。不讓妳自己算,就看圖想想,好嗎?
k的意思不是代表集群嗎?為什麽不隨機做幾個點,分布周圍點的距離,然後每輪更新點呢?我不會讓妳手寫算法的。
SVM是壹種分類方法。支持向量很難盡可能用平行線或曲線分離點嗎?內核函數不就是替換X.transpose*X嗎?
神經網絡只是邏輯回歸的衍生物。正向和反向傳播,看看書上給出的推導,也就是鏈式推導,但是反過來。很難嗎?