Xavier:
基本思想是通過網絡層時,輸入和輸出的方差相同,包括前向傳播和後向傳播。
如果初始化值很小,那麼隨著層數的傳遞,方差就會趨於0,此時輸入值 也變得越來越小,在sigmoid上就是在0附近,接近於線性,失去了非線性
如果初始值很大,那麼隨著層數的傳遞,方差會迅速增加,此時輸入值變得很大,而sigmoid在大輸入值寫倒數趨近於0,反向傳播時會遇到梯度消失的問題
感覺和BN的使用目的是類似的
np.newaxis:插入新維度
list和ndarray互轉:
list 轉 numpy:np.array(a)
ndarray 轉 list:a.tolist()
numpy.ndarray與字符串互轉:
str=arr.tostring()
arr=np.frombuffer(string, dtype=np.float32)
pydub的學習參考:https://blog.csdn.net/Debatrix/article/details/59058762
pyworld使用參考:https://blog.csdn.net/m0_43395719/article/details/107930075