问:
Mini-batch Gradient Descent是指什么?
答:
Mini-batch Gradient Descent是指⼩批量梯度下降法,⼩批量梯度下降法是批量梯度下降法和随机梯度下降法的折衷,也就是对于n个样本,我们采⽤m个样本来迭代。⼀般m=10即可,或者可以⽤0.1 * n。所以下⾯的公式⾥的每次迭代的时候⽤的X和Y就不是全部的样本,⽽是其中⼀⼩部分的数据。
三个资料Q群下载不了也转发不了,先放这里Fine_tuning.zipLangChain.zipdata_clear.rar