Odborné vysvětlení: Stochastický gradientní sestup (SGD) je varianta gradientního sestupu, která používá náhodně vybrané podmnožiny dat (mini-dávky) v každé iteraci místo celého datasetu. To vede k rychlejším výpočtům a může pomoci vyhnout se lokálním minimům.
Vysvětlení pro laiky: Pokud je gradientní sestup jako chůze dolů z kopce při plném výhledu, stochastický gradientní sestup je jako chůze v mlze. Místo abyste viděli celý kopec najednou, vidíte jen malou část kolem sebe. Děláte kroky na základě toho, co vidíte, což může být rychlejší a někdy vás to může dovést k lepšímu cíli, protože neuvíznete v malých prohlubních.
Stochastic gradient descent (SGD) is a variant of gradient descent that uses randomly selected subsets of data (mini-batches) in each iteration instead of the entire dataset. This leads to faster computations and can help avoid local minima.