Algorisme del gradient estocàstic

Fig.1 Exemple de convergència amb el mètode de gradient estocàstic en un ploblema d'aprenentatge artificial.

L'algorisme del gradient estocàstic (amb acrònim anglès SGD), també conegut per gradient descendent incremental, és un mètode iteratiu per a optimitzar una funció objectiu derivable. S'anomena estocàstic perque les mostres se seleccionen aleatòriament en comptes d'un ordre predeterminat. Va ser desenvolupat per Herbert Robbins i Sutton Monro l'any 1951.[1][2][3]

Aplicacions

Referències

  1. «Reducing Loss: Stochastic Gradient Descent | Machine Learning Crash Course | Google Developers» (en anglès). https://developers.google.com.+[Consulta: 14 novembre 2018].[Enllaç no actiu]
  2. «Difference between Batch Gradient Descent and Stochastic Gradient Descent». Towards Data Science, 21-09-2017.
  3. «A Newbie's Guide to Stochastic Gradient Descent With Restarts». Towards Data Science, 20-07-2018.