Logo es.boatexistence.com

¿Por qué descenso de gradiente estocástico?

Tabla de contenido:

¿Por qué descenso de gradiente estocástico?
¿Por qué descenso de gradiente estocástico?

Video: ¿Por qué descenso de gradiente estocástico?

Video: ¿Por qué descenso de gradiente estocástico?
Video: 5 Método del Descenso del Gradiente (Gradient Descent) - Explicación 2024, Mayo
Anonim

Según un científico de datos sénior, una de las ventajas distintivas de usar el descenso de gradiente estocástico es que hace los cálculos más rápido que el descenso de gradiente y el descenso de gradiente por lotes… Además, en conjuntos de datos masivos, el descenso de gradiente estocástico puede converger más rápido porque realiza actualizaciones con más frecuencia.

¿Para qué se utiliza el descenso de gradiente estocástico?

El descenso de gradiente estocástico es un algoritmo de optimización que se usa a menudo en aplicaciones de aprendizaje automático para encontrar los parámetros del modelo que se corresponden con el mejor ajuste entre los resultados previstos y los reales Es una técnica inexacta pero poderosa. El descenso de gradiente estocástico se usa ampliamente en aplicaciones de aprendizaje automático.

¿Por qué necesitamos usar el descenso de gradiente estocástico en lugar del descenso de gradiente estándar para entrenar una red neuronal convolucional?

Descenso de gradiente estocástico actualiza los parámetros para cada observación, lo que conduce a más actualizaciones. Por lo tanto, es un enfoque más rápido que ayuda a tomar decisiones más rápidas. En esta animación se pueden observar actualizaciones más rápidas en diferentes direcciones.

¿Por qué preferimos el descenso de gradiente?

La razón principal por la que se usa el descenso de gradiente para la regresión lineal es la complejidad computacional: es computacionalmente más barato (más rápido) encontrar la solución usando el descenso de gradiente en algunos casos. Aquí, debe calcular la matriz X′X y luego invertirla (vea la nota a continuación). Es un cálculo caro.

¿Por qué se usa SGD?

El descenso de gradiente estocástico (a menudo abreviado SGD) es un método iterativo para optimizar una función objetivo con propiedades de suavidad adecuadas (por ejemplo, diferenciable o subdiferenciable).

Recomendado: