En estadística, el algoritmo de k vecinos más cercanos es un método de clasificación no paramétrico desarrollado por primera vez por Evelyn Fix y Joseph Hodges en 1951, y luego ampliado por Thomas Cover. Se utiliza para clasificación y regresión. En ambos casos, la entrada consta de los k ejemplos de entrenamiento más cercanos en un conjunto de datos.
¿Cómo funciona K vecino más cercano?
KNN funciona encontrando las distancias entre una consulta y todos los ejemplos en los datos, seleccionando el número especificado de ejemplos (K) más cercanos a la consulta, luego vota por el más etiqueta frecuente (en el caso de clasificación) o promedia las etiquetas (en el caso de regresión).
¿Qué significa el algoritmo K vecino más cercano?
K Nearest Neighbor es un algoritmo simple que almacena todos los casos disponibles y clasifica los nuevos datos o casos en función de una medida de similitud. Se utiliza principalmente para clasificar un punto de datos en función de cómo se clasifican sus vecinos.
¿Qué es el aprendizaje automático de K vecino más cercano?
K-Vecino más cercano es uno de los algoritmos de aprendizaje automático más simples basado en la técnica de aprendizaje supervisado El algoritmo K-NN asume la similitud entre el nuevo caso/datos y los casos disponibles y los coloca el nuevo caso en la categoría que es más similar a las categorías disponibles.
¿Cuál es la ventaja del vecino más cercano K?
Almacena el conjunto de datos de entrenamiento y aprende de él solo en el momento de hacer predicciones en tiempo real. Esto hace que el algoritmo KNN sea mucho más rápido que otros algoritmos que requieren entrenamiento, p. SVM, regresión lineal, etc.