Autocontrolado, semiesperado y débilmente supervisado
Cuando ingrese a Machine Learning, rápidamente se enterará del aprendizaje supervisado y no supervisado. Dos enfoques diferentes que resuelven dos tipos de problemas diferentes.
Dado que el Aprendizaje automático y especialmente el Aprendizaje profundo están evolucionando a gran velocidad, las cosas se han vuelto un poco más complicadas.
La línea entre supervisados y no supervisados parece difuminarse y actualmente tres nuevos sabores de aprendizaje están ganando mucha popularidad. Echemos un vistazo brevemente a los dos sospechosos habituales antes de llegar a lo nuevo.
Aprendizaje supervisado
El aprendizaje supervisado consiste en encontrar un mapeo que transforme un conjunto de características de entrada en un conjunto predefinido de características de salida.
En otras palabras, le estamos diciendo explícitamente al modelo qué es lo que queremos predecir para los datos de entrenamiento.
El aprendizaje supervisado conlleva el problema de que necesitamos etiquetar manualmente nuestros datos para definir el espacio de salida para cada muestra.
Aprendizaje no supervisado
En el aprendizaje no supervisado también estamos interesados en encontrar un mapeo en un espacio de salida, pero no sabemos cómo se ve esta salida.
O al menos, no alimentamos esta información al algoritmo. El ejemplo más común para el aprendizaje no supervisado es la agrupación, donde dividimos las muestras en grupos según sus características más distintivas.
Aprendizaje autocontrolado
El aprendizaje autocontrolado se refiere a un enfoque donde las etiquetas pueden ser generado automáticamente . La arquitectura en sí misma y el proceso de aprendizaje están completamente supervisados, pero no es necesario el paso de etiquetar manualmente los datos de entrenamiento.
Ejemplo 1: Autoencoders
Un ejemplo clásico para esto son los Autoencoders donde los datos de entrada y salida son completamente iguales.
El propósito de su arquitectura es comprimir primero la entrada a un formato denso y luego reconstruir la señal original.
Al hacer esto, los autoencoders aprenden una compresión de datos con pérdida de datos específica que puede ser útil para la extracción de características o la reducción de datos.
Ejemplo 2: Súper resolución de imágenes
Otro ejemplo es la superresolución de imágenes donde realizamos una imagen al intentar reconstruir nueva información de píxeles basada en el contenido semántico.
Si desea construir un conjunto de datos para un problema de este tipo, todo lo que necesita es una colección de imágenes sin etiqueta.
Para etiquetarlos, puede reducir la escala de las imágenes originales y usarlas como su entrada. La salida será las imágenes de tamaño original.
En este caso, no necesitó etiquetar manualmente nada. Usted generó automáticamente los datos de entrenamiento etiquetados de los datos de entrenamiento sin etiqueta.
Aprendizaje semiesperado
El aprendizaje semi-supervisado entra en juego cuando los datos de su entrenamiento son solo etiquetados parcialmente .
Encontrarás muchos conjuntos de datos en línea donde, además de las muestras anotadas, también obtendrás datos adicionales que no están etiquetados. Como todos los datos son buenos, esto puede ayudarlo a mejorar su modelo.
Ejemplo: Pseudo Etiquetado
Pseudo etiquetado es el proceso de predicción de etiquetas para datos para los que no tenemos etiquetas y el uso de estas predicciones como etiquetas de verdad del suelo para expandir nuestro conjunto de datos.
Si bien es probable que esto introduzca ruido en nuestros datos, los experimentos han demostrado que puede ayudar a aumentar la precisión de un modelo. Si encuentra esto sorprendente, no está solo.
Aprendizaje débilmente supervisado
El aprendizaje débilmente supervisado se refiere a un modelo que predice información adicional de las etiquetas en las que se capacitó. Puede pensar en esto como aprendizaje no supervisado además de aprendizaje supervisado.
Ejemplo: segmentación de etiquetas de clasificación
Imagine que está entrenando un clasificador para distinguir diferentes tipos de objetos que están contenidos en algún lugar de la imagen. Una CNN aprenderá a crear mapas de calor para cada clase donde espera que este objeto esté en el marco.
De esta forma, puede comparar el área y la verosimilitud de un objeto con los demás. Si bien solo entrenamos a la red con información que es verdadera para todo el marco, también obtenemos información sobre el lugar en el que está ubicado el objeto.
–
Encontrará diferentes definiciones para estos términos en todo el lugar.
Algunos parecen ser imprecisos porque están desactualizados, algunos parecen combinar términos que explícitamente diferencio y otros expresan opiniones con las que simplemente estoy en desacuerdo.
Por favor, deje un comentario si no está de acuerdo con el mío.