Neural Architecture Search
Neural Architecture Search La búsqueda de arquitectura neuronal tiene como objetivo descubrir la mejor arquitectura para una red neuronal para una necesidad específica. NAS esencialmente toma el proceso de un humano ajustando manualmente una red neuronal y aprendiendo qué funciona bien, y automatiza esta tarea para descubrir arquitecturas más complejas. Este dominio representa un conjunto de herramientas y métodos que probarán y evaluarán una gran cantidad de arquitecturas en un espacio de búsqueda utilizando una estrategia de búsqueda y seleccionarán la que mejor cumpla con los objetivos de un problema dado al maximizar una función de aptitud .
Neural Architecture Search (NAS) es una de las áreas de aprendizaje automático de más rápido desarrollo. Un gran número de trabajos de investigación se refieren a la automatización de la búsqueda de arquitecturas de redes neuronales, en diferentes industrias y diferentes problemas. Ya hoy en día, muchas arquitecturas manuales han sido superadas por arquitecturas hechas por NAS:
- Detección de objetos — Procesamiento de imágenes — Zoph y otros 2017
- Clasificación de imágenes — Procesamiento de imágenes — Real y otros, 2019
- Optimización de hiperparámetros — AutoML — Feurer y Hutter, 2019
- Metaaprendizaje — AutoML — Vanchoren, 2018
Trabajos recientes sobre el NAS muestran que este campo está en plena expansión y tendencia. 2019 y 2020 marcan una aceleración en la cantidad de investigación que se está realizando. Si bien los primeros trabajos podrían considerarse una prueba de concepto, la investigación actual está abordando necesidades más específicas que cruzan varias industrias y áreas de investigación . Esta tendencia muestra el potencial que puede aportar el NAS, tanto en términos de su eficiencia y su capacidad de adaptarse a cualquier tipo de problema , como en términos del ahorro de tiempo de los ingenieros para trabajar en tareas no automatizadas.