Modelo Basado en Energía (EBM)

 Un modelo basado en energía (EBM) es una forma de modelo generativo (GM) importado directamente de la física estadística al aprendizaje. Los GM aprenden una distribución de datos subyacente mediante el análisis de un conjunto de datos de muestra. Una vez entrenado, un GM puede producir otros conjuntos de datos que también coincidan con la distribución de datos. Los EBM brindan un marco unificado para muchos enfoques probabilísticos y no probabilísticos de dicho aprendizaje, en particular para el entrenamiento de modelos gráficos y otros modelos estructurados. 


Un EBM aprende las características de un conjunto de datos de destino y genera un conjunto de datos similar pero más grande. Los EBM detectan las variables latentes de un conjunto de datos y generan nuevos conjuntos de datos con una distribución similar.

Los EBM capturan las dependencias asociando un escalar de probabilidad no normalizado ( energía ) a cada configuración de la combinación de variables observadas y latentes. La inferencia consiste en encontrar (valores de) variables latentes que minimicen la energía dado un conjunto de (valores de) las variables observadas. De manera similar, el modelo aprende una función que asocia energías bajas a valores correctos de las variables latentes y energías altas a valores incorrectos.


Los EBM tradicionales se basan en métodos de optimización de descenso de gradiente estocástico (SGD) que suelen ser difíciles de aplicar a conjuntos de datos de gran dimensión. En 2019, OpenAI publicó una variante que, en cambio, usaba la dinámica de Langevin (LD). LD es un algoritmo de optimización iterativo que introduce ruido en el estimador como parte del aprendizaje de una función objetivo . Se puede utilizar para escenarios de aprendizaje bayesiano mediante la producción de muestras a partir de una distribución posterior.

Los EBM no requieren que las energías se normalicen como probabilidades. En otras palabras, no es necesario que las energías sumen 1. Dado que no es necesario estimar la constante de normalización como lo hacen los modelos probabilísticos, ciertas formas de inferencia y aprendizaje con EBM son más manejables y flexibles.


Las muestras se generan implícitamente a través de un enfoque Monte Carlo de cadena de Markov . [4] Se utiliza un búfer de reproducción de imágenes pasadas con LD para inicializar el módulo de optimización.