Preentrenamiento de modelos de lenguaje con regularización de subpalabras: Un estudio empírico de BPE Dropout en PLN de bajos recursos
Descubre cómo BPE Dropout optimiza el preentrenamiento de modelos de PLN en escenarios de bajos recursos. Una técnica clave para mejorar el rendimiento.