Es una familia de técnicas (como LoRA, Prompt Tuning, etc.) diseñadas para adaptar grandes modelos de lenguaje pre-entrenados a tareas específicas sin necesidad de reentrenar todos sus miles de millones de parámetros. En su lugar, solo se ajusta un número muy pequeño de parámetros adicionales. Esto reduce drásticamente el costo computacional y el tiempo de entrenamiento. Su importancia es enorme porque permite la personalización masiva de modelos, elevando la calidad de las respuestas con decisiones trazables y un costo mucho menor.