Muy similar al Prompt Tuning, es otra técnica de PEFT para adaptar LLMs de manera eficiente. En lugar de ajustar los miles de millones de parámetros del modelo, solo se entrena un pequeño ""prefijo"" de vectores que condiciona el comportamiento de las capas de atención del modelo. Esta práctica es frecuente en asistentes que buscan precisión sin el alto costo del fine-tuning completo. Su impacto se nota en menos errores y respuestas más consistentes, logrando una especialización de la tarea con una fracción de los recursos computacionales.