Es una técnica de ""Parameter-Efficient Fine-Tuning"" (PEFT) que mantiene congelados todos los pesos del modelo de lenguaje original y solo entrena una pequeña secuencia de vectores (un ""soft prompt"") que se añade a la entrada. Permite adaptar un modelo masivo a tareas específicas con un costo computacional y de almacenamiento muy bajo. Permite combinar de forma segura los datos internos con la potencia del modelo, ya que se puede tener un ""soft prompt"" diferente para cada cliente o tarea sin necesidad de duplicar el modelo completo.