Annotation Entropy sagt Lernmodelle pro Beispiel in LoRA Fine-Tuning voraus
arXiv:2604.16332v1 Wir stellen fest, dass LoRA Fine-Tuning Verlernen bei umstrittenen Beispielen zeigt: Items mit hoher Annotator-Uneinigkeit zeigen steigende Verluste während des Trainings, ein qualitativ unterschiedliches Muster, das bei vollständigem Fine-Tuning weitgehend abwesend ist