Disposition Distillation bei kleinem Maßstab: Ein dreiteliges negatives Ergebnis

arXiv:2604.11867v1 Ankündigungstyp: Neu Abstract: Wir setzten uns zum Ziel, Verhaltenstendenzen (Selbstverifikation, Unsicherheitserkennung, Rückkopplungsintegration) in kleine Sprachmodelle (0,6B bis 2,3B effektive Parameter) durch eine vierphasige All-MIT-Distillationspipeline einzutrainieren, mit Folgeexperimenten…