News Radar
Internationale Tech- und KI-Nachrichten, automatisch kuratiert und ins Deutsche übersetzt. Automatische Übersetzung — der Originaltext ist über den Quellenlink verfügbar.
Internationale Tech- und KI-Nachrichten, automatisch kuratiert und ins Deutsche übersetzt. Automatische Übersetzung — der Originaltext ist über den Quellenlink verfügbar.
arXiv:2604.07369v1 Announcement Type: new Abstract: Emotional Prompting - die Verwendung spezifischer emotionaler Ausdrucksweise im Prompt Engineering - hat vielversprechende Erfolge bei der …
AI-Agenten werden zunehmend in realen Anwendungen eingesetzt, einschließlich Systemen wie Manus, OpenClaw und Coding-Agenten. Bisherige Forschung hat sich hauptsächlich auf Server-seitige Effizienz …
Graph Transformers haben kürzlich Aufmerksamkeit für die Moleküleigenschaften-Vorhersage erregt, indem sie die induktiven Bias von Graph Neural Networks mit dem globalen rezeptiven Feld von …
Safety-trainierte Sprachmodelle verweigern routinemäßig Anfragen zur Umgehung von Regeln. Aber nicht alle Regeln verdienen Compliance. Wenn Nutzer um Hilfe bitten, Regeln einer illegitimen Autorität …
Driftende Modelle generieren hochwertige Samples in einem einzigen Forward Pass durch Transport generierter Samples zur Datenverteilung unter Verwendung eines vektorwertigen Driftfeldes. Wir …
Cross-linguale Code-Generierung ist in Unternehmensumgebungen kritisch, wo mehrere Programmiersprachen koexistieren. Allerdings ist das einzelne Fine-Tuning großer Sprachmodelle für jede Sprache …
Jüngste Alignment-Arbeiten an großen Sprachmodellen deuten darauf hin, dass Preference Optimization das Reasoning verbessern kann, indem die Wahrscheinlichkeitsmasse zu besseren Lösungen verschoben …
Wir stellen probabilistische Language Tries (PLTs) vor, eine einheitliche Darstellung, die die durch jedes generative Modell über Sequenzen implizit definierte Präfix-Struktur explizit macht. Durch …
RL-Training von Multi-Turn-LLM-Agenten ist inhärent instabil, und die Reasoning-Qualität bestimmt direkt die Task-Leistung. Entropy wird weit verbreitet zur Verfolgung der Reasoning-Stabilität …
Test-Zeit-Skalierung untersucht, ob ein festgelegtes Diffusions-Sprachmodell bessere Ausgaben generieren kann, wenn mehr Inferenz-Rechenleistung gegeben wird, ohne zusätzliches Training. Allerdings …
Trainingsdynamiken während Grokking konzentrieren sich entlang einer kleinen Anzahl dominanter Update-Richtungen – dem spektralen Rand – die zuverlässig zwischen Grokking und Nicht-Grokking-Regimen …
Low-Rank Adaptation (LoRA) ermöglicht parameter-effizientes Fine-Tuning großer Sprachmodelle, und kürzliche Mixture-of-Experts-Erweiterungen erhöhen die Flexibilität durch dynamisches Kombinieren …
Bestehende Halluzinationserkennung-Methoden für große Sprachmodelle verlassen sich auf externe Verifikation zur Inference-Zeit und erfordern Gold-Answers, Retrieval-Systeme oder zusätzliche …
arXiv:2604.04971v1 Während Physics-Informed Neural Networks ein vielversprechendes Framework für das Lösen partieller Differentialgleichungen bieten, ist die standardmäßige …
arXiv:2604.04941v1 Viele kombinatorische Optimierungsprobleme verbergen algebraische Strukturen, die, einmal offengelegt, den Suchraum verkleinern und die Chancen auf die globale Optimalslösung …
ALTK-Evolve: On-the-Job Learning für AI Agents
arXiv:2604.04987v1 Speculative Sampling (SpS) war erfolgreich bei der Beschleunigung des Dekodier-Durchsatzes von auto-regressiven Large Language Models durch die Nutzung kleinerer Draft-Modelle. SpS …
arXiv:2604.04998v1 Dieses Papier schlägt ein neuartiges Framework zur Verbesserung der Vorhersagegenauigkeit und Vorlaufzeit von El-Niño-Ereignissen vor, die entscheidend für die Minderung ihrer …
arXiv:2604.04986v1 Modellfreie Deep Reinforcement Learning (DRL)-Methoden leiden unter schlechter Stichprobeneffizienz. Um diese Einschränkung zu überwinden, stellt diese Arbeit ein adaptives …
arXiv:2604.05002v1 Lernen aus schwacher oder Proxy-Überwachung ist häufig, wenn Ground-Truth-Labels nicht verfügbar sind, doch Robustheit unter Verteilungswechsel bleibt schlecht verstanden, …