Prompt Injection bei Apple Intelligence: Wie Forscher die KI-Guardrails mit simplen Tricks umgehen
Prompt Injections erlauben Angreifern, KI-Guardrails zu umgehen. Bei Apple Intelligence gab es hier laut Sicherheitsforschern einige Lücken. Apple soll sie mittlerweile behoben haben.weiterlesen auf t3n.de