Zum Inhalt der Seite gehen

„Wie genau die LLMs die Gaslighting-Angriffe wirklich verarbeiten und warum diese Tricks ähnlich gut wie bei Menschen funktionieren, bleibt natürlich eine Black Box“.

D.h. eigentlich haben wir keine richtige Ahnung, wie AI Systeme funktionieren - und trotzdem bestehen wir darauf, sie immer mehr weiter in unsere Gesellschaft zu integrieren?
Ich glaube Jailbreak ist der falsche Begriff hier.