Neuer LLM-Jailbreak: Psychologe nutzt Gaslighting gegen KI-Filter
Von "Gaslighting" spricht man, wenn jemand versucht, einen anderen Menschen gezielt zu verunsichern – das klappt auch bei LLMs.
https://www.heise.de/news/Neuer-LLM-Jailbreak-Psychologe-nutzt-Gaslighting-gegen-KI-Filter-10332571.html?wt_mc=sm.red.ho.mastodon.mastodon.md_beitraege.md_beitraege&utm_source=mastodon
#ChatGPT #IT #KünstlicheIntelligenz #Wissen #news
Von "Gaslighting" spricht man, wenn jemand versucht, einen anderen Menschen gezielt zu verunsichern – das klappt auch bei LLMs.
https://www.heise.de/news/Neuer-LLM-Jailbreak-Psychologe-nutzt-Gaslighting-gegen-KI-Filter-10332571.html?wt_mc=sm.red.ho.mastodon.mastodon.md_beitraege.md_beitraege&utm_source=mastodon
#ChatGPT #IT #KünstlicheIntelligenz #Wissen #news
ZeroGravitas •
D.h. eigentlich haben wir keine richtige Ahnung, wie AI Systeme funktionieren - und trotzdem bestehen wir darauf, sie immer mehr weiter in unsere Gesellschaft zu integrieren?
suzune •