Skip to content
Der KI-Podcast

Wie knacke ich die KI?

Der KI-Podcast

Intro
0:00,0
10 min
0:00
2:00
4:00
0:00 15:00 30:00
1x

Jeder, der schon mal mit KI-Sprachmodellen zu tun hatte, kennt es: man will eine bestimmte Antwort vom Chatbot - doch der weigert sich hartnäckig, diese zu geben. Es gibt aber Tricks, um LLMs und andere GenAI-Modelle gefügig zu machen: sogenannte Pompt Hacks, Jailbreaks oder Prompt Injections. Wir erklären, was hinter diesen Begriffen steckt, wie diese Methoden funktionieren und wir fragen: Ist es gut oder schlecht, wenn KI-Modelle nicht alle Fragen beantworten, die wir ihnen stellen?

In dieser Folge: 00:00 Intro 02:38 Was sind Prompt Hacks und wie funktionieren sie? 13:30 Wie Marie einen Chatbot dazu brachte, ihr 3000 Proteinriegel zu versprechen 19:47 Fritz und DeepSeek: Wer bestimmt, was KI-Modelle sagen? 30:10 Sollen Chatbots immer auf alle Fragen Antworten geben? 34:32 Was haben wir diese Woche mit KI gemacht?

Redaktion und Mitarbeit: David Beck, Cristina Cletiu, Chris Eckardt, Fritz Espenlaub, Marie Kilg, Mark Kleber, Gudrun Riedl, Christian Schiffer, Gregor Schmalzried

Links und Quellen:

arstechnica.com/information-technolog...

Kontakt: Wir freuen uns über Fragen und Kommentare an podcast@br.de.

Unterstützt uns: Wenn euch dieser Podcast gefällt, freuen wir uns über eine Bewertung auf eurer liebsten Podcast-Plattform. Abonniert den KI-Podcast in der ARD Audiothek oder wo immer ihr eure Podcasts hört, um keine Episode zu verpassen. Und empfehlt uns gerne weiter!