In dieser Folge von "programmier.bar" diskutieren Jan, Dave und Gast Georg Dresler über Prompt Injection und Sicherheitsaspekte bei Large Language Models (LLMs). Sie erörtern, was Prompt Injection ist, wie es funktioniert, welche Risiken es birgt und welche Abwehrmechanismen existieren. Dabei werden sowohl technische Details als auch praktische Beispiele aus dem Alltag und der Softwareentwicklung beleuchtet, einschließlich potenzieller Angriffsvektoren und Best Practices zur Minimierung von Risiken. Abschließend geben sie noch Empfehlungen für Tools und Spiele, mit denen man Prompt Injection üben und besser verstehen kann.
Sign in to continue reading, translating and more.
Continue