Hacking LLMs - Sicherheitsrisiken verstehen und gezielt ausnutzen - Offene Schulung, Seminar, Kurs mit Terminen

Hacking LLMs - Sicherheitsrisiken verstehen und gezielt ausnutzen

Das Seminar Hacking LLMs - Sicherheitsrisiken verstehen und gezielt ausnutzen
bieten wir Ihnen als Präsenz, Hybrid, Online Training und Inhouse-Schulung an!

Themen und Inhalte für Ihre Schulung und Weiterbildung:
Beschreibung:

Künstliche Intelligenz und große Sprachmodelle (LLMs) revolutionieren unsere digitale Welt – und öffnen zugleich neue Angriffsflächen. In diesem intensiven Kurs lernen Sie praxisnah, wie moderne KI-Systeme angegriffen und abgesichert werden können. Anhand realistischer Beispiele analysieren Sie Schwachstellen, führen selbst Angriffe durch und lernen, wie man robuste Gegenmaßnahmen entwickelt.

Auch als Online Training verfügbar!

OWASP Top 10 for LLMs and Gen AI Manipulation durch Sprache – Prompt Injection verstehen, durchführen und abwehren Unsichere Ausgabe gezielt ausnutzen – Gefährliches Vertrauen in Modellantworten erkennen Daten an der Quelle vergiften – Training Data Poisoning und seine weitreichenden Folgen Modelle außer Gefecht setzen – Denial-of-Service-Angriffe auf LLMs praktisch anwenden Lieferketten als Schwachstelle – Supply Chain Attacks im KI-Ökosystem Vertrauliche Daten entlocken – Sensitive Information Disclosure durch geschickte Prompts Plugins als Einfallstor – Insecure Plugin Design verstehen und absichern Wenn KI zu viel darf – Risiken durch Excessive Agency in autonomen Systemen Blindes Vertrauen vermeiden – Übermäßige Abhängigkeit (Overreliance) erkennen und reduzieren

Zielgruppe:

Für Entwickler, Sicherheitsforscher, Red Team-Mitglieder und alle, die LLMs sicher einsetzen oder gezielt testen wollen. Grundkenntnisse in Python und KI sind von Vorteil, aber nicht zwingend notwendig. Ebenso willkommen sind alle, die einfach großen Spaß daran haben, moderne KI-Systeme kreativ auszutricksen und ihre Grenzen praktisch auszuloten.

Voraussetzungen:

Vorausgesetzt werden Neugier, technisches Interesse und keine Scheu, auch die dunklen Seiten der KI zu beleuchten. Grundkenntnisse in Python und KI sind von Vorteil, aber nicht zwingend notwendig. Technische Grundlagen erwerben Sie in den Kursen Large Language Models – ChatGPT, Gemini, Llama & Co. oder ChatGPT – Programmierung & Problemlösung mit KI-Unterstützung.

Ein Symbol für einen Kalender.

"Offene" Termine

Dauer

Ein Symbol für Dauer.
2 Tag(e)

Preis

Ein Symbol für Preis.
1.995,00 EUR (Nettopreis)
2.374,05 EUR (Bruttopreis)

Die Preise verstehen sich bei Unternehmern gemäß § 14 BGB zzgl. MwSt. Der dargestellte Preis entspricht dem  verfügbaren Gesamtpreis für eine (1) teilnehmende Person.

Ein Symbol für einen Kalender.
Präsenz, Hybrid, Online
27.10.2025
Live Online
27.10.2025
Frankfurt
02.02.2026
Live Online
02.02.2026
Frankfurt
11.05.2026
Live Online
11.05.2026
Frankfurt
Kostenlose Reservierung

Wir helfen gerne weiter!

Rufen Sie uns an, schreiben eine E-Mail oder nutzen das Kontaktformular.

Jetzt anfragen

Anfrage für eine kostenlose und unverbindliche Terminanfrage
für die Schulung:

Hacking LLMs - Sicherheitsrisiken verstehen und gezielt ausnutzen
Dauer: 2 Tage

Ich interessiere mich für den Termin:

27.10.2025
-
28.10.2025
Live Online
27.10.2025
-
28.10.2025
Frankfurt
02.02.2026
-
03.02.2026
Live Online
02.02.2026
-
03.02.2026
Frankfurt
11.05.2026
-
12.05.2026
Live Online
11.05.2026
-
12.05.2026
Frankfurt

Das Angebot von "HECKER CONSULTING" richtet sich ausschließlich an Unternehmen und Behörden (iSv § 14 BGB). Verbraucher (§ 13 BGB) sind vom Vertragsschluss ausgeschlossen. Mit Absendung der Anfrage bestätigt der Anfragende, dass er nicht als Verbraucher, sondern in gewerblicher Tätigkeit handelt. § 312i Abs. 1 S. 1 Nr. 1-3 und S. 2 BGB (Pflichten im elektronischen Geschäftsverkehr) finden keine Anwendung.

Vielen Dank, Ihre Nachricht wurde empfangen!
Beim Absenden des Formulars ist etwas schief gelaufen.

Wir freuen uns über Ihre Anfrage und antworten so schnell es geht!

Nach oben