WEBINARSecure your AI at
every step.

WEBINARSchützen Sie Ihr AI-Ökosystem
in jeder Phase.

WEBINARSécurisez votre IA
à chaque étape

EDIT ME

EDIT ME

EDIT ME

EDIT ME

EDIT ME

EDIT ME

EDIT ME

EDIT ME

EDIT ME

EDIT ME

EDIT ME

EDIT ME

EDIT ME

EDIT ME

EDIT ME

EDIT ME

EDIT ME

EDIT ME

EDIT ME

EDIT ME

EDIT ME

EDIT ME

EDIT ME

EDIT ME

EDIT ME

Organizations are building AI applications at lightning speed, but this surge of innovation has created a landscape riddled with blind spots. It’s clear the traditional approach of relying on scattered point solutions has become obsolete, leaving organizations exposed against new and evolving threats.

During this webinar, you’ll learn how to:

  • Enable safe adoption of AI models by scanning them for vulnerabilities.
  • Address security posture risks associated with your AI ecosystem such as excessive permissions, sensitive data exposure and more.
  • Uncover potential exposure and lurking risks before bad actors do by performing automated penetration tests on your AI apps and models.
  • Protect your LLM-powered AI apps, models and data against runtime threats such as prompt injection, malicious code, toxic content, sensitive data leak, resource overload, hallucination and more.
  • Secure agents — including those built on no-code/low-code platforms — against new agentic threats such as identity impersonation, memory manipulation and tool misuse.

The time is now to empower your organization to deploy AI bravely with Prisma AIRS — and keep your AI innovations secure.

Meet the Speaker

Spencer Thellman

Principal Product Manager
Palo Alto Networks

Spencer Thellmann is a Principal Product Manager at Palo Alto Networks, focusing on Prisma AIRS. He holds an MPhil in Technology Policy from the University of Cambridge. At Palo Alto Networks, Spencer develops innovative products that ensure real-time protection for AI systems against evolving threats. His work bridges technology policy and cybersecurity, contributing to the advancement of AI safety and security.

AI-Anwendungen werden in atemberaubender Geschwindigkeit entwickelt, aber durch diese Innovationswelle sind Angriffsflächen voller toter Winkel entstanden.Der herkömmliche Sicherheitsansatz, der sich auf unternehmensweit verteilte Punktlösungen stützt, reicht eindeutig nicht mehr aus und macht Organisationen anfällig für die neuen Bedrohungen von heute.

In diesem Webinar erläutern wir, wie Sie:

  • AI-Modelle auf Sicherheitslücken prüfen, um eine sichere Nutzung zu ermöglichen,
  • mit Ihrem AI-Ökosystem verbundene Sicherheitsrisiken wie zu weit gefasste Berechtigungen und die Offenlegung sensibler Daten minimieren,
  • potenzielle Gefahren und Risiken aufdecken, bevor Angreifer dies tun, indem Sie automatisierte Penetrationstests für Ihre AI-Apps und ‑Modelle durchführen,
  • Ihre LLM-basierten AI-Anwendungen, -Modelle und -Daten vor Laufzeitbedrohungen wie Prompt-Injections, Schadcode, schädlichen Inhalten, Offenlegung sensibler Daten, Ressourcenüberlastung, Halluzinationen und anderen Gefahren schützen und
  • Ihre Agenten – auch solche, die auf No-Code-/Low-Code-Plattformen entwickelt wurden – gegen neue agentenbasierte Bedrohungen wie Nachahmung von Identitäten, Speichermanipulation und Missbrauch von Tools schützen.

Es ist an der Zeit, Ihren Teams die souveräne Nutzung von AI zu ermöglichen und Ihre AI-Innovationen zu schützen – mit Prisma AIRS.

Über den Vortragenden

Spencer Thellmann

Principal Product Manager
Palo Alto Networks

Als Principal Product Manager ist Spencer Thellmann bei Palo Alto Networks in erster Linie für Prisma AIRS verantwortlich.Seinen M.Phil.-Abschluss in Technology Policy hat er an der University of Cambridge erworben.Bei Palo Alto Networks entwickelt Thellmann innovative Produkte für den Echtzeitschutz von AI-Systemen vor neuen Bedrohungen.Seine Arbeit verbindet Technologiepolitik mit Cyber-Sicherheit und trägt damit zur Weiterentwicklung der AI-Sicherheit bei.

À l’heure où les entreprises développent des applications d’IA à vitesse grand V, cette vague d’innovation engendre de nombreux angles morts.L’approche traditionnelle qui consiste à utiliser des solutions spécialisées fragmentées est clairement dépassée. Résultat, les organisations se retrouvent à la merci des nouvelles menaces.

Durant ce webinar, vous découvrirez comment :

  • Passer vos modèles d’IA au crible et détecter les vulnérabilités pour une adoption en toute sécurité.
  • Neutraliser les risques de sécurité liés à votre écosystème d’IA, comme les accès trop permissifs, les expositions de données sensibles, etc.
  • Identifier les expositions potentielles et les risques latents avant les acteurs malveillants grâce à des tests d’intrusion automatisés sur vos applications et modèles d’IA.
  • Protégez vos applications et modèles d’IA pilotés par LLM, ainsi que vos données, contre une multitude de menaces en temps réel : attaques de prompt injection, infiltration de code malveillant ou de contenus néfastes, fuites de données sensibles, surcharge de ressources, hallucinations, et bien plus encore.
  • Sécuriser vos agents IA, y compris ceux développés sur des plateformes no-code/low-code, contre les nouvelles menaces agentiques : usurpation d’identité, manipulation de la mémoire et détournement des outils.

Il est temps pour votre entreprise de déployer l’IA en toute sécurité grâce à Prisma AIRS, et de protéger ses innovations IA.

Notre intervenant

Spencer Thellmann

Responsable produit principal
Palo Alto Networks

Responsable produit principal chez Palo Alto Networks, Spencer Thellmann est un expert de Prisma AIRS.Il est titulaire d’un Master of Philosophy en politique technologique de l’Université de Cambridge, en Angleterre.M. Thellmann développe des produits innovants permettant aux entreprises de protéger leurs systèmes d’IA en temps réel contre des menaces en perpétuelle mutation.Ce faisant, il établit des ponts entre politique technologique et cybersécurité, œuvrant ainsi pour une IA plus sûre et plus sécurisée.

LP-3 Sec 1 Content
LP-3 Sec 1 Content
LP-3 Sec 1 Content
LP-3 Sec 1 Content
LP-3 Sec 1 Content
LP-3 Sec 1 Content
LP-3 Sec 1 Content
LP-3 Sec 1 Content

Secure Your Entire AI Ecosystem

So sichern Sie Ihr gesamtes AI-Ökosystem

Sécurisez tout votre écosystème d’IA

EDIT ME

EDIT ME

EDIT ME

EDIT ME

EDIT ME

EDIT ME

EDIT ME

EDIT ME

EDIT ME