Découvrez comment l'empoisonnement des données d'entraînement peut transformer des IA bienveillantes en armes, capable de modifier leur comportement à une date future précise. Cette vidéo explore les mécanismes par lesquels les modèles de langage peuvent être "hackés" de l'intérieur, allant au-delà de la simple injection de prompt pour révéler des vulnérabilités terrifiantes. Apprenez les implications de ces découvertes pour la sécurité et l'éthique de l'intelligence artificielle.
Youtube Creator Tech Journalist
Tech Journalism Content Analysis
Ai Researcher Machine Learning

00:19:34

00:10:39

00:09:48