Les modèles d'IA peuvent acquérir des portes dérobées à partir d'un nombre étonnamment faible de documents malveillants — Une étude récente menée par Anthropic a révélé que les modèles de langage peuvent développer des vulnérabilités de porte dérobée à partir d'un nombre étonnamment faible de documents malveillants. En effet, seulement 250 documents corrompus insérés dans leurs données d'entraînement suffisent pour compromettre la sécurité des modèles d'IA. Cette découverte remet en question les hypothèses précédentes sur la robustesse des modèles de langage face aux attaques malveillantes.
Discord annonce le vol de pièces d'identité de 70 000 utilisateurs — Discord a révélé qu'un piratage chez un prestataire tiers a exposé les pièces d'identité gouvernementales de 70 000 utilisateurs. Cette faille de sécurité souligne les risques croissants de vol d'identité liés à la vérification d'âge en ligne. Les utilisateurs concernés sont invités à prendre des mesures immédiates pour protéger leurs informations personnelles.