En 2026, l’IA ne crée pas de nouvelles cyberattaques : elle les rend plus rapides, plus crédibles et plus difficiles à déjouer. Pour les entreprises, l’enjeu dépasse l’informatique : une manipulation réussie peut perturber l’organisation, mettre des équipes sous pression et fragiliser la sécurité au travail.
Phishing hyper-personnalisé : quand l’IA s’attaque à vos routines
Le hameçonnage « classique » fonctionne toujours, mais l’IA change son économie : les attaquants produisent des variantes à la chaîne, adaptent le ton à votre secteur, et itèrent jusqu’à trouver la formulation qui déclenche un clic. Les messages s’appuient souvent sur des éléments réalistes : noms de projets, prestataires, organigrammes, signatures, ou informations glanées en ligne.
Dans un environnement de travail, le risque est aussi organisationnel : la pression (« c’est urgent »), l’autorité (« c’est la direction ») et la fatigue accélèrent les erreurs. Un faux message peut viser un virement, mais aussi un changement de procédure, l’accès à un outil HSE, ou la diffusion d’une consigne erronée.
- Renforcer l’authentification et réduire les exceptions (comptes sensibles, support, finance, RH).
- Imposer une validation hors messagerie pour toute demande atypique ou à impact (paiement, accès, consigne).
- Former avec des scénarios proches du terrain, mis à jour, et intégrés aux périodes à risque (clôtures, pics d’activité).
Deepfakes audio/vidéo : l’illusion de la preuve et l’effet d’urgence
Une voix ou une visio a longtemps « suffi » à convaincre. Les deepfakes exploitent cette confiance instinctive : ils n’ont pas besoin d’être parfaits, seulement plausibles le temps d’obtenir une action. Le danger apparaît quand une organisation valide une demande parce qu’elle « reconnaît » quelqu’un.
Les cas à risque touchent directement les processus : changement de coordonnées bancaires, recrutement express, demande d’accès à un site, consignes envoyées à une équipe terrain, ou arbitrage en pleine crise. En sécurité au travail, une fausse instruction peut créer une situation dangereuse avant même que la fraude ne soit détectée.
- Vérifier la cohérence : contexte, timing, périmètre, niveau d’urgence, et « raison d’être » de la demande.
- Exiger un second canal : rappel via numéro connu, validation via outil interne, ou confirmation par un pair.
- Tracer et bloquer : consigner l’incident, alerter, et neutraliser rapidement les comptes ou canaux compromis.
Identités et agents offensifs : la cadence réduit votre fenêtre de réaction
La cible prioritaire, aujourd’hui, c’est l’identité : identifiants, sessions, jetons, comptes techniques, clés d’API, certificats cloud. Une fois un accès obtenu, l’attaquant agit « comme un salarié » et peut avancer sans déclencher d’alerte immédiate si les droits sont trop larges.
L’IA apporte surtout de la vitesse. Des agents semi-autonomes peuvent enchaîner repérage, tri de cibles, génération de leurres, tests d’exposition et relances. Ajoutez une chasse aux vulnérabilités accélérée (scan de versions, priorisation des failles exploitables), et le délai entre intrusion et impact se resserre : arrêt d’outils, fuite de données, extorsion, désorganisation.
- Appliquer le moindre privilège, séparer les comptes admin et rendre les accès élevés temporaires.
- Durcir la chaîne « support → réinitialisation → MFA » et surveiller les jetons/sessions inhabituels.
- Réduire l’exposition : segmentation, accès d’administration verrouillés, sauvegardes isolées et testées.
Assistants connectés et Shadow AI : la fuite involontaire devient un risque métier
Dès qu’un assistant est relié à des outils internes (messagerie, base documentaire, applications), il devient une porte d’accès. Une requête trop large ou des droits mal réglés peuvent conduire l’IA à restituer des informations sensibles. Le problème s’amplifie quand l’assistant résume et recoupe des données provenant de demandes différentes, pour des usages différents.
Le Shadow AI ajoute une couche humaine : par manque de temps, des salariés copient-collent des extraits de contrats, d’e-mails clients, de tableaux ou de procédures dans des services non encadrés. Souvent sans malveillance, mais avec une perte de contrôle sur la circulation des données et une difficulté à qualifier un incident.
- Fournir un outil validé (compte pro, journalisation, paramètres de rétention), plutôt que laisser proliférer les usages.
- Cloisonner par équipes et limiter strictement ce que l’assistant peut lire, restituer ou exécuter.
- Exiger une validation humaine pour les actions sensibles et détecter les requêtes anormales.
- Traduire la politique en règles simples : « autorisé », « interdit », « en cas de doute ».
Sur le même sujet : Cybersécurité en entreprise : 8 tendances de risques dopés par l’IA à surveiller en 2026.