Ces navigateurs IA qui aspirent vos données sensibles au travail (et comment réagir)

Classé dans la catégorie : Risques informatiques

Alors que les entreprises déploient à grande vitesse des outils d’IA générative, les navigateurs dits “intelligents” s’installent discrètement sur les postes de travail. Ils promettent un gain de temps considérable, mais ouvrent aussi une nouvelle brèche dans la sécurité au travail.

Navigateurs IA : un nouvel angle mort de la sécurité au travail

Face à la vague des navigateurs dopés à l’IA, nombre d’entreprises y voient un moyen rapide de gagner du temps. Mais derrière cette promesse de productivité, ces outils apportent aussi un risque majeur pour la sécurité au travail : celui de laisser fuir des données sensibles.

Les derniers travaux de Gartner tirent un signal clair : les navigateurs intégrant des agents IA comme Perplexity Comet ou ChatGPT Atlas ne sont pas encore mûrs pour des usages en environnement de travail. Leur logique de fonctionnement repose sur l’envoi massif d’informations vers le cloud du fournisseur : onglets ouverts, pages consultées, historique, voire contenus affichés dans d’autres fenêtres. Autrement dit, tout ce qui apparaît à l’écran peut devenir une matière première pour l’algorithme.

Pour les équipes sécurité et les responsables HSE, ce point change la donne. Même lorsqu’un salarié pense simplement « gagner du temps » avec une fonction de résumé, de traduction ou d’assistance à la rédaction, il peut à son insu transmettre à un service distant des contrats, des données RH, des informations de santé au travail ou des éléments stratégiques.

Des agents autonomes difficiles à contrôler

Gartner met également en lumière la fragilité des agents autonomes intégrés à ces navigateurs. Capables de cliquer, remplir des formulaires ou lancer des actions au sein d’une session, ils deviennent des cibles idéales pour des attaques par injection indirecte.

En contexte de travail, ces comportements imprévisibles ne sont pas qu’un sujet “IT” : ils peuvent avoir des conséquences directes sur la sécurité opérationnelle. Un formulaire d’incident mal rempli, une commande d’équipements de protection individuelle erronée, une réservation de déplacement non conforme aux règles de sûreté peuvent fragiliser tout un dispositif de prévention.

Quand la facilité prend le pas sur les obligations internes

À ces failles techniques s’ajoute un facteur humain que Gartner juge particulièrement préoccupant. Face à la lassitude liée aux tâches répétitives ou aux procédures jugées contraignantes, certains collaborateurs pourraient être tentés de déléguer à l’agent IA des obligations internes qui nécessitent en réalité leur engagement personnel. Les analystes évoquent notamment le risque de laisser l’IA suivre à leur place des modules de formation à la cybersécurité ou à la sécurité au travail.

Au-delà du non-respect des exigences réglementaires, ce type de dérive ruine l’objectif même des formations : développer les bons réflexes face aux risques. Un salarié qui laisse un agent IA “cliquer suivant” à sa place ne renforce ni sa culture de sécurité, ni sa capacité à réagir en situation réelle.

Encadrer les navigateurs IA comme un risque professionnel

Pour limiter ces dérives, Gartner recommande aux organisations de traiter les navigateurs IA comme tout autre outil à risque : par une analyse approfondie avant déploiement, et non par un simple test “terrain” auprès de quelques équipes volontaires. Cartographier les données susceptibles d’apparaître dans le navigateur, identifier les applications critiques exposées et évaluer les scénarios de fuite ou de manipulation doivent devenir des étapes incontournables.

Sur cette base, il devient possible de définir noir sur blanc des cas d’usage interdits et de les traduire en règles concrètes, par exemple :

  • interdiction de traiter des données de santé ou dossiers médicaux via un navigateur IA ;
  • exclusion de ces outils pour les enquêtes internes, audits ou procédures disciplinaires ;
  • blocage de toute automatisation liée aux validations RH, QSE ou HSE sensibles.

Ces règles doivent être intégrées aux politiques de sécurité existantes et rappelées dans les chartes informatiques, au même titre que les interdictions liées aux supports USB ou aux services de stockage non maîtrisés.

Enfin, Gartner conseille d’accompagner tout choix d’outil par un travail pédagogique auprès des utilisateurs. Expliquer ce que l’agent voit réellement, comment il traite les informations et quels types de comportements créent un risque est indispensable pour responsabiliser chacun. Lorsque c’est possible, il est recommandé de verrouiller les paramètres de confidentialité ou, de façon temporaire, de bloquer l’installation de ces navigateurs IA le temps que le cadre de sécurité et de gouvernance soit clairement établi.

Consultez l'étude Gartner : Cybersecurity Must Block AI Browsers for Now.

Sur le même sujet : Gartner alerte sur le danger des navigateurs IA chez les professionnels.

Les derniers produits : Toutes les categories