Dans son flash de décembre 2025, la direction générale de la sécurité intérieure (DGSI) met en lumière, trois risques associés à l’usage de l’intelligence artificielle dans le monde professionnel.
Force est de constater que les risques sont variés et nécessitent de responsabiliser l’ensemble des employés des entreprises. Mais, bien structuré, l’outil IA est très efficace.
1 – Transmission de documents confidentiels à un outil d’IA
Le directeur des services informatiques (DSI) d’une entreprise française stratégique a découvert que certains salariés utilisaient des services d’intelligence artificielle pour leur travail. Ils utilisaient l’outil A grand public d’une entreprise étrangère afin de traduire des documents classés confidentiels.
Ces pratiques posent plusieurs soucis :
- Les principaux outils d’IA générative, notamment les plateformes gratuites, utilisent les données saisies ou déposées par les utilisateurs pour entrainer leurs modèles.
- Certains outils d’IA imposent le stockage des données utilisateurs dans leurs serveurs Ces données peuvent alors être soumises à des lois étrangères.
- Ces pratiques relèvent du Shadows IT (informatique fantôme : tendance à recourir à des solutions technologiques non validées officiellement). Pratiques qui posent de nombreux problème de gouvernance des données, de fiabilité, de sécurité et conformité réglementaire.
2 – Une évaluation entièrement déléguée à un outil d’IA
Une entreprise française a mis en place une procédure d’évaluation de ses partenaires commerciaux, afin de réduire les risques juridiques, financiers ou réputationnels. Pour cela elle utilise un outil fondé sur de l’intelligence artificielle.
Par manque de temps et méconnaissance des biais potentiels de l’outil, la société ne procède à aucune vérification complémentaire et oriente systématiquement ses décisions en fonction du retour fait par l’outil.
Cette pratique pose question :
- Les IA formulent leurs résultats sur un modèle probabiliste : la réponse la plus probable, d’un point de vue statistique est générée.
Il ne s’agit pas forcément de la réponse la plus pertinente au regard du contexte. Cette réponse peut également être « inventée » par l’IA. On évoque alors le terme d’« hallucinations ». - Les outils d’intelligence artificielle reproduisent ou amplifient les biais présents dans les données liées à leur entraînement initial. Les réponses fournies peuvent alors proposer des décisions inéquitables ou discriminatoires.
- Les décisions prises par certains systèmes d’IA sont parfois qualifiées de « boites noires », difficile à comprendre.
- Une dépendance excessive aux outils d’IA peut diminuer la vigilance humaine.
3 – Une tentative d’arnaque au président par Deepfake
Le responsable d’un groupe industriel français a reçu un appel de son directeur en visio-conférence. Lors de l’échange, il a pu remarquer l’apparence physique et la voix du dirigeant. Mais lors des échanges, le directeur a émis une demande inhabituelle afin de réaliser un transfert de fonds pour un rachat. Surpris par cette demande, le responsable a mis fin aux échanges.
Il a repris contact avec sa direction par les canaux habituels. Il venait d’être victime d’une tentative d’escroquerie par deepfake. L’apparence et la voix de son directeur étaient usurpées.
Il y a 2 ans, en février 2024, une entreprise de Hong Kong avait déjà été victime d’une arnaque au président par deepfake. Depuis, cette arnaque sophistiquée, est utilisée pour cibler grandes entreprises, comme les ETI ou les PME
L’IA peut être utilisée pour des arnaques élaborées, de formats différents :
- Génération automatique de contenus malveillants : messages frauduleux, faux sites web, faux messages vocaux sur whatsapp, etc.
- L’IA peut également permettre d’analyser rapidement les données publiques et privées d’une cible pour personnaliser les attaques.
- Les deepfakes, permettent de créer des contenus truqués, de façon très réaliste.
- La manipulation des données d’entrées d’un système d’Ia, afin de tromper l’algorithme et provoquer des erreurs.
4 – Les préconisations de la DGSI dans l’utilisation de l’IA au sein d’une entreprise.
a – Encadrer l’usage de l’IA dans l’entreprise.
- Définir les conditions d’usages de l’outil IA :
- Former le personnel afin qu’il comprenne au mieux le fonctionnement de l’IA.
- Identifier les outils à intégrer dans le cadre professionnel et ceux à écarter.
- Encadrer les pratiques dans une charte dédiée.
- Favoriser le recours à des IA génératives françaises ou européennes
- Privilégier l’utilisation de l’IA en local : il est possible d’installer un modèle de langage d’une IA sur un ordinateur / un serveur relativement puissant, afin de conserver l’entièreté des données localement.
- Former régulièrement l’ensemble du personnel à l’IA et aux impacts possibles.
b- Utiliser l’IA générative de manière raisonnée
- Etre transparent et signaler l’utilisation de l’IA à sa hiérarchie, ses clients.
- Ne pas soumettre de données à caractère personnel (nom, prénom, téléphone, analyses médicales, photos personnelles, etc.) dans un outil d’IA
- Toujours vérifier l’information, échantillonner les résultats obtenus et faire preuve de vigilance dans les biais proposés par les réponses.
- Vérifier exactitude et pertinence des résultats obtenus en s’appuyant sur des experts
- Avertir la DGSI pour tout évènement suspect lié à l’utilisation de l’IA.
Pour poursuivre votre lecture :
- L’intelligence artificielle (IA) sonne la fin de la preuve par l’image (ou pas) (janvier 2026)
- Commande publique : L’État veut privilégier des solutions numériques souveraines. (février 2026)
- Quand l’IA génère de faux produits de seconde main et de fausses annonces (Novembre 2025)
Sources :
- Les risques associés à l’usage de l’intelligence artificielle dans le monde professionnel (Flash n°9 de décembre 2025 à retrouver sur le site de la DGSI)
- Accès au Flash N°9 de la DGSI
- IA : une arnaque par deepfake a coûté 26 millions de dollars à une entreprise de Hong Kong (France Inter – 5 février 2024)