Méfiez-vous avant de confier vos secrets à l'IA.
- Agence Promoovoir

- 21 oct.
- 5 min de lecture
Dernière mise à jour : il y a 5 jours
L'intelligence artificielle est maintenant partout. Mais derrière l'aspect pratique se cachent des risques bien réels pour vos données personnelles et votre sécurité. Voici nos conseils pour s'en prémunir.

Réfléchissez à ce que vous partagez avec ChatGPT (et les autres)
Techniquement, chaque conversation, chaque idée que vous soumettez est découpée, analysée et intégrée dans une gigantesque base de connaissances. Vos mots deviennent littéralement une partie du cerveau collectif de la machine, servant à affiner ses futures réponses. L'anecdote de cet adolescent arrêté par la police après avoir demandé à une IA des conseils pour tuer quelqu'un, est un rappel brutal que ces échanges laissent des traces exploitables.
On assiste à une dérive où des milliers d'utilisateurs traitent ces IA comme un confident ou un psychologue, leur confiant leurs angoisses existentielles, leurs stratégies d'entreprise ou leurs brouillons de lettres de rupture.
C'est un journal intime numérique à ciel ouvert, peu sécurisé. Il suffit d'un téléphone volé, d'un mot de passe un peu faible, et c'est l'intégralité de votre historique de pensées (de votre vie intime) qui se retrouve accessible.
L'IA peut se tromper (halluciner) et... mentir! 😮
Le plus grand danger de l'IA générative est sa capacité à "halluciner". C'est le terme technique pour désigner sa propension à inventer des faits, des sources, des événements avec un aplomb déconcertant.
Elle vous présentera une information totalement fausse comme une vérité absolue, sans jamais émettre le moindre doute.
L'histoire, devenue tristement célèbre, de ce voyageur qui s'est vu refuser l'embarquement pour son vol est un cas d'école. Il avait demandé à ChatGPT s'il avait besoin d'un visa pour sa destination; l'IA lui a répondu que non. Du coup il s'est retrouvé bloqué à l'aéroport 😅. Ne faites jamais confiance à une IA pour des informations critiques. La vérification est un réflexe de survie numérique. L'IA sait aussi mentir, si vous lui demandez des informations sur un sujet sensible (comme une certaine guerre injuste et coloniale qui tue des civils innocents), elle peut tenir un discours politiquement correct, lisse, qui ne correspond pas du tout à la réalité. Elle n'est pas totalement "libre" de s'exprimer.
Apprenez à repérer les arnaques et les deepfakes
Les cybercriminels ont massivement adopté l'IA. Ils s'en servent pour générer des emails de phishing au français impeccable, pour cloner des voix afin de monter des arnaques au président très bien ficelées ou pour créer des deepfakes (ces fausses vidéos ultra-réalistes) - afin d'usurper une identité ou de diffuser des fausses informations.
Apprenez à repérer les indices d'un contenu généré par l'IA: un style trop parfait, des formulations qui sonnent comme des traductions littérales de l'anglais, l'usage de certains marqueurs stylistiques comme les listes à puces ou les tirets longs (cadratins) que les IA affectionnent.
Face à une vidéo suspecte, cherchez les voix légèrement décalées ou artificielles. Et pour tout message pressant, qu'il provienne de votre banque ou d'un proche, la règle est simple: ne cliquez sur rien, ne répondez pas, et vérifiez l'information par un autre canal que vous maîtrisez (par exemple essayez d'appeler au téléphone la personne qui prétend vous écrire).
Sécurisez vos comptes avec une double authentification 🔐
L'accès à des outils comme Chatgpt et ses petits amis passe presque toujours par la création d'un compte. Ce compte est une porte d'entrée. Si un pirate la force, il accède à l'historique potentiellement sensible de vos conversations. La sécurité de base n'est plus suffisante. Un mot de passe robuste ( donc long, pas le même que sur tous vos autres compte, mêlant chiffres, lettres et symboles, c'est le strict minimum).
La véritable barrière de sécurité c'est l'authentification à deux facteurs (A2F). C'est la double serrure de votre porte numérique: même si un voleur obtient votre clé (le mot de passe), il lui faudra un second code, généré sur votre téléphone, pour entrer.
Activez-la systématiquement. L'usage d'un gestionnaire de mots de passe peut aussi être pratique (s'il est bien sécurisé lui aussi).

Sécurisez votre navigation avec un VPN 👍
Utiliser une IA sur le Wi-Fi public d'un café, d'un hôtel ou d'un aéroport, c'est comme tenir une conversation privée au milieu de la place de l'Étoile. Vos données transitent en clair et peuvent être interceptées par n'importe qui connecté au même réseau. Pour un professionnel en déplacement manipulant des informations sensibles, c'est une faute grave.
Pour éviter que ces informations ne tombent entre de mauvaises mains, l’utilisation d’un VPN chiffre vos données et masque votre adresse IP, ce qui rend vos activités en ligne beaucoup plus difficiles à suivre. Il est conseillé de télécharger un VPN premium par abonnement (évitez les gratuits) pour bénéficier d’une protection complète et fiable.
Ayez conscience de ce qui est collecté par l’IA (il faut lire les petites lignes)
Personne n'aime lire les conditions générales d'utilisation. Pourtant, dans le cas de l'IA, c'est un acte d'hygiène numérique. Chaque outil a sa propre politique de confidentialité qui définit précisément ce qu'il advient de vos données. Avant de cliquer sur « Accepter », prenez quelques minutes pour vérifier les points cruciaux: quelles données sont collectées? Sont-elles utilisées pour l'entraînement du modèle? Sont-elles partagées avec des entreprises tierces? Existe-t-il une option dans les paramètres pour renforcer la confidentialité ou désactiver l'enregistrement de l'historique? Utiliser ces outils est une chose, le faire en toute conscience en est une autre. La vigilance n'est pas de la paranoïa, c'est du pragmatisme.
Quel est le plus grand risque quand j'utilise une IA comme ChatGPT?
Le risque principal est la perte de confidentialité. Chaque information que vous partagez peut être utilisée pour entraîner le modèle, consultée par des employés de l'entreprise, ou fuiter lors d'une cyberattaque. Vous perdez le contrôle sur vos propres données.
Puis-je vraiment faire confiance aux réponses de l'IA?
Non, jamais aveuglément. Les IA sont connues pour "halluciner", c'est-à-dire inventer des informations avec une grande assurance (en certifiant que c'est vrai). Toute donnée factuelle, conseil juridique, médical ou information critique doit impérativement être vérifiée via des sources fiables.
Un mode "privé" ou "incognito" garantit-il la confidentialité?
Il l'améliore, mais ne la garantit pas. Souvent, cela signifie que vos données ne seront pas utilisées pour l'entraînement public du modèle. Elles peuvent cependant rester stockées temporairement sur les serveurs (30 jours pour chatGPT) et être accessibles en cas de réquisition judiciaire ou de faille de sécurité.
Est-il dangereux d'utiliser une IA pour mon travail?
Oui, si vous y entrez des informations confidentielles. Copier-coller des données clients, des stratégies internes ou du code propriétaire dans une IA publique constitue une violation grave de la sécurité et de la confidentialité de votre entreprise. Utilisez uniquement les outils validés et sécurisés par votre employeur.


