Comment utiliser l'IA en réduisant les risques cyber ?
Comme n’importe quelle technologie, entre de mauvaises mains et avec de mauvaises intentions, les technologies de l’IA peuvent tout à fait servir à augmenter et diversifier les cybermenaces.
Bien heureusement, avec une bonne prise de recul, un esprit ouvert et une petite routine de cyber au quotidien, il est tout à fait possible d’expérimenter des « IA »[1] en prenant le moins de risque possible.
[1]On dit « IA » avec des guillemets, car cette appellation reste plus compréhensible, que les abréviations techniques telles que GAN, ANI, AGI, ASI… : https://coolitagency.fr/bien-utiliser-les-differents-termes-de-lintelligence-artificielle/
Sommaire
#1 – Ce qui est nouveau est faillible et instable
#2 – Les typologies de données exploitables
#3 – Les usages malveillants possibles
#4 – Les bonnes pratiques pour utiliser des « IA » en toute cybersécurité
#1 – Ce qui est nouveau est faillible et instable
Une technologie nouvelle, une technologie expérimentale, comporte toujours un ensemble de failles, à la fois technique et fonctionnel. C’est normal d’ailleurs ! A un moment, confronter un prototype au public, contribue à l’améliorer ! Le problème, c’est que ces failles, détectées et décortiquées au bon moment, permettent aux cyberattaquants de préparer des actions et d’anticiper des parades.
On entend par failles techniques, l’ensemble des instabilités communes à des lancements de nouvelles technologies, comme :
- La protection incomplète des accès non-autorisés ;
- La vérification incomplète des entrées de formulaires, des entrées API ;
- La non-unicité des identifiants d’accès ;
- La mauvaise anticipation des surcharges serveurs…
Ces failles techniques sont régulièrement revues et rectifiées au fil des mises à jour. Ce qui est exploité par les cyberattaquants, c’est le laps de temps qu’il faudra aux techs pour identifier les failles et les corriger.
On entend par failles fonctionnelles, l’ensemble des usages négligents que nous pouvons avoir, en tant qu’internaute, à la sortie d’une nouvelle technologie :
- Ne pas se renseigner sur l’état d’avancée de la technologie ;
- Ne pas se renseigner sur l’exploitation de nos données ;
- Dissocier la technologie de ses enjeux sociaux, économiques et juridiques ;
- Charger des données personnelles et sensibles (photos, url privé, fichiers d’entreprise, biométrie, localisation, état de santé…) ;
- Ne pas diversifier ses usages, ni ses sources de vérification d’informations…
Nous sommes naturellement négligents, par enthousiasme, parfois par FOMO (Fear of missing out, Peur de rater quelque chose d’incontournable). Malheureusement, les pirates malveillants maîtrisent très bien notre attrait de la nouveauté, pour cartographier les comportements qui facilitent les intrusions, les vols de données.
#2- Savoir ce que les IA exploitent, pour savoir ce qu'on doit protéger
Qu’il s’agisse d’une IA conversationnelle, un assistant de recherche, ou un générateur de contenu, nous sommes susceptibles d’y laisser des données précieuses, en fonction de la base de connaissance de ces « IA » :
- Des données physiques : Visage, voix, biométrie…
- Des données comportementales : Achats, goût, avis, historique de recherche…
- Des données démographiques : Localisation, Genre, Âge…
- Des données sociales : Statut, revenu, orientation politique…
- Des données professionnelles : Compte-rendu, données financières, flux logistiques, état de production, données RH, code informatique sensible…
Comprendre ce que les technologies de l’IA exploitent peut constituer un bon moyen de discerner ce qu’on peut, ou non saisir comme données, ainsi que le niveau d’anonymisation qu’on doit apporter.
#3 – Les usages malveillants possibles
L’attaque par Prompt Injection
- Le périmètre : Les IA conversationnelles et les IA génératives
- Le principe : Injecter des requêtes (appelées Prompt), qui à force de répétition, vont pousser l’IA à passer au-delà des restrictions de sa programmation d’origine
- La faille : La nature des IA, conçues pour apporter une réponse satisfaisante, mais pas forcément fiable, morale ou légale
- L’objectif : Pousser l’IA à partager des informations illicites, ou réaliser des actions illicites
L’industrialisation du phishing
- Le périmètre : Les IA génératives
- Le principe : A partir d’un objectif d’attaque, détourner l’IA pour qu’elle génère des modèles d’arnaque en fonction d’un ciblage
- La faille : Les IA ne peuvent pas évaluer l’intention de leurs usagers. Si je demande de générer un modèle d’e-mail à la manière d’une banque, l’IA ne peut pas deviner que l’e-mail va servir à du phishing bancaire.
- L’objectif : Réduire le temps de création de contenu destiné au phishing
La propagation de faille de code
- Le périmètre : Les générateurs de code
- Le principe : Injecter du code malveillant, ou erroné
- La faille : Le copier-coller sans revue de code et le manque de modération des générateurs
- L’objectif : Propager des malwares, des accès non-autorisés, faire planter un système, et ce, sans qu’on puisse facilement remonter vers la personne à l’origine du code
L’usurpation
- Le périmètre : Les générateurs d’images et les deep technologies
- Le principe : Récupérer des traits physiques, des voix, des mouvements
- La faille : L’opacité des politiques de confidentialité, les effets de mode qui nous poussent à nous jeter sur le dernier filtre amusant, sans se poser de questions
- L’objectif : Recréer des images factices (des photos, comme des vidéos) à des fins d’extorsion
Les crimes pornographiques
- Le périmètre : Les générateurs d’images et les deep technologies
- Le principe : Similaire à l’usurpation, il s’agit aussi de récupérer des éléments physiques, sans le consentement des usagers
- La faille : La mise en public de nos visages sur les médias sociaux
- L’objectif : Recréer des images pornographiques, sans le consentement des personnes dont on exploite l’image, à des fins d’extorsions, des fins criminelles, de commerces illicites
Le vol de données
- Le périmètre : Les IA conversationnelles et les IA génératives
- Le principe : Créer des contrefaçons d’application, en faisant passer le service pour une alternative gratuite, ou peu chère
- La faille : Le manque de modération des fournisseurs d’accès, le manque de vérification des usagers
- L’objectif : Récupérer les données personnelles à des fins d’usurpation, de commerces illicites, ou d’intrusion
La désinformation amplifiée
- Le périmètre : Les IA conversationnelles et les IA génératives
- Le principe : Créer des fakes news et les rendre virales sur un maximum de médias sociaux
- La faille : Le manque de modération, et le manque de modérateurices, la radicalisation des opinions en ligne
- L’objectif : Diffuser du contenu de propagande, déstabiliser des pays, déstabiliser des personnalités publiques et/ou politiques
#4 – Les bonnes pratiques pour utiliser des « IA » en toute cybersécurité
Essayer de prendre connaissance des politiques de confidentialité
Sans forcément en lire l’intégralité, si vous vous rendez compte que les politiques sont absentes, difficiles d’accès, ou incompréhensibles, c’est que le service est potentiellement opaque, et présente un risque pour vos données.
Raisonner le partage d’image personnelles et intimes
Souvenez-vous…50% des contenus pédocriminels ont été créés à partir d’images volées sur les comptes sociaux de l’entourage des victimes. Il en va de même pour les deep fake à usage illicite.
Anonymiser un maximum les fichiers qu’on uploade
Cette présentation que vous voulez rendre plus jolie grâce à PIMP TA PREZ, l’IA qui transforme tes PPT en œuvre d’art, comporte-t-elle des données confidentielles ? Votre entreprise vous autorise-t-elle à utiliser ce type de service ? Que peut-il se passer si ces données sont exploitées par des tiers ?
Donner des feedbacks
Les contenus générés par les « IA » du moment, sont tirés de ce qui est le plus viral, le plus populaire, et le plus requêté, in-app (depuis le service), ou plus globalement sur Internet.
Si un contenu que vous avez fait générer vous met mal à l’aise, vous paraît biaisé, ou faux, il faut le signaler. Vous contribuez ainsi à l’éducation de l’IA.
Garder de l’esprit critique
Le contenu que j’ai généré est-il fiable ? Ses informations vérifiables ? Mes sources d’information sont-elles diverses ? Le contenu rassemble-t-il des faits ? Ou des opinions ? Le contenu est-il authentique ? Libre de droit ? Avec l’accord de ses créateurices ?
Déconstruire ses biais de confirmation
L’information que je lis, que je vois, est-elle vraie ? Est-elle factuelle ? Ou est-ce que je la crois vraie, parce qu’elle conforte mon opinion ? Est-ce que des personnes peuvent être lésées si je la diffuse ? Est-ce que je contribue à une diffamation si je la diffuse ?
Avoir une routine de sécurité
Changer régulièrement mes mots de passe, mettre à jour mes applications, rester à l’écoute des alertes au phishing…
Différencier moyen et solution
Les « IA » sont des outils, et ne constituent en rien des « solutions magiques » à des sujets de fond. Si on a une organisation bancale, utiliser une « IA », ou une solution d’automatisation, sans questionner l’organisation, ne fera qu’automatiser, ou répliquer une organisation bancale.
Faire preuve de patience
Les technologies sont mouvantes, et ne cessent d’évoluer, de s’améliorer. Ce qui est faillible aujourd’hui ne le restera pas éternellement. Les usages aussi évoluent. Et les « IA » deviendront ce que nous en ferons…de bien et d’éthique.
Pour aller plus loin
- Le Monde informatique : https://www.lemondeinformatique.fr/actualites/lire-des-failles-critiques-dans-torchserve-fragilisent-des-milliers-de-modeles-d-ia-91766.html
- HTTPCS : https://blog.httpcs.com/une-faille-de-securite-par-prompt-infection-touche-les-ia-generatives-comme-chatgpt-et-google-bard/
- NUMERAMA :
- https://www.numerama.com/cyberguerre/1554992-chatgpt-est-en-panne-des-hackers-pro-russes-revendiquent-la-cyberattaque.html
- https://www.numerama.com/tech/1542866-lia-deshabille-des-photos-denfant-pour-en-faire-de-la-pedopornographie.html
- https://www.numerama.com/tech/1542498-phishing-chatgpt-fait-presque-aussi-bien-que-les-pirates-et-cest-un-probleme.html
- WASHINGTON POST : https://www.washingtonpost.com/technology/2023/11/05/ai-deepfake-porn-teens-women-impact/?utm_campaign=%23R%C3%A8gle30%20165&utm_medium=email&utm_source=newsletter_edito
- NEXT INPACT : https://www.nextinpact.com/article/71011/dangers-grands-modeles-langage-chercheuses-avaient-prevenu
- « L’intelligence artificielle n’existe pas », Luc Julia, éd. First
- « Ce sera l’IA oui/et moi », Cécile Dejoux, éd. Vuibert
- « Résistance 2050 », Aurélie Jean et Amanda Sthers, éd. L’observatoire
- Le DAIR Institute, https://www.dair-institute.org/research/
- « Technoféminisme, comment le numérique aggrave les inégalités », Mathilde Saliou éd. Grasset : https://www.nextinpact.com/article/71410/en-ligne-misogynie-utilisee-pour-saper-liberte-dexpression
- Rapport de l’Unesco, sur l’éthique des Intelligences Artificielle, datant de 2021 : https://unesdoc.unesco.org/ark:/48223/pf0000381137