Publié le 09/10/2024
Ciblage client et gestion de l'après vente ou service, automatisation des tâches... L'intelligence artificielle (IA) est de plus en plus utilisée par les entreprises pour améliorer leur productivité. Pourtant, ces usages peuvent vous exposer à différentes menaces, notamment en matière de sécurité. Tour d’horizon des risques de l’IA et des leviers pour les maîtriser.
De par sa capacité à traiter et analyser de très importants volumes de données, l'intelligence artificielle (IA) pose tout d'abord la question de la confidentialité des informations, notamment au regard du Règlement général sur la protection des données (RGPD).
Les outils d'intelligence artificielle et en particulier l'IA générative risquent de compromettre la sécurité des données, mais également les diffuser involontairement. C'est notamment le cas des solutions d'IA générative, comme ChatGPT par exemple, qui reposent sur l'utilisation de différentes sources d’informations et à l'accès à des données, dont des données personnelles.
Lire aussi : Comment garantir votre conformité au RGPD ?
Parmi les autres risques et limites de l’IA, celui de la violation de la propriété intellectuelle. En effet, les outils utilisent des données provenant d'Internet, sans citer les sources. À l'image des outils d'IA générative, le contenu créé est présenté comme étant original et pouvant être utilisé librement, alors qu'il ne l'est pas toujours.
Malgré les avantages de l'IA, la technologie ne permet pas de savoir si les données utilisées (texte, vidéo, image, etc.) sont protégées par un quelconque droit d'auteur ou par une autre protection. Dans cette situation, les réponses fournies – par un chatbot par exemple – peuvent constituer une violation de ces droits, tout particulièrement s'ils sont ensuite utilisés à des fins commerciales (article de blog, publication sur les réseaux sociaux, newsletter, etc.).
Mais d’autres risques fonctionnels de l’IA sont à déplorer, dont sa capacité à fournir des informations inexactes, voire fausses sur des personnes, des faits, des événements ou encore des lieux. C'est le cas lorsque l'outil utilise des données erronées ou obsolètes qu'on appelle des « hallucinations ».
Les faux renseignements peuvent ensuite être réutilisés, notamment dans une optique de désinformation. C'est d'autant plus dommageable lorsque les algorithmes d'IA sont employés sur des problématiques sensibles, comme des questions juridiques par exemple.
Bon à savoir : pour les entreprises, la technologie représente aussi une menace indirecte : si les algorithmes IA sont utilisés à des fins frauduleuses, notamment pour le codage de logiciels malveillants, la création d'e-mails servant à l’hameçonnage et aux attaques cyber, ou même la reproduction de sites officiels.
Les entreprises doivent former leurs équipes à l'usage des solutions d'intelligence artificielle : ChatGPT, chatbot, logiciels métier, etc. Ce travail pédagogique a plusieurs finalités :
Cela permettra aux équipes d'identifier les risques de l'IA et de limiter son accès à des données sensibles.
Les entreprises doivent aussi définir les usages possibles de l'intelligence artificielle pour limiter les risques. À titre d'exemple, elles peuvent autoriser l'utilisation de ChatGPT pour du contenu interne, mais l'interdire pour du contenu commercial (e-mail, publication LinkedIn, etc.).
Si des données provenant de l'IA sont utilisées à des fins externes, il est indispensable d'en vérifier la qualité, les sources et la crédibilité. À ce titre, leur usage doit toujours être associé à un contrôle « humain » pour éviter de diffuser des informations erronées ou ne respectant pas le droit d'auteur.
De même, l’utilisation de l’intelligence artificielle doit être interdite pour des domaines sensibles, notamment ceux de nature juridique ou médicale par exemple.
Les solutions d’intelligence artificielle fonctionnent grâce à l'accès aux données que vous leur fournissez. Or, ces données peuvent être confidentielles : leur usage, dans ChatGPT par exemple, peut donc être contraire au RGPD.
Dans la mesure du possible, évitez donc de fournir des informations confidentielles aux outils : renseignez des données erronées et remplacez-les dans le résultat généré par les bonnes informations en dehors de l'outil.
L'IA Act (Artificial Intelligence Act) est un règlement initié par la Commission Européenne qui vise à encadrer l'utilisation de l'IA et à prévenir ses risques en Union européenne. Adopté en mars 2024 pour une entrée en vigueur en 2026, les entreprises doivent prendre des mesures proactives pour s'y conformer dans les délais : audit des systèmes d'IA existants, renforcement des compétences de leurs équipes conformité, allouer les ressources nécessaires pour respecter les délais prescrits... Voici quelques actions à mettre en place pour limiter les risques :
La conformité à cette loi peut également débloquer l’accès au marché commun de l’UE et inspirer la confiance des consommateurs. En revanche, son non-respect expose à des amendes sévères allant jusqu’à 7 % du chiffre d’affaires annuel mondial ou 35 millions d’euros pour les systèmes d’IA aux risques inacceptables.
Bon à savoir : le contrat Generali Protection Numérique vous offre une protection complète pour prévenir et gérer les risques liés à l’usage de l’intelligence artificielle en entreprise.