À Chaud :

Snom Technology élargit son marché vers l’Asie-Pacifique

VTech confie à Snom, la marque allemande de premier...

SQUAD étend son expertise avec l’acquisition de SCASSI : vers un leadership renforcé en cybersécurité

SQUAD, société de conseil et d’expertise en cybersécurité, et...

thecamp redéfinit son avenir avec un modèle économique innovant

thecamp, le campus pionnier dédié aux transformations digitales, environnementales...
Expertise professionnelleComment créer une IA de confiance ?

Comment créer une IA de confiance ?

Une étude menée par Impact AI en 2023 révèle que malgré une perception positive en termes de productivité, gain de temps et créativité, le potentiel de l’IA est encore peu mis en œuvre par le grand public Français. Moins d’un quart des sondés l’auraient déjà utilisé dans leur vie personnelle et seulement 16% dans un cadre professionnel. Bien que la perception globale soit positive, des inquiétudes persistent. Les préoccupations majeures sont l’utilisation des données personnelles, les pertes d’emplois potentielles et le respect de la propriété intellectuelle. Les personnes interrogées ont également des avis assez divergents quant à l’importance et l’impact de cette innovation.

Globalement, il y a une volonté de mieux comprendre et d’être davantage informé sur les conséquences de l’IA générative notamment au travail. De plus, 70 % des Français estiment que l’IA générative devrait être sous contrôle humain, pour une relecture et une vérification après intervention.

Vers une IA de confiance…

L’étude révèle une confiance partielle des Français en ce qui concerne l’IA : 30% expriment un besoin essentiel de développer une IA « digne de confiance ». Cela implique d’orchestrer un contrôle et une régulation adaptée en synergie avec l’innovation et le progrès pour développer une Intelligence Artificielle qui répond aux attentes des citoyens avec sécurité.

68 % des employés utilisent ChatGPT au travail dans le dos de leur employeur.  

Sachant que ChatGPT est une application publique et non protégée, il y a un réel enjeu de contrôle à mettre en place pour bon nombre d’entreprises. La question de l’éthique, bien que complexe et dépendante du contexte socio-culturel, est très vite abordée au même titre que le sujet de responsabilité juridique. Pour répondre à des problématiques cruciales d’éthique et de protection des données, ou pour limiter le nombre de controverses et d’incidents très nombreux liés à l’IA Générative, il est nécessaire de créer une IA de confiance.

2/3 des Français plaident pour une IA de Confiance

Selon une étude IBM, le déploiement d’une IA éthique en entreprise se fait étape par étape. Premièrement, on met en contexte son utilisation dans la vision stratégique globale de l’entreprise. Ensuite on établit une gouvernance pouvant assurer son implémentation. Enfin, on l’intègre dans le cycle de l’entreprise en engageant les parties prenantes et en organisant une structure. Il faut également définir une politique, en pilotant et en soutenant la culture ainsi que la formation en interne. La mise en place d’une méthodologie et de processus rigoureux est nécessaire.

RGPD et IA, quel équilibre ?

Aujourd’hui, les technologies d’IA se nourrissent de quantités massives de données dont un grand nombre sont personnelles voire sensibles. Il est donc nécessaire de trouver un équilibre entre la protection de ces dernières, le respect des règles légales, et le développement de cette technologie. L’IA vient avec son lot de complexité en matière de RGPD avec des risques pouvant engendrer discrimination, vol de données, violation de la vie privée ou gestion abusive d’informations.

En réponse à ces problématiques, la CNIL a mis en place un certain nombre de ressources publiques permettant de répondre aux défis posés par l’IA. Parmi elles : Comment sécuriser un système ou assurer une transparence, s’informer sur les enjeux liés à l’utilisation de l’IA, comment auto-évaluer son système d’IA…

Comme témoin des actions mises en place à grande échelle : l’AI Act. C’est le règlement européen qui vise à réguler les utilisations de l’intelligence artificielle en classant les applications en fonction de leur niveau de risque éthique : minime, limité, élevé ou inacceptable. Son objectif est de veiller à ce que les systèmes d’IA mis sur le marché européen soient sûrs et respectent les droits fondamentaux des citoyens et les valeurs de l’UE. Tout cela en garantissant la sécurité juridique et en renforçant les exigences en matière de sécurité.

Protection des données et chiffrement bout à bout

Pour ne pas porter atteinte aux droits des utilisateurs, il est nécessaire de respecter certaines règles fondamentales du RGPD à savoir :

-Conformité des données et légitimité d’utilisation

-Collecte et Respect du consentement

-Limitation d’utilisation des données à ce qui est nécessaire

-Assurance de la sécurité des données

-Nécessité d’information et de Transparence

Pour se conformer au RGPD, les entreprises peuvent opter pour le chiffrement bout à bout. C’est une technique de sécurité qui garantit que seuls l’émetteur et le destinataire peuvent accéder au contenu des données échangées. Cela même lorsque celles-ci transitent par des réseaux tiers. En matière d’intelligence artificielle et de protection des données, le chiffrement bout à bout joue un rôle crucial. Il permet d’assurer la confidentialité et la sécurité des informations sensibles utilisées dans les systèmes d’IA.

Mettre en place des audits de sécurité

L’enjeu qui gravite autour des audits de sécurité est conséquent. Les entreprises sont aujourd’hui plus que jamais exposées à des cyber-attaques. Il est donc essentiel de mettre en place régulièrement un processus dynamique permettant de s’assurer de la fiabilité et de la récence des mesures de protection des données en vigueur. Dans le cas contraire, les entreprises s’exposent à des pertes de données confidentielles pouvant mener à des conséquences financières, humaines ou morales plus ou moins graves.

Avec des échanges de quantités massives de données liées à l’IA, il est essentiel pour les entreprises de protéger efficacement leurs Systèmes d’Informations. Il est donc judicieux pour le développement d’une IA de Confiance de passer par la mise en place ces audits afin de détecter et prévenir des failles potentielles de sécurité.

Ils pourront prendre diverses formes en fonction des objectifs et des besoins propres à l’entreprise :

-Diagnostic technique

-Test de vulnérabilité

-Audit stratégique

-Test de résistance

-Test d’ingénierie sociale

 5 actions directes pour votre entreprise

Transparence et traçabilité : Offrez des explications claires à vos utilisateurs sur la manière dont les données sont utilisées, collectées ou traitées ainsi que sur les décisions prises par les systèmes d’IA.

Protection des données : Assurez-vous que la sécurité des données soit une priorité dès le développement des algorithmes et des modèles d’IA. Veillez à être au fait de l’actualité concernant le RGPD, l’AI Act et toute loi en vigueur.

Gestion responsable des données : Mettez en place une méthodologie et des protocoles de gouvernance robustes en ce qui concerne la gestion des données.

Sécurité et évaluation continue : Effectuez des protocoles réguliers pour évaluer les risques et l’efficacité des mesures déjà en place. Soyez à jour et certifiés par des tiers professionnels.

Formation et sensibilisation : Formez vos équipes sur les enjeux éthiques et les bonnes pratiques en termes de protection des données. Encouragez une culture axée sur la sécurité au sein de votre organisation en recrutant si nécessaire un Chief Ethics Officer.

Par Patrick Séguéla, CEO de Synapse Développement

 

à lire aussi

Paris 2024 confie à SCC le projet d’affichage dynamique pour l’information voyageur

L'un des principaux objectifs des Jeux Olympiques et Paralympiques...

Watsoft choisit Enreach pour enrichir son catalogue de solutions téléphoniques

Enreach for Service Providers annonce un accord de distribution...

Cybersécurité des données de santé : importance de la souveraineté et des bonnes pratiques

Dans le secteur de la santé, la souveraineté des données est un enjeu...

Durabilité énergétique : nLighten lance le Score CFE Intégré

nLighten une amélioration de la mesure Carbon Free Energy...

PROCHAINS WEBINAIRES


Dans la même catégorie

Cybersécurité des données de santé : importance de la souveraineté et des bonnes pratiques

Dans le secteur de la santé, la souveraineté des données est un enjeu...

Denis Flaven, Directeur Ingénierie chez COMBODO Les enjeux de sécurité...

Directive NIS 2 : Quelles sont les Nouveautés et Comment s’y Préparer ?

La directive NIS 2 (Network and Information System Security)...

Le virage de l’IA générative se fera-t-il sans les Data Scientists ?

Au moment où les IA génératives s’imposent dans les...

Ça pourrait vous interresser

Accompagnement au changement : fondement de tout projet ITSM réussi

La mise en place d’un projet ITSM au sein d’une entreprise est incontestablement un projet stratégique et structurant. Si les dimensions de conceptualisation, de technologies...

Déploiement Zero Trust : étapes, conseils et bonnes pratiques

Par Simon Bonin - Expert Sécurité chez IMS Networks La mise en place d’un projet ZTNA (ou Zero Trust Network Access) requiert certains prérequis, inhérents à...

Comment les entreprises peuvent évaluer en continu le risque cyber dans un environnement digital

De nos jours, pour une entreprise, assurer sa sécurité informatique est devenu un sport collectif où tous ses partenaires et ses fournisseurs doivent mouiller...