La sécurité des données est un obstacle à l'adoption de solutions d'IA

L'intelligence artificielle (IA) est en train de conquérir le lieu de travail: près de la moitié des entreprises interrogées déploient désormais activement des outils d'IA tels que Microsoft Copilot (26%) et ChatGPT (22%) sur le lieu de travail.

Mots clés: #IA, #sécurité

Lire plus

Actualités

( Photo: peshkova - 123RF )

ENGINEERINGNET.BE - C'est ce qui ressort du récent rapport de recherche de SoftwareOne intitulé "Digital Security in the Benelux", réalisé auprès de responsables informatiques aux Benelux.

Bien que l'IA offre d'énormes possibilités en termes d'efficacité et de productivité, de nombreux responsables informatiques sont préoccupés par la sécurité des données.

Les responsables informatiques veulent en particulier savoir où les informations sont stockées et qui y a accès.

Un quart des organisations interrogées déclarent avoir du mal à contrôler les flux de données au sein des outils d'IA.

Des risques tels que le "Shadow AI" (l'utilisation de solutions d'IA que l'équipe informatique n'a pas approuvée) et les ambiguïtés dans les droits d'accès aux informations commerciales sensibles sont fréquemment mentionnés.

La sécurité des données joue un rôle crucial à cet égard : les informations commerciales saisies par les utilisateurs doivent rester strictement au sein de l'organisation et ne doivent pas être utilisées pour l'entraînement des modèles d'IA. L'étiquetage approprié des données, l'examen régulier des droits d'accès et le déploiement d'outils de classification avancés peuvent réduire considérablement les risques d'accès non autorisé.

Enfin, les organisations doivent s'assurer que leurs systèmes sont pleinement conformes aux lois applicables en matière de confidentialité et de sécurité, telles que le GDPR, afin d'éviter les risques juridiques et les atteintes à la réputation.

En savoir plus >>