Le modèle de PSSI-IA produit par le Clusif, une association dédiée au développement de bonnes pratiques numériques, est construit autour de trois grands axes :
- La cybersécurité du développement des systèmes d’IA
- La sécurisation de l’utilisation de l’IA au travers d’une analyse de risques propre au contexte de l’organisation
- Un focus sur le cas particulier des IA génératives
Ce modèle de PSSI-IA a pour but d’aider à la sécurisation des systèmes d’intelligence artificielle à toutes les étapes du cycle de vie : conception, développement, déploiement, exploitation et maintenance au sein des organisations. Il pourra être un bon support de travail pour les PME qui souhaitent encadrer l’usage IA des collaborateurs ou qui souhaitent intégrer des agents IA au sein de leur infrastructure IT.
Ce document intègre également les exigences du règlement européen AI Act de 2024, notamment en matière de robustesse, d’explicabilité, de prévention des usages interdits, et de cybersécurité. Il propose des définitions clés (IA générative, LLM, fine-tuning, hallucination, etc.), une cartographie des risques spécifiques à l’IA, et un périmètre d’application adapté aux systèmes à usage général ou à haut risque.
Après avoir été réservé 6 mois aux adhérents (comptez 1 387 € pour adhérer au club), cette publication du Clusif est à présent en accès libre, à télécharger ici (merci à eux 🙂