Cybersécurité

Avec Dioptra, le NIST vérifie la sécurité des modèles d’IA

Le NIST a publié un outil nommé Dioptra à destination des développeurs pour déterminer l’exposition des modèles d’IA à des attaques. L’organisme présente aussi des lignes directrices sur la protection de la GenAI. La sécurité des systèmes d’IA devient de plus en plus importante au fur et à mesure de leur déploiement. Dans ce cadre, le NIST (National Institute of Standards and Technology) du ministère américain du Commerce apporte sa pierre à l’édifice en présentant un outil open source nommé Dioptra et de la documentation. « Tester les effets des attaques adverses sur les modèles d’apprentissage machine est l’un des objectifs de Dioptra », a déclaré le NIST dans un communiqué, ajoutant que « ce logiciel était destiné à aider les développeurs d’IA et les clients à savoir comment leur application d’IA pouvait résister à différentes attaques ». La solution, téléchargeable gratuitement, « peut aussi aider les développeurs de systèmes d’IA à quantifier la perte… 

Read More

​_Cybersecurite via GRISE Veille Globale on Inoreader