Orsys

L'intelligence artificielle et la sécurité opérationnelle

Par Orsys

Objectifs

À l’issue de la formation, le participant sera en mesure de :

  • Comprendre en quoi l'intelligence artificielle peut être utile à la cybersécurité
  • Appréhender les problèmes de sécurité liés aux objets connectés
  • Découvrir les outils et moyens de détection contre les attaques d’Ingénierie sociale, biométrique, usurpation...

Définir les enjeux entre : IA, robotique et cybersécurité

  • Définition et concepts.
  • Enjeux pour les états, les armées et toute organisation liée à l’informatique.
  • Possibilités et limites de la cybersécurité liées à l’IA.
  • Menaces logicielles. Outils de détection de logiciels malveillants.
  • Problèmes de sécurités liés à l’Internet des Objets (IoT).
  • Possibilités et limites de l’IoT dans un contexte de cybersécurité.
  • Objets connectés malveillants vs moyens de détections.

Démonstration
Démonstrations : logiciels polymorphiques, algorithmes génétiques utiles à la génération de codes polymorphes, matériels électroniques et robotiques.

Ingénierie sociale et intelligence artificielle

  • Qu’est ce qu’une attaque d’ingénierie sociale ? Quelles en sont les conséquences ?
  • Principes des « deepfakes » (fausses identités, images, voix et vidéos).
  • Possibilités et limites d’un réseau GAN (Generative Adversarial Networks).
  • De nouveaux outils comme moyens de détections

Démonstration
Mise en œuvre d’un réseau GAN pour produire des images aux styles factices.

L'IA comme outil de détection, protection, surveillance, identification...

  • Des systèmes à la « complexité » toujours plus croissante.
  • Des indicateurs statistiques « classiques » insuffisants pour surveiller un système complexe.
  • Machine Learning (ML) et Deep Learning (DP) pour la détection et la prévention des anomalies.
  • IA, outil de surveillance. Utilisation du ML et DL par les systèmes biométriques.
  • Possibilités et limites du ML et du DL dans l’identification des personnes.
  • Utilisation détournée : faux positifs, faux négatifs, actes malveillants...

Démonstration
Modèle de détection. Typologie des caméras (360, HD, 3D-RGBd...). Démonstrations des limites, des « biais » liés à l’IA et des cas où l’IA est plus efficace que l’œil humain.

Une écoute boostée à l’IA

  • Contexte d’écoutes « boostées » à l’intelligence artificielle.
  • Outils et moyens pour écouter une conversation, déceler un code secret, reconstituer un mail...
  • Des projets menés à bien accessible à tous.
  • Comment préserver la confidentialité de nos échanges ?
  • Possibilités et limites entre « frappologie » et IA. Comment s’en protéger ?

Démonstration
Outils et recherches utiles pour reconstruire, prédire des signaux indirects dans un environnement bruité.

PDF

Imprimer

Envoyer

Envoyer la page à :

Programme

Définir les enjeux entre : IA, robotique et cybersécurité

  • Définition et concepts.
  • Enjeux pour les états, les armées et toute organisation liée à l’informatique.
  • Possibilités et limites de la cybersécurité liées à l’IA.
  • Menaces logicielles. Outils de détection de logiciels malveillants.
  • Problèmes de sécurités liés à l’Internet des Objets (IoT).
  • Possibilités et limites de l’IoT dans un contexte de cybersécurité.
  • Objets connectés malveillants vs moyens de détections.

Démonstration
Démonstrations : logiciels polymorphiques, algorithmes génétiques utiles à la génération de codes polymorphes, matériels électroniques et robotiques.

Ingénierie sociale et intelligence artificielle

  • Qu’est ce qu’une attaque d’ingénierie sociale ? Quelles en sont les conséquences ?
  • Principes des « deepfakes » (fausses identités, images, voix et vidéos).
  • Possibilités et limites d’un réseau GAN (Generative Adversarial Networks).
  • De nouveaux outils comme moyens de détections

Démonstration
Mise en œuvre d’un réseau GAN pour produire des images aux styles factices.

L'IA comme outil de détection, protection, surveillance, identification...

  • Des systèmes à la « complexité » toujours plus croissante.
  • Des indicateurs statistiques « classiques » insuffisants pour surveiller un système complexe.
  • Machine Learning (ML) et Deep Learning (DP) pour la détection et la prévention des anomalies.
  • IA, outil de surveillance. Utilisation du ML et DL par les systèmes biométriques.
  • Possibilités et limites du ML et du DL dans l’identification des personnes.
  • Utilisation détournée : faux positifs, faux négatifs, actes malveillants...

Démonstration
Modèle de détection. Typologie des caméras (360, HD, 3D-RGBd...). Démonstrations des limites, des « biais » liés à l’IA et des cas où l’IA est plus efficace que l’œil humain.

Une écoute boostée à l’IA

  • Contexte d’écoutes « boostées » à l’intelligence artificielle.
  • Outils et moyens pour écouter une conversation, déceler un code secret, reconstituer un mail...
  • Des projets menés à bien accessible à tous.
  • Comment préserver la confidentialité de nos échanges ?
  • Possibilités et limites entre « frappologie » et IA. Comment s’en protéger ?

Démonstration
Outils et recherches utiles pour reconstruire, prédire des signaux indirects dans un environnement bruité.