Dans cette vidéo, on voit en quoi une IA bien programmée à 99,99% est en fait potentiellement extrêmement dangereuse. Oui, parce qu'en interagissant avec des milliards d'utilisateurs et d'autres algorithmes, elle risque fort d'être hackée de tout va. On parle notamment d'attaques par évasion, par empoisonnement et de tolérances aux fautes.
#AISafety #AIforGood #BeneficialAI
Un grand merci à El Mahdi El Mhamdi pour sa participation.
Page EPFL : https://people.epfl.ch/elmahdi.elmhamdi?lang=fr
Google Scholar : https://scholar.google.ch/citations?user=kNA-WLQAAAAJ&hl=en&oi=ao
Twitter : https://twitter.com/L_badikho
Ses trois articles sur le machine learning robuste aux attaques par empoisonnement :
http://papers.nips.cc/paper/6617-machine-learning-with-adversaries-byzantine-tolerant-gradient-descent
http://proceedings.mlr.press/v80/damaskinos18a.html
https://arxiv.org/abs/1802.07927
Facebook : https://www.facebook.com/Science4Allorg/
Twitter : https://twitter.com/science__4__all
Tipeee : https://www.tipeee.com/science4all
La formule du savoir (mon livre) :
https://laboutique.edpsciences.fr/produit/1035/9782759822614/La%20formule%20du%20savoir
Moi en podcast avec Mr Phi :
Version YouTube : https://www.youtube.com/channel/UCNHFiyWgsnaSOsMtSoV_Q1A
Version Audio : http://feeds.feedburner.com/Axiome
Sous-titres sur les autres vidéos : http://www.youtube.com/timedtext_cs_panel?tab=2&c=UC0NCbj8CxzeCGIF6sODJ-7A