Aujourd'hui, on parle du racisme des IA. Et non, ce n'est pas parce que leurs méchants concepteurs sont eux-mêmes racistes. Même s'ils le sont en effet. Comme chacun d'entre nous.
#AIforGood #BeneficialAI
Facebook : https://www.facebook.com/Science4Allorg/
Twitter : https://twitter.com/science__4__all
Tipeee : https://www.tipeee.com/science4all
La formule du savoir (mon livre !!) :
https://laboutique.edpsciences.fr/produit/1035/9782759822614/La%20formule%20du%20savoir
Moi en podcast avec Mr Phi :
Version YouTube : https://www.youtube.com/channel/UCNHFiyWgsnaSOsMtSoV_Q1A
Version Audio : http://feeds.feedburner.com/Axiome
Sous-titres sur les autres vidéos : http://www.youtube.com/timedtext_cs_panel?tab=2&c=UC0NCbj8CxzeCGIF6sODJ-7A
Tous racistes ? Les biais implicites | Science Étonnante
https://www.youtube.com/watch?v=850Zr6dzxYU
L'effet pygmalion | Science Étonnante (blog)
https://sciencetonnante.wordpress.com/2014/02/10/leffet-pygmalion/
Implicit Bias (Harvard test)
http://implicit.harvard.edu/
How statistics can be misleading | Mark Liddell | Ted-Ed
https://www.youtube.com/watch?v=sxYrzzy3cq8
3 Cases of Discriminative AI | Elisa Celis | ZettaBytes
https://www.youtube.com/watch?v=0bMFxMhB82o
L'économie de l'attention : le commencement ! Stupid Economics
https://www.youtube.com/watch?v=rMV1WaWGb3I
Prosopagnosie et délire des sosies | Monsieur Phi
https://www.youtube.com/watch?v=ar2bHjkL6XM
Le gros livre de Wittgenstein | Monsieur Phi
https://www.youtube.com/watch?v=abjiHI8qYok
Machine Bias | There’s software used across the country to predict future criminals. And it’s biased against blacks.
https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing
Urnes interagissantes (la thèse de Mickaël Launay)
https://www.theses.fr/2012AIXM4775