En se fondant sur le conséquentialisme moral, cette vidéo défend la thèse de l'orthogonalité de Nick Bostrom, qui dit qu'une IA peut adopter (presque) tout objectif final est compatible. Néanmoins, le principe de convergence instrumental suggère que (presque) tout objectif final implique nécessairement les mêmes objectifs instrumentaux. Voilà qui permet d'affirmer que l'IA de niveau humain sera très probablement assoiffée de pouvoir.
#AISafety #AIforGood #BeneficialAI
Facebook : https://www.facebook.com/Science4Allorg/
Twitter : https://twitter.com/science__4__all
Tipeee : https://www.tipeee.com/science4all
La formule du savoir (mon livre) :
https://laboutique.edpsciences.fr/produit/1035/9782759822614/La%20formule%20du%20savoir
Moi en podcast avec Mr Phi :
Version YouTube : https://www.youtube.com/channel/UCNHFiyWgsnaSOsMtSoV_Q1A
Version Audio : http://feeds.feedburner.com/Axiome
Sous-titres sur les autres vidéos : http://www.youtube.com/timedtext_cs_panel?tab=2&c=UC0NCbj8CxzeCGIF6sODJ-7A
Robert Miles' YouTube Channel : https://www.youtube.com/channel/UCLB7AzTwc6VFZrBsO2ucBMg/
Superintelligence: Paths, Dangers, Strategies | Nick Bostrom