×
Ładowanie w toku

La descente de gradient (stochastique) | Intelligence artificielle 42

2 członkowie

On parle du plus important algorithme d'apprentissage des IA d'aujourd'hui (et sans doute du futur) : la descente de gradient stochastique.

Facebook : https://www.facebook.com/Science4Allorg/
Twitter : https://twitter.com/science__4__all
Tipeee : https://www.tipeee.com/science4all

La formule du savoir (mon livre) :
https://laboutique.edpsciences.fr/produit/1035/9782759822614/La%20formule%20du%20savoir
A Roadmap for the Value-Loading Problem
https://arxiv.org/abs/1809.01036

Moi en podcast avec Mr Phi :
Version YouTube : https://www.youtube.com/channel/UCNHFiyWgsnaSOsMtSoV_Q1A
Version Audio : http://feeds.feedburner.com/Axiome

Sous-titres sur les autres vidéos : http://www.youtube.com/timedtext_cs_panel?tab=2&c=UC0NCbj8CxzeCGIF6sODJ-7A

Następny odcinek
S01E177 - Parler de morale est tellement dur !! #DébattonsMieux
Zobacz odcinek

Odcinki

Podobne spektakle (10)

Monsieur Phi
Monsieur Phi
Gotabor
Gotabor
Axiome
Axiome
Les Gens Qui Doutent | Podcast
Les Gens Qui Doutent | Podcast
Hygiène Mentale
Hygiène Mentale
Fabien Olicard
Fabien Olicard
Science de comptoir
Science de comptoir
Vous êtes vraiment sympa !
Vous êtes vraiment sympa !
3 minutes pour comprendre
3 minutes pour comprendre
String Theory
String Theory