De récentes avancées en machine learning dotent les ordinateurs d'une faculté à extraire de la "sémantique" de ce qu'elles lisent. Mais est-ce vraiment de la "sémantique" qu'ils extraient ? Aujourd'hui, on parle de word2vec
Facebook : https://www.facebook.com/Science4Allorg/
Twitter : https://twitter.com/science__4__all
Tipeee : https://www.tipeee.com/science4all
Moi en podcast avec Mr Phi :
Version YouTube : https://www.youtube.com/channel/UCNHFiyWgsnaSOsMtSoV_Q1A
Version Audio : http://feeds.feedburner.com/Axiome
Sous-titres sur les autres vidéos : http://www.youtube.com/timedtext_cs_panel?tab=2&c=UC0NCbj8CxzeCGIF6sODJ-7A
Comment penser intelligemment une superintelligence ? Monsieur Phi à l'EPFL (inscription obligatoire)
https://memento.epfl.ch/event/comment-penser-intelligemment-une-super-intellig-2/
Des réponses longues et intelligentes à des questions brèves et stupides | Monsieur Phi
https://www.youtube.com/watch?v=nvDcEpG7WU4
Utilitarisme artificiel | Axiome 3
https://www.youtube.com/watch?v=5HGwcFoeQ9Y
Machine Reading with Word Vectors (ft. Martin Jaggi) | ZettaBytes
https://www.youtube.com/watch?v=_YYQNpjvvLE
Thought experiment «MARY» (English) #filosofix | SFR Kultur
https://www.youtube.com/watch?v=TiUnoxI4OdA
1+1=2 (en arithmétique de Peano) | Infini 13
https://www.youtube.com/watch?v=oKprCgIKWxo
Les isomorphismes | Infini 21
https://www.youtube.com/watch?v=aYSAezs1xOQ
Efficient Estimation of Word Representations in Vector Space | Mikolov, Chen, Corrado and Dean (2013)
https://arxiv.org/abs/1301.3781
Neural Word Embedding as Implicit Matrix Factorization | Levy and Goldberg (2014)
https://levyomer.files.wordpress.com/2014/09/neural-word-embeddings-as-implicit-matrix-factorization.pdf
Word Translation Without Parallel Data | Conneau, Lample, Ranzato, Denoyer and Jégou (2017)
https://arxiv.org/abs/1710.04087