L'algorithme du gradient stochastique est une méthode de descente de gradient (itérative) utilisée pour la minimisation d'une fonction objectif qui est écrite comme une somme de fonctions différentiables.

Property Value
dbo:abstract
  • L'algorithme du gradient stochastique est une méthode de descente de gradient (itérative) utilisée pour la minimisation d'une fonction objectif qui est écrite comme une somme de fonctions différentiables. (fr)
  • L'algorithme du gradient stochastique est une méthode de descente de gradient (itérative) utilisée pour la minimisation d'une fonction objectif qui est écrite comme une somme de fonctions différentiables. (fr)
dbo:thumbnail
dbo:wikiPageExternalLink
dbo:wikiPageID
  • 9308635 (xsd:integer)
dbo:wikiPageLength
  • 20101 (xsd:nonNegativeInteger)
dbo:wikiPageRevisionID
  • 187911721 (xsd:integer)
dbo:wikiPageWikiLink
prop-fr:année
  • 1976 (xsd:integer)
  • 1999 (xsd:integer)
  • 2003 (xsd:integer)
  • 2004 (xsd:integer)
prop-fr:contribution
  • Stochastic Learning (fr)
  • Stochastic Learning (fr)
prop-fr:doi
  • 10.100700 (xsd:double)
  • 10.113700 (xsd:double)
prop-fr:edition
  • Second (fr)
  • Second (fr)
prop-fr:isbn
  • 1 (xsd:integer)
prop-fr:langue
  • en (fr)
  • en (fr)
prop-fr:lienAuteur
  • Dimitri P. Bertsekas (fr)
  • Léon Bottou (fr)
  • William C. Davidon (fr)
  • Dimitri P. Bertsekas (fr)
  • Léon Bottou (fr)
  • William C. Davidon (fr)
prop-fr:lieu
  • Cambridge, MA. (fr)
  • Cambridge, MA. (fr)
prop-fr:mr
  • 418461 (xsd:integer)
  • 2085944 (xsd:integer)
prop-fr:nom
  • Bertsekas (fr)
  • Bottou (fr)
  • Davidon (fr)
  • Kiwiel (fr)
  • Bertsekas (fr)
  • Bottou (fr)
  • Davidon (fr)
  • Kiwiel (fr)
prop-fr:numéro
  • 2 (xsd:integer)
  • 3 (xsd:integer)
prop-fr:pages
  • 146 (xsd:integer)
  • 187 (xsd:integer)
  • 807 (xsd:integer)
prop-fr:prénom
  • Léon (fr)
  • Dimitri (fr)
  • Dimitri P. (fr)
  • Krzysztof C. (fr)
  • W. C. (fr)
  • Léon (fr)
  • Dimitri (fr)
  • Dimitri P. (fr)
  • Krzysztof C. (fr)
  • W. C. (fr)
prop-fr:périodique
  • Journal of Optimization Theory and Applications (fr)
  • SIAM Journal of Optimization (fr)
  • Journal of Optimization Theory and Applications (fr)
  • SIAM Journal of Optimization (fr)
prop-fr:titre
  • Convergence of approximate and incremental subgradient methods for convex optimization (fr)
  • Advanced Lectures on Machine Learning (fr)
  • Convex Analysis and Optimization (fr)
  • New least-square algorithms (fr)
  • Nonlinear Programming (fr)
  • Convergence of approximate and incremental subgradient methods for convex optimization (fr)
  • Advanced Lectures on Machine Learning (fr)
  • Convex Analysis and Optimization (fr)
  • New least-square algorithms (fr)
  • Nonlinear Programming (fr)
prop-fr:url
  • http://leon.bottou.org/papers/bottou-mlss-2004|isbn = 978-3-540-23122-6 (fr)
  • http://leon.bottou.org/papers/bottou-mlss-2004|isbn = 978-3-540-23122-6 (fr)
prop-fr:volume
  • 14 (xsd:integer)
  • 18 (xsd:integer)
prop-fr:wikiPageUsesTemplate
prop-fr:éditeur
  • Athena Scientific (fr)
  • LNAI 3176, Springer Verlag (fr)
  • Athena Scientific (fr)
  • LNAI 3176, Springer Verlag (fr)
dct:subject
rdfs:comment
  • L'algorithme du gradient stochastique est une méthode de descente de gradient (itérative) utilisée pour la minimisation d'une fonction objectif qui est écrite comme une somme de fonctions différentiables. (fr)
  • L'algorithme du gradient stochastique est une méthode de descente de gradient (itérative) utilisée pour la minimisation d'une fonction objectif qui est écrite comme une somme de fonctions différentiables. (fr)
rdfs:label
  • Стохастический градиентный спуск (ru)
  • Algorithme du gradient stochastique (fr)
  • Stochastic gradient descent (en)
  • Метод стохастичного градієнта (uk)
  • 確率的勾配降下法 (ja)
rdfs:seeAlso
owl:sameAs
prov:wasDerivedFrom
foaf:depiction
foaf:isPrimaryTopicOf
is dbo:wikiPageRedirects of
is dbo:wikiPageWikiLink of
is oa:hasTarget of
is foaf:primaryTopic of