About: Bias–variance tradeoff     Goto   Sponge   NotDistinct   Permalink

An Entity of Type : owl:Thing, within Data Space : fr.dbpedia.org associated with source document(s)

AttributesValues
rdfs:label
  • Bias–variance tradeoff (en)
  • Compromesso bias-varianza (it)
  • Dilemme biais-variance (fr)
  • Verzerrung-Varianz-Dilemma (de)
rdfs:comment
  • En statistique et en apprentissage automatique, le dilemme (ou compromis) biais–variance est le problème de minimiser simultanément deux sources d'erreurs qui empêchent les algorithmes d'apprentissage supervisé de généraliser au-delà de leur échantillon d'apprentissage : La décomposition biais-variance est une façon d'analyser l'espérance de l'erreur de prédiction d'un algorithme d'apprentissage d'un problème particulier comme une somme de trois termes : le biais, la variance et une quantité, appelée erreur irréductible, résultant du bruit dans le problème lui-même. (fr)
sameAs
Wikipage page ID
Wikipage revision ID
dbo:wikiPageWikiLink
Link from a Wikipage to an external page
page length (characters) of wiki page
dct:subject
prop-fr:wikiPageUsesTemplate
prov:wasDerivedFrom
foaf:depiction
  • http://commons.wikimedia.org/wiki/Special:FilePath/Test_function_and_noisy_data.png
  • http://commons.wikimedia.org/wiki/Special:FilePath/0.1.png
  • http://commons.wikimedia.org/wiki/Special:FilePath/1.png
  • http://commons.wikimedia.org/wiki/Special:FilePath/5.png
prop-fr:date
  • juin 2012 (fr)
prop-fr:footer
  • Une fonction est estimée à l'aide de fonctions de base radiales . Plusieurs essais sont présentés dans chaque graphique. Pour chaque essai, quelques points de données bruitées sont fournis comme ensemble d'apprentissage . Pour une forte valeur du paramètre d'envergure , le biais est élevé : les RBFs ne peuvent pleinement approximer la fonction , mais la variance entre les différents essais est faible. Lorsque le paramètre d'envergure diminue , le biais diminue : les courbes bleues se rapprochent davantage de la courbe rouge. Cependant, en fonction du bruit dans les différents essais, la variance entre les essais augmente. Dans l'image du bas, les approximations pour x = 0 varient énormément selon l'endroit où se trouvaient les points de données. (fr)
prop-fr:fr
  • Instance-based learning (fr)
  • structured prediction (fr)
prop-fr:image
  • Radial basis function fit, spread=0.1.png (fr)
  • Radial basis function fit, spread=1.png (fr)
  • Radial basis function fit, spread=5.png (fr)
  • Test function and noisy data.png (fr)
prop-fr:lang
  • en (fr)
prop-fr:nom
  • Fortmann-Roe (fr)
prop-fr:prénom
  • Scott (fr)
prop-fr:texte
  • structured learning (fr)
prop-fr:url
prop-fr:align
  • right (fr)
prop-fr:caption
  • Fonction et données bruitées. (fr)
  • spread=0.1 (fr)
  • spread=1 (fr)
  • spread=5 (fr)
prop-fr:direction
  • vertical (fr)
prop-fr:width
thumbnail
foaf:isPrimaryTopicOf
has abstract
  • En statistique et en apprentissage automatique, le dilemme (ou compromis) biais–variance est le problème de minimiser simultanément deux sources d'erreurs qui empêchent les algorithmes d'apprentissage supervisé de généraliser au-delà de leur échantillon d'apprentissage : * Le biais est l'erreur provenant d’hypothèses erronées dans l'algorithme d'apprentissage. Un biais élevé peut être lié à un algorithme qui manque de relations pertinentes entre les données en entrée et les sorties prévues (sous-apprentissage). * La variance est l'erreur due à la sensibilité aux petites fluctuations de l’échantillon d'apprentissage. Une variance élevée peut entraîner un surapprentissage, c'est-à-dire modéliser le bruit aléatoire des données d'apprentissage plutôt que les sorties prévues. La décomposition biais-variance est une façon d'analyser l'espérance de l'erreur de prédiction d'un algorithme d'apprentissage d'un problème particulier comme une somme de trois termes : le biais, la variance et une quantité, appelée erreur irréductible, résultant du bruit dans le problème lui-même. Ce compromis s'applique à toutes les formes d'apprentissage supervisé : classification, régression (fonction de montage), et le (en). Il a également été invoqué pour expliquer l'efficacité des heuristiques dans l'apprentissage humain. (fr)
is dbo:wikiPageWikiLink of
is Wikipage redirect of
is oa:hasTarget of
is foaf:primaryTopic of
Faceted Search & Find service v1.16.111 as of Oct 19 2022


Alternative Linked Data Documents: ODE     Content Formats:   [cxml] [csv]     RDF   [text] [turtle] [ld+json] [rdf+json] [rdf+xml]     ODATA   [atom+xml] [odata+json]     Microdata   [microdata+json] [html]    About   
This material is Open Knowledge   W3C Semantic Web Technology [RDF Data] Valid XHTML + RDFa
OpenLink Virtuoso version 07.20.3234 as of May 18 2022, on Linux (x86_64-ubuntu_bionic-linux-gnu), Single-Server Edition (39 GB total memory, 9 GB memory in use)
Data on this page belongs to its respective rights holders.
Virtuoso Faceted Browser Copyright © 2009-2024 OpenLink Software