Attributes | Values |
---|
rdfs:label
| - Bias–variance tradeoff (en)
- Compromesso bias-varianza (it)
- Dilemme biais-variance (fr)
- Verzerrung-Varianz-Dilemma (de)
|
rdfs:comment
| - En statistique et en apprentissage automatique, le dilemme (ou compromis) biais–variance est le problème de minimiser simultanément deux sources d'erreurs qui empêchent les algorithmes d'apprentissage supervisé de généraliser au-delà de leur échantillon d'apprentissage : La décomposition biais-variance est une façon d'analyser l'espérance de l'erreur de prédiction d'un algorithme d'apprentissage d'un problème particulier comme une somme de trois termes : le biais, la variance et une quantité, appelée erreur irréductible, résultant du bruit dans le problème lui-même. (fr)
|
sameAs
| |
Wikipage page ID
| |
Wikipage revision ID
| |
dbo:wikiPageWikiLink
| |
Link from a Wikipage to an external page
| |
page length (characters) of wiki page
| |
dct:subject
| |
prop-fr:wikiPageUsesTemplate
| |
prov:wasDerivedFrom
| |
foaf:depiction
| |
prop-fr:date
| |
prop-fr:footer
| - Une fonction est estimée à l'aide de fonctions de base radiales . Plusieurs essais sont présentés dans chaque graphique.
Pour chaque essai, quelques points de données bruitées sont fournis comme ensemble d'apprentissage .
Pour une forte valeur du paramètre d'envergure , le biais est élevé : les RBFs ne peuvent pleinement approximer la fonction , mais la variance entre les différents essais est faible. Lorsque le paramètre d'envergure diminue , le biais diminue : les courbes bleues se rapprochent davantage de la courbe rouge. Cependant, en fonction du bruit dans les différents essais, la variance entre les essais augmente. Dans l'image du bas, les approximations pour x = 0 varient énormément selon l'endroit où se trouvaient les points de données. (fr)
|
prop-fr:fr
| - Instance-based learning (fr)
- structured prediction (fr)
|
prop-fr:image
| - Radial basis function fit, spread=0.1.png (fr)
- Radial basis function fit, spread=1.png (fr)
- Radial basis function fit, spread=5.png (fr)
- Test function and noisy data.png (fr)
|
prop-fr:lang
| |
prop-fr:nom
| |
prop-fr:prénom
| |
prop-fr:texte
| |
prop-fr:url
| |
prop-fr:align
| |
prop-fr:caption
| - Fonction et données bruitées. (fr)
- spread=0.1 (fr)
- spread=1 (fr)
- spread=5 (fr)
|
prop-fr:direction
| |
prop-fr:width
| |
thumbnail
| |
foaf:isPrimaryTopicOf
| |
has abstract
| - En statistique et en apprentissage automatique, le dilemme (ou compromis) biais–variance est le problème de minimiser simultanément deux sources d'erreurs qui empêchent les algorithmes d'apprentissage supervisé de généraliser au-delà de leur échantillon d'apprentissage :
* Le biais est l'erreur provenant d’hypothèses erronées dans l'algorithme d'apprentissage. Un biais élevé peut être lié à un algorithme qui manque de relations pertinentes entre les données en entrée et les sorties prévues (sous-apprentissage).
* La variance est l'erreur due à la sensibilité aux petites fluctuations de l’échantillon d'apprentissage. Une variance élevée peut entraîner un surapprentissage, c'est-à-dire modéliser le bruit aléatoire des données d'apprentissage plutôt que les sorties prévues. La décomposition biais-variance est une façon d'analyser l'espérance de l'erreur de prédiction d'un algorithme d'apprentissage d'un problème particulier comme une somme de trois termes : le biais, la variance et une quantité, appelée erreur irréductible, résultant du bruit dans le problème lui-même. Ce compromis s'applique à toutes les formes d'apprentissage supervisé : classification, régression (fonction de montage), et le (en). Il a également été invoqué pour expliquer l'efficacité des heuristiques dans l'apprentissage humain. (fr)
|
is dbo:wikiPageWikiLink
of | |
is Wikipage redirect
of | |
is oa:hasTarget
of | |
is foaf:primaryTopic
of | |