This HTML5 document contains 39 embedded RDF statements represented using HTML+Microdata notation.

The embedded RDF content will be recognized by any processor of HTML5 Microdata.

Namespace Prefixes

PrefixIRI
n14http://g.co/kg/g/
dcthttp://purl.org/dc/terms/
dbohttp://dbpedia.org/ontology/
foafhttp://xmlns.com/foaf/0.1/
n12http://www-rocq.inria.fr/~gilbert/ensta/
n11http://www.ece.northwestern.edu/~nocedal/book/
rdfshttp://www.w3.org/2000/01/rdf-schema#
category-frhttp://fr.dbpedia.org/resource/Catégorie:
n10http://fr.dbpedia.org/resource/Modèle:
wikipedia-frhttp://fr.wikipedia.org/wiki/
rdfhttp://www.w3.org/1999/02/22-rdf-syntax-ns#
owlhttp://www.w3.org/2002/07/owl#
dbpedia-frhttp://fr.dbpedia.org/resource/
provhttp://www.w3.org/ns/prov#
prop-frhttp://fr.dbpedia.org/property/
xsdhhttp://www.w3.org/2001/XMLSchema#
wikidatahttp://www.wikidata.org/entity/

Statements

Subject Item
dbpedia-fr:Algorithme_à_directions_de_descente
rdfs:label
Algorithme à directions de descente
rdfs:comment
Un algorithme à directions de descente est un algorithme d'optimisation différentiable (l'optimisation dont il est question ici est une branche des mathématiques), destiné à minimiser une fonction réelle différentiable définie sur un espace euclidien (par exemple, , l'espace des -uplets de nombres réels, muni d'un produit scalaire) ou, plus généralement, sur un espace hilbertien. L'algorithme est itératif et procède donc par améliorations successives. Au point courant, un déplacement est effectué le long d'une direction de descente, de manière à faire décroître la fonction. Le déplacement le long de cette direction est déterminé par la technique numérique connue sous le nom de recherche linéaire.
owl:sameAs
n14:121hfgyx wikidata:Q2835879
dbo:wikiPageID
5078834
dbo:wikiPageRevisionID
133702865
dbo:wikiPageWikiLink
dbpedia-fr:Algorithme_à_régions_de_confiance category-fr:Algorithme_d'optimisation dbpedia-fr:Optimisation_(mathématiques) dbpedia-fr:Méthode_du_gradient_conjugué dbpedia-fr:Recherche_linéaire_(optimisation) dbpedia-fr:Produit_scalaire category-fr:Algorithme_d'optimisation_différentiable dbpedia-fr:Conditions_d'optimalité dbpedia-fr:École_nationale_supérieure_de_techniques_avancées dbpedia-fr:Algorithme_du_gradient dbpedia-fr:Optimisation_non_lisse dbpedia-fr:Conditionnement_(analyse_numérique) dbpedia-fr:Différentielle dbpedia-fr:Espace_de_Hilbert dbpedia-fr:Méthode_des_moindres_carrés dbpedia-fr:Algorithmique dbpedia-fr:Gradient dbpedia-fr:Espace_euclidien dbpedia-fr:Direction_de_descente dbpedia-fr:Mathématiques
dbo:wikiPageExternalLink
n11:num-opt.html n12:optim.html
dbo:wikiPageLength
11841
dct:subject
category-fr:Algorithme_d'optimisation category-fr:Algorithme_d'optimisation_différentiable
prop-fr:wikiPageUsesTemplate
n10:En n10:Détail_des_éditions n10:Théorème n10:ISBN n10:Portail
prov:wasDerivedFrom
wikipedia-fr:Algorithme_à_directions_de_descente?oldid=133702865&ns=0
foaf:isPrimaryTopicOf
wikipedia-fr:Algorithme_à_directions_de_descente
dbo:abstract
Un algorithme à directions de descente est un algorithme d'optimisation différentiable (l'optimisation dont il est question ici est une branche des mathématiques), destiné à minimiser une fonction réelle différentiable définie sur un espace euclidien (par exemple, , l'espace des -uplets de nombres réels, muni d'un produit scalaire) ou, plus généralement, sur un espace hilbertien. L'algorithme est itératif et procède donc par améliorations successives. Au point courant, un déplacement est effectué le long d'une direction de descente, de manière à faire décroître la fonction. Le déplacement le long de cette direction est déterminé par la technique numérique connue sous le nom de recherche linéaire. Cette approche algorithmique peut être vue comme une technique de globalisation, c'est-à-dire une méthode permettant d'obtenir la convergence des itérés (sous certaines conditions) quel que soit l'itéré initial choisi. Elle s'apparente ainsi aux algorithmes à régions de confiance ; ces dernières améliorent légèrement (mais parfois de manière décisive) leurs résultats de convergence mais sont plus compliquées à mettre en œuvre, ce qui limite parfois leur application. Les algorithmes à directions de descente s'étendent aux problèmes avec contraintes simples (pourvu que la projection sur l'ensemble admissible soit aisée, peu coûteuse en temps de calcul) ou pour des problèmes avec contraintes fonctionnelles non linéaires, par l'intermédiaire de fonctions de mérite. Elles sont aussi utilisées en .