This HTML5 document contains 69 embedded RDF statements represented using HTML+Microdata notation.

The embedded RDF content will be recognized by any processor of HTML5 Microdata.

Namespace Prefixes

PrefixIRI
dbpedia-dahttp://da.dbpedia.org/resource/
dbpedia-nohttp://no.dbpedia.org/resource/
dbrhttp://dbpedia.org/resource/
n18http://fr.dbpedia.org/resource/Modèle:
dbpedia-arhttp://ar.dbpedia.org/resource/
dbpedia-hehttp://he.dbpedia.org/resource/
n4http://commons.wikimedia.org/wiki/Special:FilePath/
dbpedia-frhttp://fr.dbpedia.org/resource/
dcthttp://purl.org/dc/terms/
rdfshttp://www.w3.org/2000/01/rdf-schema#
dbpedia-cshttp://cs.dbpedia.org/resource/
n22http://g.co/kg/m/
rdfhttp://www.w3.org/1999/02/22-rdf-syntax-ns#
dbpedia-euhttp://eu.dbpedia.org/resource/
n19http://fr.dbpedia.org/resource/Fichier:
xsdhhttp://www.w3.org/2001/XMLSchema#
dbpedia-ukhttp://uk.dbpedia.org/resource/
dbpedia-idhttp://id.dbpedia.org/resource/
n13http://ma-graph.org/entity/
prop-frhttp://fr.dbpedia.org/property/
dbohttp://dbpedia.org/ontology/
dbpedia-srhttp://sr.dbpedia.org/resource/
dbpedia-vihttp://vi.dbpedia.org/resource/
dbpedia-jahttp://ja.dbpedia.org/resource/
dbpedia-plhttp://pl.dbpedia.org/resource/
dbpedia-dehttp://de.dbpedia.org/resource/
n20http://ckb.dbpedia.org/resource/
dbpedia-thhttp://th.dbpedia.org/resource/
dbpedia-ruhttp://ru.dbpedia.org/resource/
wikidatahttp://www.wikidata.org/entity/
dbpedia-ithttp://it.dbpedia.org/resource/
dbpedia-cahttp://ca.dbpedia.org/resource/
provhttp://www.w3.org/ns/prov#
foafhttp://xmlns.com/foaf/0.1/
wikipedia-frhttp://fr.wikipedia.org/wiki/
dbpedia-zhhttp://zh.dbpedia.org/resource/
dbpedia-kohttp://ko.dbpedia.org/resource/
dbpedia-fahttp://fa.dbpedia.org/resource/
dbpedia-eshttp://es.dbpedia.org/resource/
category-frhttp://fr.dbpedia.org/resource/Catégorie:
owlhttp://www.w3.org/2002/07/owl#

Statements

Subject Item
dbpedia-fr:Méthode_des_k_plus_proches_voisins
rdf:type
owl:Thing dbo:Algorithm wikidata:Q8366
rdfs:label
Метод k-найближчих сусідів Méthode des k plus proches voisins K-近邻算法 Knn
rdfs:comment
En intelligence artificielle, plus précisément en apprentissage automatique, la méthode des k plus proches voisins est une méthode d’apprentissage supervisé. En abrégé k-NN ou KNN, de l'anglais k-nearest neighbors. Par exemple, dans un problème de classification, on retiendra la classe la plus représentée parmi les k sorties associées aux k entrées les plus proches de la nouvelle entrée x. Une particularité des algorithmes k-NN est d'être particulièrement sensible à la structure locale des données.
owl:sameAs
dbpedia-ru:Метод_k-ближайших_соседей dbpedia-he:אלגוריתם_שכן_קרוב dbpedia-no:K-NN dbpedia-ko:K-최근접_이웃_알고리즘 dbpedia-uk:Метод_k-найближчих_сусідів dbpedia-sr:Алгоритам_к_најближих_суседа n13:2776505898 dbpedia-pl:K_najbliższych_sąsiadów n20:کەی_نزیکترین_ھاوسێکان dbpedia-de:Nächste-Nachbarn-Klassifikation n22:05vyzq dbpedia-id:Algoritme_k_tetangga_terdekat dbpedia-th:ขั้นตอนวิธีการค้นหาเพื่อนบ้านใกล้สุด_k_ตัว dbpedia-cs:Algoritmus_k-nejbližších_sousedů dbpedia-ca:Knn dbpedia-fa:الگوریتم_کی-نزدیک‌ترین_همسایه dbr:K-nearest_neighbors_algorithm dbpedia-ar:كي_أقرب_جار n13:113238511 dbpedia-it:K-nearest_neighbors dbpedia-da:K-nærmeste_naboer wikidata:Q1071612 dbpedia-ja:K近傍法 dbpedia-vi:Giải_thuật_k_hàng_xóm_gần_nhất dbpedia-zh:K-近邻算法 dbpedia-es:K_vecinos_más_próximos dbpedia-eu:K_auzokide_hurbilenak
dbo:wikiPageID
1103016
dbo:wikiPageRevisionID
190625798
dbo:wikiPageWikiLink
dbpedia-fr:Apprentissage_automatique dbpedia-fr:Recherche_des_plus_proches_voisins dbpedia-fr:Intelligence_artificielle dbpedia-fr:Validation_croisée n19:KnnClassification.svg dbpedia-fr:Carte_autoadaptative dbpedia-fr:Reconnaissance_de_formes dbpedia-fr:Apprentissage_supervisé dbpedia-fr:Méthode_du_plus_proche_voisin_à_grande_tolérance dbpedia-fr:Espace_euclidien dbpedia-fr:Distance_de_Hamming category-fr:Algorithme_de_classification dbpedia-fr:Classement_automatique dbpedia-fr:Jeu_de_données_d'apprentissage dbpedia-fr:Analyse_des_composantes_de_voisinage category-fr:Apprentissage_automatique dbpedia-fr:Variable_aléatoire_continue
dbo:wikiPageLength
9206
dct:subject
category-fr:Algorithme_de_classification category-fr:Apprentissage_automatique
prop-fr:wikiPageUsesTemplate
n18:Mvar n18:Portail n18:, n18:Ébauche n18:Palette n18:Références n18:Infobox_Méthode_scientifique
prov:wasDerivedFrom
wikipedia-fr:Méthode_des_k_plus_proches_voisins?oldid=190625798&ns=0
foaf:depiction
n4:KnnClassification.svg
dbo:thumbnail
n4:KnnClassification.svg?width=300
foaf:isPrimaryTopicOf
wikipedia-fr:Méthode_des_k_plus_proches_voisins
dbo:abstract
En intelligence artificielle, plus précisément en apprentissage automatique, la méthode des k plus proches voisins est une méthode d’apprentissage supervisé. En abrégé k-NN ou KNN, de l'anglais k-nearest neighbors. Dans ce cadre, on dispose d’une base de données d'apprentissage constituée de N couples « entrée-sortie ». Pour estimer la sortie associée à une nouvelle entrée x, la méthode des k plus proches voisins consiste à prendre en compte (de façon identique) les k échantillons d'apprentissage dont l’entrée est la plus proche de la nouvelle entrée x, selon une distance à définir. Puisque cet algorithme est basé sur la distance, la normalisation peut améliorer sa précision. Par exemple, dans un problème de classification, on retiendra la classe la plus représentée parmi les k sorties associées aux k entrées les plus proches de la nouvelle entrée x. En reconnaissance de forme, l'algorithme des k plus proches voisins (k-NN) est une méthode non paramétrique utilisée pour la classification et la régression. Dans les deux cas, il s'agit de classer l'entrée dans la catégorie à laquelle appartient les k plus proches voisins dans l'espace des caractéristiques identifiées par apprentissage. Le résultat dépend si l'algorithme est utilisé à des fins de classification ou de régression : * en classification k-NN, le résultat est une classe d'appartenance. Un objet d'entrée est classifié selon le résultat majoritaire des statistiques de classes d'appartenance de ses k plus proches voisins, (k est un nombre entier positif généralement petit). Si k = 1, alors l'objet est affecté à la classe d'appartenance de son proche voisin. * en régression k-NN, le résultat est la valeur pour cet objet. Cette valeur est la moyenne des valeurs des k plus proches voisins. La méthode k-NN est basée sur l'apprentissage préalable, ou l'apprentissage faible, où la fonction est évaluée localement, le calcul définitif étant effectué à l'issue de la classification. L'algorithme k-NN est parmi les plus simples des algorithmes de machines learning. Que ce soit pour la classification ou la régression, une technique efficace peut être utilisée pour pondérer l'influence contributive des voisinages, ainsi les plus proches voisins contribuent-ils plus à la moyenne que les voisins plus éloignés. Pour exemple, un schéma courant de pondération consiste à donner à chaque voisin une pondération de 1/d, ou d est la distance de l'élément, à classer ou à pondérer, de ce voisin. Les voisins sont pris depuis un ensemble d'objets pour lesquels la classe (en classification k-NN) ou la valeur (pour une régression k-NN) est connue. Ceci peut être considéré comme l'ensemble d'entraînement pour l'algorithme, bien qu'un entraînement explicite ne soit pas particulièrement requis. Une particularité des algorithmes k-NN est d'être particulièrement sensible à la structure locale des données.