This HTML5 document contains 43 embedded RDF statements represented using HTML+Microdata notation.

The embedded RDF content will be recognized by any processor of HTML5 Microdata.

Namespace Prefixes

PrefixIRI
dbpedia-dehttp://de.dbpedia.org/resource/
n9http://g.co/kg/g/
dcthttp://purl.org/dc/terms/
dbohttp://dbpedia.org/ontology/
foafhttp://xmlns.com/foaf/0.1/
dbpedia-kohttp://ko.dbpedia.org/resource/
dbpedia-ruhttp://ru.dbpedia.org/resource/
dbpedia-ukhttp://uk.dbpedia.org/resource/
rdfshttp://www.w3.org/2000/01/rdf-schema#
category-frhttp://fr.dbpedia.org/resource/Catégorie:
n14http://fr.dbpedia.org/resource/Modèle:
dbpedia-fahttp://fa.dbpedia.org/resource/
wikipedia-frhttp://fr.wikipedia.org/wiki/
rdfhttp://www.w3.org/1999/02/22-rdf-syntax-ns#
dbpedia-euhttp://eu.dbpedia.org/resource/
dbpedia-arhttp://ar.dbpedia.org/resource/
owlhttp://www.w3.org/2002/07/owl#
dbpedia-vihttp://vi.dbpedia.org/resource/
dbpedia-frhttp://fr.dbpedia.org/resource/
provhttp://www.w3.org/ns/prov#
prop-frhttp://fr.dbpedia.org/property/
xsdhhttp://www.w3.org/2001/XMLSchema#
dbrhttp://dbpedia.org/resource/
wikidatahttp://www.wikidata.org/entity/
dbpedia-jahttp://ja.dbpedia.org/resource/

Statements

Subject Item
dbpedia-fr:Transformeur
rdfs:label
Transformeur Transformer (mô hình học máy)
rdfs:comment
Le transformeur (ou modèle auto-attentif) est un modèle d'apprentissage profond introduit en 2017, utilisé principalement dans le domaine du traitement automatique des langues (TAL). À l'instar des réseaux de neurones récurrents (RNN), les transformeurs sont conçus pour gérer des données séquentielles, telles que le langage naturel, pour des tâches telles que la traduction et la synthèse de texte. Cependant, contrairement aux RNN, les transformeurs n'exigent pas que les données séquentielles soient traitées dans l'ordre. Par exemple, si les données d'entrée sont une phrase en langage naturel, le transformeur n'a pas besoin d'en traiter le début avant la fin. Grâce à cette fonctionnalité, le transformeur permet une parallélisation beaucoup plus importante que les RNN et donc des temps d'ent
owl:sameAs
dbpedia-fa:ترنسفورمرها_(یادگیری_ماشین) dbpedia-ko:변환기_(기계_학습) n9:11hz_m4ssw dbpedia-ja:Transformer_(機械学習モデル) dbpedia-uk:Трансформер_(модель_машинного_навчання) dbpedia-ru:Трансформер_(модель_машинного_обучения) dbpedia-vi:Transformer_(mô_hình_học_máy) dbr:Transformer_(machine_learning_model) dbpedia-de:Transformer_(Maschinelles_Lernen) wikidata:Q85810444 dbpedia-ar:الشبكات_العصبية_غير_الترتيبية_(حاسوب) dbpedia-eu:Transformer_(ikasketa_automatikoko_eredua)
dbo:wikiPageID
13252020
dbo:wikiPageRevisionID
190402562
dbo:wikiPageWikiLink
dbpedia-fr:BERT_(modèle_de_langage) dbpedia-fr:Fonction_softmax dbpedia-fr:Réseau_de_neurones_à_propagation_avant dbpedia-fr:GPT-3 dbpedia-fr:Réseau_de_neurones_récurrents dbpedia-fr:Réseau_de_neurones_artificiels dbpedia-fr:Traitement_automatique_des_langues category-fr:Traitement_automatique_du_langage_naturel category-fr:Réseau_de_neurones_artificiels
dbo:wikiPageLength
10918
dct:subject
category-fr:Réseau_de_neurones_artificiels category-fr:Traitement_automatique_du_langage_naturel
prop-fr:wikiPageUsesTemplate
n14:Autres_projets n14:Portail n14:Colonnes
prov:wasDerivedFrom
wikipedia-fr:Transformeur?oldid=190402562&ns=0
prop-fr:wiktionary
transformeur
prop-fr:wikiversity
Réseaux de neurones
prop-fr:wikiversityTitre
Réseaux de neurones
foaf:isPrimaryTopicOf
wikipedia-fr:Transformeur
dbo:abstract
Le transformeur (ou modèle auto-attentif) est un modèle d'apprentissage profond introduit en 2017, utilisé principalement dans le domaine du traitement automatique des langues (TAL). À l'instar des réseaux de neurones récurrents (RNN), les transformeurs sont conçus pour gérer des données séquentielles, telles que le langage naturel, pour des tâches telles que la traduction et la synthèse de texte. Cependant, contrairement aux RNN, les transformeurs n'exigent pas que les données séquentielles soient traitées dans l'ordre. Par exemple, si les données d'entrée sont une phrase en langage naturel, le transformeur n'a pas besoin d'en traiter le début avant la fin. Grâce à cette fonctionnalité, le transformeur permet une parallélisation beaucoup plus importante que les RNN et donc des temps d'entraînement réduits. Les transformeurs sont rapidement devenus le modèle de choix pour les problèmes de TAL, remplaçant les anciens modèles de réseaux de neurones récurrents tels que le LSTM (Long Short-Term Memory). Étant donné que le modèle transformeur facilite davantage la parallélisation pendant la formation, il a permis l'entrainement sur des ensembles de données plus volumineux qu'il n'était possible avant son introduction. Cela a conduit au développement de systèmes pré-entraînés tels que BERT (Bidirectional Encoder Representations from Transformers) et GPT (Generative Pre-Training Transformer), qui ont été formés avec d'énormes ensembles de données de texte général, tels que Wikipedia Corpus, et peuvent être affinés pour réaliser des tâches linguistiques spécifiques.
dbo:developer
wikidata:Q44749723 dbpedia-fr:Google_Brain wikidata:Q30251943
dbo:follows
wikidata:Q6673524 dbpedia-fr:Réseau_de_neurones_récurrents