About: dbpedia-fr:Biais_algorithmique     Goto   Sponge   NotDistinct   Permalink

An Entity of Type : owl:Thing, within Data Space : fr.dbpedia.org associated with source document(s)

AttributesValues
rdfs:label
  • Biais algorithmique (fr)
  • Discriminação algorítmica (pt)
rdfs:comment
  • Un biais algorithmique est le fait que le résultat d'un algorithme d'apprentissage ne soit pas neutre, loyal ou équitable. Le biais algorithmique peut se produire lorsque les données utilisées pour entraîner un algorithme d'apprentissage automatique reflètent les valeurs implicites des humains impliqués dans la collecte, la sélection, ou l'utilisation de ces données. Les biais algorithmiques ont été identifiés et critiqués pour leur impact sur les résultats des moteurs de recherche, les services de réseautage social, le respect de la vie privée, et le profilage racial. Dans les résultats de recherche, ce biais peut créer des résultats reflétant des biais racistes, sexistes ou d'autres biais sociaux ou culturels, malgré la neutralité supposée des données. Un exemple concret est celui des in (fr)
sameAs
Wikipage page ID
Wikipage revision ID
dbo:wikiPageWikiLink
Link from a Wikipage to an external page
page length (characters) of wiki page
dct:subject
prop-fr:wikiPageUsesTemplate
prov:wasDerivedFrom
prop-fr:fr
  • GloVe (fr)
  • institut AI Now (fr)
prop-fr:trad
  • AI Now Institute (fr)
  • GloVe (fr)
foaf:isPrimaryTopicOf
has abstract
  • Un biais algorithmique est le fait que le résultat d'un algorithme d'apprentissage ne soit pas neutre, loyal ou équitable. Le biais algorithmique peut se produire lorsque les données utilisées pour entraîner un algorithme d'apprentissage automatique reflètent les valeurs implicites des humains impliqués dans la collecte, la sélection, ou l'utilisation de ces données. Les biais algorithmiques ont été identifiés et critiqués pour leur impact sur les résultats des moteurs de recherche, les services de réseautage social, le respect de la vie privée, et le profilage racial. Dans les résultats de recherche, ce biais peut créer des résultats reflétant des biais racistes, sexistes ou d'autres biais sociaux ou culturels, malgré la neutralité supposée des données. Un exemple concret est celui des interprètes en ligne qui traduisent systématiquement le terme anglais "nurse" (neutre) en "infirmière" (féminin) et le terme "doctor" (neutre) en "docteur" (masculin). L'étude des biais algorithmiques s'intéresse particulièrement aux algorithmes qui reflètent une discrimination « systématique et injuste »[pourquoi ?]. Le biais algorithmique n'est pas nécessairement une volonté délibérée des concepteurs de l'algorithme de tromper les utilisateurs. Il est d'autant plus important pour ceux-ci d'en avoir conscience que l'usage d'un algorithme biaisé que l'on suppose objectif peut fortement influencer leurs opinions. Cette problématique pose la question du manque de rétrocontrôle des concepteurs d'algorithmes sur leur création déjà soulevée par les ingénieurs des grandes plateformes de l'Internet. (fr)
is dbo:wikiPageWikiLink of
Faceted Search & Find service v1.16.111 as of Oct 19 2022


Alternative Linked Data Documents: ODE     Content Formats:   [cxml] [csv]     RDF   [text] [turtle] [ld+json] [rdf+json] [rdf+xml]     ODATA   [atom+xml] [odata+json]     Microdata   [microdata+json] [html]    About   
This material is Open Knowledge   W3C Semantic Web Technology [RDF Data] Valid XHTML + RDFa
OpenLink Virtuoso version 07.20.3234 as of May 18 2022, on Linux (x86_64-ubuntu_bionic-linux-gnu), Single-Server Edition (39 GB total memory, 15 GB memory in use)
Data on this page belongs to its respective rights holders.
Virtuoso Faceted Browser Copyright © 2009-2024 OpenLink Software