This HTML5 document contains 49 embedded RDF statements represented using HTML+Microdata notation.

The embedded RDF content will be recognized by any processor of HTML5 Microdata.

Namespace Prefixes

PrefixIRI
dcthttp://purl.org/dc/terms/
dbohttp://dbpedia.org/ontology/
foafhttp://xmlns.com/foaf/0.1/
n20https://www.bbc.co.uk/news/
dbpedia-eshttp://es.dbpedia.org/resource/
n16http://g.co/kg/m/
n6https://twitter.com/
rdfshttp://www.w3.org/2000/01/rdf-schema#
dbpedia-svhttp://sv.dbpedia.org/resource/
category-frhttp://fr.dbpedia.org/resource/Catégorie:
n11http://fr.dbpedia.org/resource/Modèle:
n19http://viaf.org/viaf/
wikipedia-frhttp://fr.wikipedia.org/wiki/
n21http://fr.dbpedia.org/resource/Modèle:Traduction/
rdfhttp://www.w3.org/1999/02/22-rdf-syntax-ns#
n23https://www.youtube.com/channel/
owlhttp://www.w3.org/2002/07/owl#
dbpedia-frhttp://fr.dbpedia.org/resource/
prop-frhttp://fr.dbpedia.org/property/
provhttp://www.w3.org/ns/prov#
xsdhhttp://www.w3.org/2001/XMLSchema#
dbrhttp://dbpedia.org/resource/
wikidatahttp://www.wikidata.org/entity/
n4http://cser.org/

Statements

Subject Item
dbpedia-fr:Centre_pour_l'étude_des_risques_existentiels
rdfs:label
Centre for the Study of Existential Risk Centre for the Study of Existential Risk Centre pour l'étude des risques existentiels
rdfs:comment
Le centre pour l'étude des risques existentiels (CSER pour Centre for the Study of Existential Risk en anglais) est un centre de recherche de l'université de Cambridge créé à l'origine pour se concentrer sur l'étude des risques liés à des évolutions de la technologie susceptible de mettre en danger l'avenir même de l'humanité. Le centre a été fondé par les chercheurs Huw Price, Martin Rees et Jaan Tallinn.
rdfs:seeAlso
n6:CSERCambridge n23:UCoMIcy9-8QxuhhRSwc9cVQg
owl:sameAs
dbr:Centre_for_the_Study_of_Existential_Risk wikidata:Q1153172 dbpedia-es:Centro_para_el_Estudio_del_Riesgo_Existencial n16:0n_638d dbpedia-sv:Centre_for_the_Study_of_Existential_Risk n19:3940152381774701950000
dbo:wikiPageID
6800756
dbo:wikiPageRevisionID
189803026
dbo:wikiPageWikiLink
category-fr:Futurologie dbpedia-fr:Martin_Rees category-fr:Université_de_Cambridge dbpedia-fr:Huw_Price dbpedia-fr:BBC_News dbpedia-fr:Jaan_Tallinn dbpedia-fr:Fin_du_monde dbpedia-fr:Terminator dbpedia-fr:Intelligence_artificielle dbpedia-fr:Université_de_Cambridge dbpedia-fr:Singularité_technologique dbpedia-fr:Anglais
dbo:wikiPageExternalLink
n4: n20:technology-20501091%7Ctitre=Risk
dbo:wikiPageLength
4534
dct:subject
category-fr:Futurologie category-fr:Université_de_Cambridge
prop-fr:wikiPageUsesTemplate
n11:Trad n11:, n11:Portail n11:Lien_web n11:Références n11:Citation n11:En n11:Officiel n21:Référence
prov:wasDerivedFrom
wikipedia-fr:Centre_pour_l'étude_des_risques_existentiels?oldid=189803026&ns=0
prop-fr:date
2012-11-26
prop-fr:langue
en
prop-fr:site
dbpedia-fr:BBC_News
prop-fr:url
https://www.bbc.co.uk/news/technology-20501091|titre=Risk of robot uprising wiping out human race to be studied
foaf:isPrimaryTopicOf
wikipedia-fr:Centre_pour_l'étude_des_risques_existentiels
dbo:abstract
Le centre pour l'étude des risques existentiels (CSER pour Centre for the Study of Existential Risk en anglais) est un centre de recherche de l'université de Cambridge créé à l'origine pour se concentrer sur l'étude des risques liés à des évolutions de la technologie susceptible de mettre en danger l'avenir même de l'humanité. Le centre a été fondé par les chercheurs Huw Price, Martin Rees et Jaan Tallinn. L'une des études du centre, le risque que des robots se révoltent contre l'espèce humaine dans une approche semblable à celle dépeinte par Terminator, a bénéficié d'une importante visibilité médiatique. Selon Price, « Il semble raisonnable de croire qu’à un moment donné, dans ce siècle ou le prochain, l’intelligence échappera aux contraintes de la biologie ». Par la suite, le centre a précisé ses centres d'intérêt pour les élargir à d'autres risques susceptibles de mettre en danger la continuation de la civilisation ou la survie de l'espèce humaine. Les quatre catégories de risques envisagées sont les suivantes : * les risques technologiques extrêmes ; * les risques biologiques catastrophiques mondiaux ; * les risques extrêmes de type environnementaux d'impact mondial ; * les risques en lien au développement de l'intelligence artificielle. Curieusement, pour le centre, les risques technologiques extrêmes incluent une guerre nucléaire, une pandémie issue de développements artificiels, le changement climatique, effondrement écologique ou des impacts de l'ntelligence artificielle avancée. Le centre de recherche a été à l'initiative de la création d’un groupe parlementaire transpartisant centré sur les intérêts des générations futures, dans le but d'amener les politiques à penser long terme et risques globaux. Ce groupe a notamment produit une charte applicable au Royaume-Uni similaire à ce qui existait déjà au Pays de Galles visant la préservation des intérêts des générations futures .
dbo:country
dbpedia-fr:Royaume-Uni
dbo:headquarter
dbpedia-fr:Cambridge