L'explosion d'intelligence est une prédiction qui postule que l'amélioration de l'intelligence (par manipulation génétique, par intelligence artificielle (IA)) aura pour résultat des améliorations ultérieures à intervalles de temps toujours plus courts et une augmentation de l’intelligence exponentielle dont le résultat hypothétique est parfois nommé « la singularité technologique ». La notion d'« explosion d'intelligence » a été décrite par Irving John Good, qui a traité des effets des machines surhumaines, si elles étaient inventés:

Property Value
dbo:abstract
  • L'explosion d'intelligence est une prédiction qui postule que l'amélioration de l'intelligence (par manipulation génétique, par intelligence artificielle (IA)) aura pour résultat des améliorations ultérieures à intervalles de temps toujours plus courts et une augmentation de l’intelligence exponentielle dont le résultat hypothétique est parfois nommé « la singularité technologique ». La notion d'« explosion d'intelligence » a été décrite par Irving John Good, qui a traité des effets des machines surhumaines, si elles étaient inventés: « Soit une machine ultra-intelligente définie comme une machine qui peut dépasser de loin toutes les activités intellectuelles de n'importe quel homme, quel que soit son quotient intellectuel. Comme la conception des machines est l'une de ces activités intellectuelles, une machine ultra-intelligente pourrait concevoir des machines encore meilleures. Il y aurait dès lors une « explosion d'intelligence », et l'intelligence de l'homme serait laissée loin derrière. Ainsi, la première machine ultra-intelligente est la dernière invention que l'homme doit faire, à condition que la machine soit assez lucide pour nous dire comment la garder sous contrôle. » Bien que le progrès technologique ait été accéléré, il a été limité par l'intelligence fondamentale du cerveau humain, qui n'a pas, selon Paul Ehrlich, changé de façon significative pendant des millénaires. Cependant, avec la puissance croissante des ordinateurs et d'autres technologies, il pourrait éventuellement être possible de construire une machine qui est plus intelligente que les humains. Si une intelligence surhumaine devait être inventée—soit par l'amplification de l'intelligence humaine, soit par l'intelligence artificielle—elle apportait des capacités de résolution de problèmes et de créativités supérieures à celles dont les humains actuels sont capables. Car si une IA était créée avec des capacités d'ingénierie qui correspondaient ou surpassaient celles de ses créateurs humains, elle aurait le potentiel d'améliorer de façon autonome ses propres logiciels et matériels ou de concevoir une machine encore plus puissante. Cette machine plus capable pourrait alors continuer à concevoir une machine de capacité encore plus grande. Ces itérations de l'auto-amélioration récursive pourraient s'accélérer, permettant potentiellement d'énormes changements qualitatifs avant toute limite supérieure imposée par les lois de la physique ou le calcul théorique imposés. Il est supposé qu'une telle IA dépasserait de loin les capacités cognitives humaines. Nick Bostrom dans son livre Superintelligence : Paths, Dangers, Strategies montre que différentes voies peuvent mener à l'explosion de l’intelligence et pas seulement l’intelligence artificielle. (fr)
  • L'explosion d'intelligence est une prédiction qui postule que l'amélioration de l'intelligence (par manipulation génétique, par intelligence artificielle (IA)) aura pour résultat des améliorations ultérieures à intervalles de temps toujours plus courts et une augmentation de l’intelligence exponentielle dont le résultat hypothétique est parfois nommé « la singularité technologique ». La notion d'« explosion d'intelligence » a été décrite par Irving John Good, qui a traité des effets des machines surhumaines, si elles étaient inventés: « Soit une machine ultra-intelligente définie comme une machine qui peut dépasser de loin toutes les activités intellectuelles de n'importe quel homme, quel que soit son quotient intellectuel. Comme la conception des machines est l'une de ces activités intellectuelles, une machine ultra-intelligente pourrait concevoir des machines encore meilleures. Il y aurait dès lors une « explosion d'intelligence », et l'intelligence de l'homme serait laissée loin derrière. Ainsi, la première machine ultra-intelligente est la dernière invention que l'homme doit faire, à condition que la machine soit assez lucide pour nous dire comment la garder sous contrôle. » Bien que le progrès technologique ait été accéléré, il a été limité par l'intelligence fondamentale du cerveau humain, qui n'a pas, selon Paul Ehrlich, changé de façon significative pendant des millénaires. Cependant, avec la puissance croissante des ordinateurs et d'autres technologies, il pourrait éventuellement être possible de construire une machine qui est plus intelligente que les humains. Si une intelligence surhumaine devait être inventée—soit par l'amplification de l'intelligence humaine, soit par l'intelligence artificielle—elle apportait des capacités de résolution de problèmes et de créativités supérieures à celles dont les humains actuels sont capables. Car si une IA était créée avec des capacités d'ingénierie qui correspondaient ou surpassaient celles de ses créateurs humains, elle aurait le potentiel d'améliorer de façon autonome ses propres logiciels et matériels ou de concevoir une machine encore plus puissante. Cette machine plus capable pourrait alors continuer à concevoir une machine de capacité encore plus grande. Ces itérations de l'auto-amélioration récursive pourraient s'accélérer, permettant potentiellement d'énormes changements qualitatifs avant toute limite supérieure imposée par les lois de la physique ou le calcul théorique imposés. Il est supposé qu'une telle IA dépasserait de loin les capacités cognitives humaines. Nick Bostrom dans son livre Superintelligence : Paths, Dangers, Strategies montre que différentes voies peuvent mener à l'explosion de l’intelligence et pas seulement l’intelligence artificielle. (fr)
dbo:wikiPageExternalLink
dbo:wikiPageID
  • 10858354 (xsd:integer)
dbo:wikiPageLength
  • 22661 (xsd:nonNegativeInteger)
dbo:wikiPageRevisionID
  • 183026259 (xsd:integer)
dbo:wikiPageWikiLink
prop-fr:année
  • 1965 (xsd:integer)
  • 1998 (xsd:integer)
  • 2002 (xsd:integer)
  • 2008 (xsd:integer)
prop-fr:archivedate
  • 2001-05-27 (xsd:date)
  • 2009-08-28 (xsd:date)
prop-fr:archiveurl
prop-fr:art
  • Intelligence explosion (fr)
  • Intelligence explosion (fr)
prop-fr:arxiv
  • 1411.137300 (xsd:double)
prop-fr:auteur
  • Franz L. Alt (fr)
  • Morris Rubinoff (fr)
  • Franz L. Alt (fr)
  • Morris Rubinoff (fr)
prop-fr:collection
  • Advances in Computers (fr)
  • Advances in Computers (fr)
prop-fr:consultéLe
  • 2007-08-07 (xsd:date)
  • 2008-06-13 (xsd:date)
  • 2009-06-19 (xsd:date)
  • 2014-11-05 (xsd:date)
prop-fr:date
  • 2006-12-07 (xsd:date)
prop-fr:directeur
  • oui (fr)
  • oui (fr)
prop-fr:doi
  • 10.101600 (xsd:double)
prop-fr:id
  • 776167917 (xsd:integer)
prop-fr:isbn
  • 9780120121069 (xsd:decimal)
prop-fr:journal
prop-fr:lang
  • en (fr)
  • en (fr)
prop-fr:lienAuteur
  • Bill Hibbard (fr)
  • I. J. Good (fr)
  • Nick Bostrom (fr)
  • Robin Hanson (fr)
  • Bill Hibbard (fr)
  • I. J. Good (fr)
  • Nick Bostrom (fr)
  • Robin Hanson (fr)
prop-fr:lireEnLigne
prop-fr:nom
  • Good (fr)
  • Hanson (fr)
  • Berglas (fr)
  • Bostrom (fr)
  • Hibbard (fr)
  • Vinge (fr)
  • Good (fr)
  • Hanson (fr)
  • Berglas (fr)
  • Bostrom (fr)
  • Hibbard (fr)
  • Vinge (fr)
prop-fr:pages
  • 31 (xsd:integer)
prop-fr:prénom
  • Anthony (fr)
  • Bill (fr)
  • Robin (fr)
  • Nick (fr)
  • I. J. (fr)
  • Vernor (fr)
  • Anthony (fr)
  • Bill (fr)
  • Robin (fr)
  • Nick (fr)
  • I. J. (fr)
  • Vernor (fr)
prop-fr:périodique
prop-fr:titre
  • Artificial Intelligence will Kill our Grandchildren (fr)
  • Ethical Artificial Intelligence (fr)
  • Existential Risks (fr)
  • Some Skepticism (fr)
  • The Coming Technological Singularity: How to Survive in the Post-Human Era (fr)
  • Speculations Concerning the First Ultraintelligent Machine (fr)
  • Artificial Intelligence will Kill our Grandchildren (fr)
  • Ethical Artificial Intelligence (fr)
  • Existential Risks (fr)
  • Some Skepticism (fr)
  • The Coming Technological Singularity: How to Survive in the Post-Human Era (fr)
  • Speculations Concerning the First Ultraintelligent Machine (fr)
prop-fr:url
prop-fr:volume
  • 6 (xsd:integer)
  • 9 (xsd:integer)
prop-fr:wikiPageUsesTemplate
prop-fr:éditeur
  • Robin Hanson (fr)
  • Robin Hanson (fr)
dct:subject
rdfs:comment
  • L'explosion d'intelligence est une prédiction qui postule que l'amélioration de l'intelligence (par manipulation génétique, par intelligence artificielle (IA)) aura pour résultat des améliorations ultérieures à intervalles de temps toujours plus courts et une augmentation de l’intelligence exponentielle dont le résultat hypothétique est parfois nommé « la singularité technologique ». La notion d'« explosion d'intelligence » a été décrite par Irving John Good, qui a traité des effets des machines surhumaines, si elles étaient inventés: (fr)
  • L'explosion d'intelligence est une prédiction qui postule que l'amélioration de l'intelligence (par manipulation génétique, par intelligence artificielle (IA)) aura pour résultat des améliorations ultérieures à intervalles de temps toujours plus courts et une augmentation de l’intelligence exponentielle dont le résultat hypothétique est parfois nommé « la singularité technologique ». La notion d'« explosion d'intelligence » a été décrite par Irving John Good, qui a traité des effets des machines surhumaines, si elles étaient inventés: (fr)
rdfs:label
  • Explosion d'intelligence (fr)
  • Explosion d'intelligence (fr)
owl:sameAs
prov:wasDerivedFrom
foaf:isPrimaryTopicOf
is dbo:wikiPageWikiLink of
is oa:hasTarget of
is foaf:primaryTopic of