PropertyValue
dbpedia-owl:abstract
  • La théorie de l'information, sans précision, est le nom usuel désignant la théorie de l'information de Shannon, qui est une théorie probabiliste permettant de quantifier le contenu moyen en information d'un ensemble de messages, dont le codage informatique satisfait une distribution statistique précise. Ce domaine trouve son origine scientifique avec Claude Shannon qui en est le père fondateur avec son article A Mathematical Theory of Communications publié en 1948.Parmi les branches importantes de la théorie de l'information de Shannon, on peut citer : le codage de l'information, la mesure quantitative de redondance d'un texte, la compression de données, la cryptographie.Dans un sens plus général, une théorie de l'information est une théorie visant à quantifier et qualifier la notion de contenu en information présent dans un ensemble de données. À ce titre, il existe une autre théorie de l'information : la théorie algorithmique de l'information, créée par Kolmogorov, Solomonov et Chaitin au début des années 1960.
  • Teorie informace je věda, která se zabývá měřením, přenosem, kódováním, ukládáním a následným zpracováním informací z kvantitativního hlediska. Za jejího tvůrce je pokládán C. E. Shannon.Teorie informace spojuje aplikovanou matematiku (především teorii pravděpodobnosti, lineární algebru a matematickou statistiku) a elektrotechniku. K jejím nejdůležitějším odvětvím patří teorie přenosu informace. Mezi praktické výsledky teorie informace patří algoritmy bezeztrátové (např. ZIP) a ztrátové komprese (např. MP3), stejně jako využívání pokročilých modulací signálu pro co nejlepší využití kapacity přenosového kanálu (např. u modemů, DSL, WiFi).
  • Teoria informacji – dyscyplina zajmująca się problematyką informacji oraz metodami przetwarzania informacji, np. w celu transmisji lub kompresji. Naukowo teoria informacji jest blisko powiązana z matematyką dyskretną, a z jej osiągnięć czerpią takie dyscypliny jak informatyka i telekomunikacja.
  • Bilgi kuramı; bilginin nicelikselleştirilmesi ile ilgili bir uygulamalı matematik ve elektrik mühendisliği dalıdır. Bilgi kuramı; Claude E. Shannon tarafından güvenli şekilde veri sıkıştırma, depolama ve iletme gibi sinyal işleme işlemlerinin kısıtlarını bulmak için geliştirilmiştir.Bilginin önemli bir ölçütü, genellikle depolama ve iletişim için gerekli olan parçaların ortalama sayısı olan entropidir. Entropi, bir rastgele değişkenin değerini tahmin ederken belirsizliği nicelikselleştirir. Örneğin, bir yazı tura oyunun sonuç için sağladığı bilgi, bir zar atma oyunun sonuç için sağladığı bilgiden daha azdır. Yazı tura oyununda eşit olasılıklı iki sonuç vardır, zar atma oyununda ise eşit olasılıklı altı sonuç. Bu nedenle yazı tura oyunu daha düşük entropiye sahiptir. Bilgi kuramının temel uygulamalarına örnek olarak kayıpsız veri sıkıştırma (ZIP dosyaları), kayıplı veri sıkıştırma (MP3 dosyaları) veya kanal kodlama (DSL bağlantıları) gösterilebilir. Bilgi kuramının alanı matematik, istatistik, bilgisayar bilimi, fizik, nörobiyoloji ve elektrik mühendisliği ile kesişir. Voyager derin uzay görevleri, kompakt diskin geliştirilmesi, cep telefonlarının yapılabilirliği, internetin geliştirilmesi, dilbilimi araştırmaları gibi pek çok konuda başarının üzerinde büyük etkisi olmuştur. Bilgi kuramının önemli alt dalları; kaynak kodlaması, kanal kodlaması, algoritmik karmaşıklık kuramı, algoritmik bilgi kuramı gibi alanlardır.
  • Теорията на информацията е клон от теорията на вероятностите и математическата статистика; неин обект е информацията.Теорията на информацията е свързана с информационната ентропия, информационните и комуникационните системи, предаването на данни и теорията на скоростта на изказването, криптографията, корекцията на грешки и други близко граничещи области.Основоположник на тази област е Клод Шанън (известен в България и като Клод Шенон) с публикуването на труда „Математическа теория на комуникациите“ (A Mathematical Theory of Communications) през 1948 г.През 1967 г. професор Робърт Тейлър учредява първото научно дружество за информационна наука. Информацията се определя като обмен на данни между индивидите, между автоматите, обмен на сигнали в растителния и животински свят, предаване на признаци от клетка в клетка, от организъм в организъм.Информацията се предава под формата на съобщения през информационни канали. Информационните съобщения изпълняват 3 основни функции: десигнативна — отразява обикновената информация за обкръжаващата ни действителност; експресивна — отразява мотивите, целите на индивида, предаващ някакво съобщение; инструментална — отразява въздействието на информационното съобщение върху получателя.Всяко едно информационно съобщение има няколко аспекта: количествен, семантичен (съдържателен), структурен (отразява степента на сложност), прагматичен (използваемостта на съобщението).Всяко информационно съобщение се състои от три части: смисъл, знак, физически носител.Трите основни характеристики на информацията са количество, качество и ценност. Количество – изразява се в/с битове (Клод Шенън) – понятие с два равновероятни изхода е 1 бит. Качество – има три аспекта: смисъл — анализира се съдържанието (анализ на съдържанието – content analysis); структура – степента на сложност на информационната структура, свързана със смисъла; сложност на информационното съобщение. Ценност – има субективен характер, защото зависи от индивида и целите му. Тя е свързана с две фундаментални понятия: релевантност — изисква информационните съобщения да отговарят на тематиката на запитване; пертинентност — информацията, която е нова за потребителя изменя представите му за даден обект, процес, явление или допълва неговото знание в друг аспект.Двете понятия не са синоними. Има изискване за достоверност, актуалност, новост, многоаспектност и т.н. Формите на съществуване на информацията са три: асимилативна – получателят на информация я асимилира, обработва и запаметява; документална – записва се на някакъв физически носител; комуникативна — разновидност са цифровата (дигиталната) и мултимедийната – обмен на данни и факти между индивиди, автомати и др.↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑
  • La Teoria de la informació és una branca de la teoria matemàtica de la probabilitat i l'estadística que estudia la informació i tot el relacionat amb aquesta, és a dir els canals, la compressió de dades, la criptografia i d'altres temes relacionats.Aquesta branca fou iniciada per Claude E. Shannon a través de l'article "Una teoria matemàtica de la comunicació" presentat a les Bell System Technical Journal del 1948 i ens permet valorar la capacitat de transmetre informació per un canal de comunicació d'acord amb la seva amplada de banda i la seva relació senyal a soroll.La informació es tractada doncs com una magnitud física i per a caracteritzar la informació que transmet una seqüència de símbols s'usa un concepte anomenat entropia. Normalment considerem els canals no ideals però és habitual idealitzar les no linealitats per tal de poder estudiar la màxima quantitat d'informació útil que es pot arribar a enviar a través d'un cert canal.La idea bàsica d'aquesta teoria és que la informació transmesa a través de qualsevol mitjà (telèfon, telègraf, televisió, etc) ho és amb l'ajuda d'un determinat canal (línia telefònica o telegràfica, ondes hertzianes) i amb un codi particular. Els estudis d'aquesta teoria es divideixen en tres grans sectors: Estudi de la informació o quantitat d'informació Estudi de les propietats dels canals de transmissió Estudi de les relacions entre la informació que es vol transmetre i el canal a partir del qual es vols transmetre
  • Az információelmélet az információval, mint az új ismeretté értelmezett adattal foglalkozó matematikai illetve hírközlési tudományterület. Főként az információ keletkezésével, struktúrájával, kezelésével, tárolásával, elérésével és továbbításával foglalkozik. Az információelmélet ezenkívül tanulmányozza az információ különböző felhasználását, az információs rendszereket. Az információelmélet megalapítói Samuel Morse (inkább előfutár), később Claude Shannon matematikus, hírközlési szakember.Az információelmélet az elektromos hírtovábbítás kutatása során jött létre 1948 körül. Alapítói C. Shannon, N. Wiener és A. N. Kolmogorov. Az információ latin eredetű szó, amely értesülést, hírt, üzenetet, tájékoztatást jelent. Az információelmélet szerint azonban az üzenet nem azonos az információval. Az átvitt adatmennyiség információtartalma attól függ, hogy a vétel helyén mennyire szünteti meg a bizonytalanságot. Például az alábbi hiányos sürgöny információtartalma attól függ, hogy naponta hány vonat jön: "Holnap érkezem, a …… órás vonattal, Károly." Ha csak egy vonat érkezik, a bizonytalanság megszűnt, ha viszont naponta sok vonat jár, nagy a bizonytalanság, az üzenet információtartalma kicsi.
  • 情報理論(じょうほうりろん、英: Information theory)は、情報・通信を数学的に論じる学問である。応用数学の中でもデータの定量化に関する分野であり、可能な限り多くのデータを媒体に格納したり通信路で送ったりすることを目的としている。情報エントロピーとして知られるデータの尺度は、データの格納や通信に必要とされる平均ビット数で表現される。例えば、日々の天気が3ビットのエントロピーで表されるなら、十分な日数の観測を経て、日々の天気を表現するには「平均で」約3ビット/日(各ビットの値は 0 か 1)と言うことができる。情報理論の基本的な応用としては、ZIP形式(可逆圧縮)、MP3(非可逆圧縮)、DSL(伝送路符号化)などがある。この分野は、数学、統計学、計算機科学、物理学、神経科学、電子工学などの交差する学際領域でもある。その影響は、ボイジャー計画の深宇宙探査の成功、CDの発明、携帯電話の実現、インターネットの開発、言語学や人間の知覚の研究、ブラックホールの理解など様々な事象に及んでいる。
  • Information theory is a branch of applied mathematics, electrical engineering, and computer science involving the quantification of information. Information theory was developed by Claude E. Shannon to find fundamental limits on signal processing operations such as compressing data and on reliably storing and communicating data. Since its inception it has broadened to find applications in many other areas, including statistical inference, natural language processing, cryptography, neurobiology, the evolution and function of molecular codes, model selection in ecology, thermal physics, quantum computing, plagiarism detection and other forms of data analysis.A key measure of information is entropy, which is usually expressed by the average number of bits needed to store or communicate one symbol in a message. Entropy quantifies the uncertainty involved in predicting the value of a random variable. For example, specifying the outcome of a fair coin flip (two equally likely outcomes) provides less information (lower entropy) than specifying the outcome from a roll of a die (six equally likely outcomes).Applications of fundamental topics of information theory include lossless data compression (e.g. ZIP files), lossy data compression (e.g. MP3s and JPEGs), and channel coding (e.g. for Digital Subscriber Line (DSL)). The field is at the intersection of mathematics, statistics, computer science, physics, neurobiology, and electrical engineering. Its impact has been crucial to the success of the Voyager missions to deep space, the invention of the compact disc, the feasibility of mobile phones, the development of the Internet, the study of linguistics and of human perception, the understanding of black holes, and numerous other fields. Important sub-fields of information theory are source coding, channel coding, algorithmic complexity theory, algorithmic information theory, information-theoretic security, and measures of information.
  • A Teoria da informação ou Teoria matemática da comunicação é um ramo da teoria da probabilidade e da matemática estatística que lida com sistemas de comunicação, transmissão de dados, criptografia, codificação, teoria do ruído, correção de erros, compressão de dados, etc. Ela não deve ser confundida com tecnologia da informação e biblioteconomia.Claude Shannon (1916-2001) é conhecido como "o pai da teoria da informação". Sua teoria foi a primeira a considerar comunicação como um problema matemático rigorosamente embasado na estatística e deu aos engenheiros da comunicação um modo de determinar a capacidade de um canal de comunicação em termos de ocorrência de bits. A teoria não se preocupa com a semântica dos dados, mas pode envolver aspectos relacionados com a perda de informação na compressão e na transmissão de mensagens com ruído no canal.É geralmente aceito que a moderna disciplina da teoria da informaçãocomeçou com duas publicações: a do artigo científico de Shannon intitulado Teoria Matemática da Comunicação ("A Mathematical Theory of Communication"), no Bell System Technical Journal, em julho e outubro de 1948; e do livro de Shannon em co-autoria com o também engenheiro estadunidense Warren Weaver (1894-1978), intitulado Teoria Matemática da Comunicação (The Mathematical Theory of Communication), e contendo reimpressões do artigo científico anterior de forma acessível também a não-especialistas - isto popularizou os conceitos.
  • La teoría de la información, también conocida como teoría matemática de la comunicación (mathematical theory of communication) o teoría matemática de la información, es una propuesta teórica presentada por Claude E. Shannon y Warren Weaver a finales de la década de los años 1940. Esta teoría está relacionada con las leyes matemáticas que rigen la transmisión y el procesamiento de la información y se ocupa de la medición de la información y de la representación de la misma, así como también de la capacidad de los sistemas de comunicación para transmitir y procesar información. La teoría de la información es una rama de la teoría matemática y de las ciencias de la computación que estudia la información y todo lo relacionado con ella: canales, compresión de datos y criptografía, entre otros.
  • Die Informationstheorie ist eine mathematische Theorie aus dem Bereich der Wahrscheinlichkeitstheorie und Statistik, die auf Claude Shannon zurückgeht. Sie beschäftigt sich mit Begriffen wie Information, Entropie, Informationsübertragung, Datenkompression, Kodierung und verwandten Themen.Neben der Mathematik, Informatik und Nachrichtentechnik wird die theoretische Betrachtung von Kommunikation durch die Informationstheorie auch zur Beschreibung von Kommunikationssystemen in anderen Bereichen (Medien in der Publizistik, Nervensystem in der Neurologie, DNA und Proteinsequenzen in der Molekularbiologie, Wissen in der Informationswissenschaft und Dokumentation etc.) eingesetzt.Die Shannonsche Theorie verwendet den Begriff der Entropie, um die Informationsdichte (Informationsgehalt) von Nachrichten zu charakterisieren. Je ungleichförmiger eine Nachricht aufgebaut ist, desto höher ist ihre Entropie. Grundlegend für die Informationstheorie ist neben dem Entropiebegriff das Shannon-Hartley-Gesetz, nach Claude Elwood Shannon und Ralph Hartley. Es beschreibt die theoretische Obergrenze der Kanalkapazität, also die maximale Datenübertragungsrate, die ein Übertragungskanal in Abhängigkeit von Bandbreite und Signal-zu-Rausch-Verhältnis ohne Übertragungsfehler erreicht.
  • 정보 이론(情報理論)은 최대한 많은 데이터를 매체에 저장하거나 채널을 통해 통신하기 위해 데이터를 정량화하는 응용 수학의 한 분야이다. 데이터의 단위인 정보 엔트로피는 보통 저장 또는 통신에 사용되는 평균적인 비트 수로 표현된다. 예를 들어 매일의 날씨 정보가 3비트의 엔트로피를 가진다면, 하루의 날씨를 평균 약 3비트로 기술할 수 있다.정보 엔트로피는 열역학에서의 엔트로피와 크게 다르지 않은 개념으로, 정보엔트로피(정보량)가 높을수록 불확실성은 커진다. 반대로 계에서의 정보량은 불확실성의 정도이므로 불확실성이 적은 계의 정보 엔트로피(정보량)는 줄어들 수 있다. 영어알파벳의 경우 모든 알파벳이 동일한 확률도 발생한다면 정보엔트로피(정보량)은 4.754887비트이지만 알파벳의 출현 빈도값을 계산하면 4.08비트까지 줄어든다. 이것 외에도 어떤 철자가 오면 그 뒤에 특정철자가 올 확률이 아주 높은 등 여러가지 이유가 있기 때문에 정보 엔트로피(정보량)는 더욱 줄어들 수 있게 된다. 한 가지 예를 들면 q가 오면 그뒤에 a,u가 올 확률이 거의100%이다.정보 이론의 기본적인 주제가 적용되는 기술로 ZIP 파일(무손실 데이터 압축), MP3 파일(손실 데이터 압축), DSL(채널 부호화), MIMO(채널 모델) 등이 있다. 정보 이론 분야는 수학, 통계학, 전산학, 물리학, 전자공학과 연관되어 있으며, 보이저 계획의 성공, 콤팩트 디스크의 발명, 휴대전화의 실용화, 인터넷의 개발, 언어학과 인간 지각의 연구, 블랙홀의 이해 등 많은 곳에 큰 영향을 끼쳤다.
  • Informatietheorie is de wiskundige theorie die zich bezighoudt met het zo efficiënt en betrouwbaar mogelijk overdragen en opslaan van informatie via onbetrouwbare kanalen (media). Een artikel van Claude Shannon gepubliceerd in 1948 wordt algemeen gezien als de grondslag van dit vakgebied. Belangrijke resultaten van deze theorieën zijn Shannons broncoderings theorema en Shannons ruisig-kanaal (noisy- channel) coderings theorema. Informatietheorie is diep wiskundig van aard, en is verbonden met andere disciplines zoals regelsystemen, kunstmatige intelligentie, complexiteitstheorie, communicatietheorie, coderingstheorie, kansrekening, statistiek en cybernetica.Onbetrouwbaarheid van een kanaal, bijvoorbeeld behept met additieve ruis, kan er de oorzaak van zijn dat de ontvangen informatie niet gelijk is aan de verzonden informatie. We zeggen dan: het kanaal maakt fouten. Een belangrijk begrip in de informatietheorie is de kanaalcapaciteit. De kanaalcapaciteit van een onbetrouwbaar transmissiekanaal wordt gedefinieerd als de maximale hoeveelheid informatie die dat transmissiekanaal per tijdseenheid kan transporteren met arbitrair kleine foutenkans. Andere kernbegrippen in de informatietheorie zijn:zelfinformatie en conditionele zelfinformatieentropie (gemiddelde verrassingswaarde), negentropie en conditionele entropiemutuele informatie
  • Теория информации (математическая теория связи) — раздел прикладной математики, радиотехники (теория обработки сигналов), информатики, аксиоматически определяющий понятие информации, её свойства и устанавливающий предельные соотношения для систем передачи данных. Как и любая математическая теория, оперирует с математическими моделями, а не с реальными физическими объектами (источниками и каналами связи). Использует, главным образом, математический аппарат теории вероятностей и математической статистики.Основные разделы теории информации — кодирование источника (сжимающее кодирование) и канальное (помехоустойчивое) кодирование. Теория информации тесно связана с криптографией и другими смежными дисциплинами.
  • La teoria dell'informazione è una disciplina della fisica applicata che ha come scopo la quantificazione della quantità di dati (ossia di informazione), con lo scopo di essere di in grado di salvarli o di trasmetterli su un canale in modo affidabile. La grandezza che misura la quantità di dati prende il nome di entropia ed è solitamente espressa come numero di bit necessari per immagazzinare o trasmettere l'informazione. Ad esempio, se un alfabeto ha un'entropia pari a 4 bit, allora, preso un numero sufficiente di parole costruite con tale alfabeto, in media sono necessari 4 bit per rappresentare ogni lettera.L'applicazione dei concetti fondamentali della teoria dell'informazione includono la compressione senza perdite dei file (es. zip), la codifica con perdita (es. mp3) e le modulazioni digitali utilizzate nelle trasmissioni ethernet. La teoria dell'informazione si pone a metà strada tra la matematica, la statistica, la fisica, le telecomunicazioni e l'informatica. Il suo impatto è stato fondamentale nelle missioni spaziali, nell'invenzione del CD, dei telefonini, di Internet, nello studio della linguistica ed in numerosissimi altri campi.
dbpedia-owl:thumbnail
dbpedia-owl:wikiPageExternalLink
dbpedia-owl:wikiPageID
  • 4566 (xsd:integer)
dbpedia-owl:wikiPageLength
  • 32328 (xsd:integer)
dbpedia-owl:wikiPageOutDegree
  • 101 (xsd:integer)
dbpedia-owl:wikiPageRevisionID
  • 109257098 (xsd:integer)
dbpedia-owl:wikiPageWikiLink
prop-fr:langue
  • fr
prop-fr:site
prop-fr:titre
  • A Mathematical Theory of Communication
  • Un cours de théorie de l’information par Louis Wehenkel
prop-fr:url
  • http://www.montefiore.ulg.ac.be/~lwh/Info/
  • http://www-igm.univ-mlv.fr/~beal/Enseignement/TheorieInfo/shannon1948.pdf
prop-fr:wikiPageUsesTemplate
dcterms:subject
rdf:type
rdfs:comment
  • La théorie de l'information, sans précision, est le nom usuel désignant la théorie de l'information de Shannon, qui est une théorie probabiliste permettant de quantifier le contenu moyen en information d'un ensemble de messages, dont le codage informatique satisfait une distribution statistique précise.
  • Teoria informacji – dyscyplina zajmująca się problematyką informacji oraz metodami przetwarzania informacji, np. w celu transmisji lub kompresji. Naukowo teoria informacji jest blisko powiązana z matematyką dyskretną, a z jej osiągnięć czerpią takie dyscypliny jak informatyka i telekomunikacja.
  • 情報理論(じょうほうりろん、英: Information theory)は、情報・通信を数学的に論じる学問である。応用数学の中でもデータの定量化に関する分野であり、可能な限り多くのデータを媒体に格納したり通信路で送ったりすることを目的としている。情報エントロピーとして知られるデータの尺度は、データの格納や通信に必要とされる平均ビット数で表現される。例えば、日々の天気が3ビットのエントロピーで表されるなら、十分な日数の観測を経て、日々の天気を表現するには「平均で」約3ビット/日(各ビットの値は 0 か 1)と言うことができる。情報理論の基本的な応用としては、ZIP形式(可逆圧縮)、MP3(非可逆圧縮)、DSL(伝送路符号化)などがある。この分野は、数学、統計学、計算機科学、物理学、神経科学、電子工学などの交差する学際領域でもある。その影響は、ボイジャー計画の深宇宙探査の成功、CDの発明、携帯電話の実現、インターネットの開発、言語学や人間の知覚の研究、ブラックホールの理解など様々な事象に及んでいる。
  • Az információelmélet az információval, mint az új ismeretté értelmezett adattal foglalkozó matematikai illetve hírközlési tudományterület. Főként az információ keletkezésével, struktúrájával, kezelésével, tárolásával, elérésével és továbbításával foglalkozik. Az információelmélet ezenkívül tanulmányozza az információ különböző felhasználását, az információs rendszereket.
  • La teoría de la información, también conocida como teoría matemática de la comunicación (mathematical theory of communication) o teoría matemática de la información, es una propuesta teórica presentada por Claude E. Shannon y Warren Weaver a finales de la década de los años 1940.
  • A Teoria da informação ou Teoria matemática da comunicação é um ramo da teoria da probabilidade e da matemática estatística que lida com sistemas de comunicação, transmissão de dados, criptografia, codificação, teoria do ruído, correção de erros, compressão de dados, etc. Ela não deve ser confundida com tecnologia da informação e biblioteconomia.Claude Shannon (1916-2001) é conhecido como "o pai da teoria da informação".
  • Informatietheorie is de wiskundige theorie die zich bezighoudt met het zo efficiënt en betrouwbaar mogelijk overdragen en opslaan van informatie via onbetrouwbare kanalen (media). Een artikel van Claude Shannon gepubliceerd in 1948 wordt algemeen gezien als de grondslag van dit vakgebied. Belangrijke resultaten van deze theorieën zijn Shannons broncoderings theorema en Shannons ruisig-kanaal (noisy- channel) coderings theorema.
  • Теорията на информацията е клон от теорията на вероятностите и математическата статистика; неин обект е информацията.Теорията на информацията е свързана с информационната ентропия, информационните и комуникационните системи, предаването на данни и теорията на скоростта на изказването, криптографията, корекцията на грешки и други близко граничещи области.Основоположник на тази област е Клод Шанън (известен в България и като Клод Шенон) с публикуването на труда „Математическа теория на комуникациите“ (A Mathematical Theory of Communications) през 1948 г.През 1967 г.
  • La teoria dell'informazione è una disciplina della fisica applicata che ha come scopo la quantificazione della quantità di dati (ossia di informazione), con lo scopo di essere di in grado di salvarli o di trasmetterli su un canale in modo affidabile. La grandezza che misura la quantità di dati prende il nome di entropia ed è solitamente espressa come numero di bit necessari per immagazzinare o trasmettere l'informazione.
  • Teorie informace je věda, která se zabývá měřením, přenosem, kódováním, ukládáním a následným zpracováním informací z kvantitativního hlediska. Za jejího tvůrce je pokládán C. E. Shannon.Teorie informace spojuje aplikovanou matematiku (především teorii pravděpodobnosti, lineární algebru a matematickou statistiku) a elektrotechniku. K jejím nejdůležitějším odvětvím patří teorie přenosu informace. Mezi praktické výsledky teorie informace patří algoritmy bezeztrátové (např.
  • La Teoria de la informació és una branca de la teoria matemàtica de la probabilitat i l'estadística que estudia la informació i tot el relacionat amb aquesta, és a dir els canals, la compressió de dades, la criptografia i d'altres temes relacionats.Aquesta branca fou iniciada per Claude E.
  • Теория информации (математическая теория связи) — раздел прикладной математики, радиотехники (теория обработки сигналов), информатики, аксиоматически определяющий понятие информации, её свойства и устанавливающий предельные соотношения для систем передачи данных. Как и любая математическая теория, оперирует с математическими моделями, а не с реальными физическими объектами (источниками и каналами связи).
  • Bilgi kuramı; bilginin nicelikselleştirilmesi ile ilgili bir uygulamalı matematik ve elektrik mühendisliği dalıdır. Bilgi kuramı; Claude E. Shannon tarafından güvenli şekilde veri sıkıştırma, depolama ve iletme gibi sinyal işleme işlemlerinin kısıtlarını bulmak için geliştirilmiştir.Bilginin önemli bir ölçütü, genellikle depolama ve iletişim için gerekli olan parçaların ortalama sayısı olan entropidir. Entropi, bir rastgele değişkenin değerini tahmin ederken belirsizliği nicelikselleştirir.
  • Die Informationstheorie ist eine mathematische Theorie aus dem Bereich der Wahrscheinlichkeitstheorie und Statistik, die auf Claude Shannon zurückgeht.
  • Information theory is a branch of applied mathematics, electrical engineering, and computer science involving the quantification of information. Information theory was developed by Claude E. Shannon to find fundamental limits on signal processing operations such as compressing data and on reliably storing and communicating data.
  • 정보 이론(情報理論)은 최대한 많은 데이터를 매체에 저장하거나 채널을 통해 통신하기 위해 데이터를 정량화하는 응용 수학의 한 분야이다. 데이터의 단위인 정보 엔트로피는 보통 저장 또는 통신에 사용되는 평균적인 비트 수로 표현된다. 예를 들어 매일의 날씨 정보가 3비트의 엔트로피를 가진다면, 하루의 날씨를 평균 약 3비트로 기술할 수 있다.정보 엔트로피는 열역학에서의 엔트로피와 크게 다르지 않은 개념으로, 정보엔트로피(정보량)가 높을수록 불확실성은 커진다. 반대로 계에서의 정보량은 불확실성의 정도이므로 불확실성이 적은 계의 정보 엔트로피(정보량)는 줄어들 수 있다. 영어알파벳의 경우 모든 알파벳이 동일한 확률도 발생한다면 정보엔트로피(정보량)은 4.754887비트이지만 알파벳의 출현 빈도값을 계산하면 4.08비트까지 줄어든다. 이것 외에도 어떤 철자가 오면 그 뒤에 특정철자가 올 확률이 아주 높은 등 여러가지 이유가 있기 때문에 정보 엔트로피(정보량)는 더욱 줄어들 수 있게 된다.
rdfs:label
  • Théorie de l'information
  • Bilgi kuramı
  • Informatietheorie
  • Information theory
  • Informationstheorie
  • Információelmélet
  • Teori informasi
  • Teoria da informação
  • Teoria de la informació
  • Teoria dell'informazione
  • Teoria informacji
  • Teorie informace
  • Teoría de la información
  • Теория информации
  • Теория на информацията
  • 情報理論
  • 정보 이론
owl:sameAs
http://www.w3.org/ns/prov#wasDerivedFrom
foaf:depiction
foaf:isPrimaryTopicOf
is dbpedia-owl:domain of
is dbpedia-owl:wikiPageDisambiguates of
is dbpedia-owl:wikiPageRedirects of
is dbpedia-owl:wikiPageWikiLink of
is prop-fr:champs of
is skos:subject of
is foaf:primaryTopic of