シャノンの情報量
をテンプレートにして作成
[
トップ
] [
新規
|
一覧
|
単語検索
|
最終更新
|
ヘルプ
]
開始行:
*シャノン [#l6374dfc]
情報理論におけるエントロピーの直接の導入は1948年のクロー...
1920年代後半ごろ、ハリー・ナイキストとラルフ・ハートレー...
--その著書『通信の数学的理論』でエントロピーの概念を情報...
*情報量 [#sf831924]
事象Eが起こる確率をP(E)とするとき、 事象 E が起こったこと...
--情報量 I(E)= -log P(E) で表わす
--上式中の対数 (log) の底として何を選んでも、情報量の値が...
*ビット:情報量の単位 [#jaecc68e]
-底が2の場合、1 / 2^nの確率で起こる事象の情報量はnである...
-情報量は本来無次元の量である
--対数の底として何を用いたかによって値が異なるので,単位...
--ビットとは、コンピュータが扱う情報の最小単位。2つの選択...
*情報量(エントロピー):シャノン情報量 [#yb7b8cf5]
-Ω上の確率分布 Pが与えられたとき、各事象の選択情報量 − lo...
--一般にすべての事象(できごと)が等確率になるときにエン...
--情報理論の父と呼ばれるクロード・シャノンは、確率分布 H(...
-ある確率分布から発生する各文字に決まった符号を割り当てる...
*コイン投げのケース [#g225cb9f]
-コインを投げたときに表が出る確率を p、裏が出る確率を 1 -...
-エントロピーを最大にするpは、1/2である。最少になると、確...
*通信容量とは [#uf857477]
-情報理論は、1948年、クロード・シャノンが Bell System Tec...
*エントロピー符号 [#saeacd99]
エントロピー符号とは情報源アルファベットのシンボルに対し...
-符号アルファベットの要素数をn、任意のシンボルsの出現確率...
-デジタル符号化されたデータの圧縮の歴史は意外と古く、1830...
終了行:
*シャノン [#l6374dfc]
情報理論におけるエントロピーの直接の導入は1948年のクロー...
1920年代後半ごろ、ハリー・ナイキストとラルフ・ハートレー...
--その著書『通信の数学的理論』でエントロピーの概念を情報...
*情報量 [#sf831924]
事象Eが起こる確率をP(E)とするとき、 事象 E が起こったこと...
--情報量 I(E)= -log P(E) で表わす
--上式中の対数 (log) の底として何を選んでも、情報量の値が...
*ビット:情報量の単位 [#jaecc68e]
-底が2の場合、1 / 2^nの確率で起こる事象の情報量はnである...
-情報量は本来無次元の量である
--対数の底として何を用いたかによって値が異なるので,単位...
--ビットとは、コンピュータが扱う情報の最小単位。2つの選択...
*情報量(エントロピー):シャノン情報量 [#yb7b8cf5]
-Ω上の確率分布 Pが与えられたとき、各事象の選択情報量 − lo...
--一般にすべての事象(できごと)が等確率になるときにエン...
--情報理論の父と呼ばれるクロード・シャノンは、確率分布 H(...
-ある確率分布から発生する各文字に決まった符号を割り当てる...
*コイン投げのケース [#g225cb9f]
-コインを投げたときに表が出る確率を p、裏が出る確率を 1 -...
-エントロピーを最大にするpは、1/2である。最少になると、確...
*通信容量とは [#uf857477]
-情報理論は、1948年、クロード・シャノンが Bell System Tec...
*エントロピー符号 [#saeacd99]
エントロピー符号とは情報源アルファベットのシンボルに対し...
-符号アルファベットの要素数をn、任意のシンボルsの出現確率...
-デジタル符号化されたデータの圧縮の歴史は意外と古く、1830...
ページ名: