情報化社会と情報(2)
プレゼンテーションモードでも利用可能
情報の定義
- 文系的には情報の定義はいろいろ
- 科学的な情報の定義は、、、
情報の「量」
- 情報量はそれが起こったときの「驚きの量」
- 例えば
- コインを投げて表が出たとき ... 1
- コインを投げて2回続けて表が出たとき ... 2
- コインを投げて N 回続けて表が出たとき ... N
- 情報のエントロピー
- I(A) = log2 1/P(A) ... P(A)は A が起る確率
ちなみに
- エントロピーは物理学(熱力学/統計力学)で重要な概念
- dS = dQ/T, S = k log Ω
- 物理学の勉強ではひとつのヤマ
情報量の単位 bit
- 1 bit ... 0 又は 1 (2通り)
- 2 bit ... 0, 1, 2, 3 (4通り)
- 10 bit ... 0, 1, ... 1023 (1024通り)
- 20 bit ... 220 = 1048576 通り
コンピュータの原理
2進数のどこがいいのか
- 素子数(算盤の玉)を減らせる(桁数は増える)
- 算盤 999 ... 15 個
- 2進数 1023 ... 10個
- しつこくやってみると こんな感じ
さらに、
- 足し算が簡単
- 0+0=0, 0+1=1, 1+0=1, 1+1=10
- 「九九」が簡単
- 0x0=0, 0x1=0, 1x0=0, 1x1=1
息抜き