みをつくしのひとりよがり

2022/08/10にブログ名を変えました.仕事や生活に役立ちそうな(実際に役立つかは別として)数学・物理ネタをつらつらと書いていこうと思ってます.

選挙の算数~その2~

前回に引き続き,選挙にまつわる算数(数学)を書いてみようと思います.今回は,ちょっと濃い目の内容です.

 

比例代表といえば

その計算方式として出てくる「ドント式」というのがあります.比例代表の計算方式には,他にもいろいろあるそうです.そのドント式について,ちょっと書いてみます.

以下では,Wikipediaに挙げられている例:ドント方式の例を参照とします.

f:id:miwotukusi:20140518221533p:plain

使っている計算は「割り算」だけです.

  1. 得票数に対して,その党の議席に「得点」を割り当てていきます.得点は
     (党の得票数)÷(その党で何人目の当選者になるか)
    という計算で算出します.得点は他の党との兼ね合いになるので,議席順位だけでは決まらないものになります.
  2. 上の表は「横」に見るのがわかりやすいと思います.「横」で一番得点の高い党が議席を獲得します.そして,そのとき議席を獲得した党は次の議席から得点が変わります.

一度,自分で計算してみれば,難しくないですよね.なにせ,割り算だけですから(笑).

一般に死に票が少ないといわれる比例代表ですが,二大政党制となるとあまり意味がないということも,計算を通じてわかるかと思います.

 

選挙のエントロピー

ここからはちょっと強引な内容になります(苦笑).とりあえず,計算をしてみて,その結果を考察する形で,エントロピーとは何かということに触れてみたいと思います.

 

エントロピーの定義(ひとまず)

確率変数: Xに対して  X = iとなる確率を  P_iとするとき,(情報論的な)エントロピー H

  \displaystyle{ H = \sum_i P_i \log{\frac{1}{P_i}} = - \sum_i P_i \log{P_i} }

と定義されます.通常,対数の底は2とすることが多いです.底を2とすることも含めて,追々意味は説明していきます.

 

簡単な例

ということで,二大政党(X党,Y党)の下でエントロピーを考えてみます.それぞれの党の得票率を  x, \ yとすると, x+y=1であることに注意して,

  H = -x \log{x} - y \log{y} = -x \log{x} - (1-x) \log{(1-x)}

f:id:miwotukusi:20140524004523j:plain

となります.この式は底の値に関係なく

  •  \displaystyle{ x = \frac{1}{2}\ \left(y = \frac{1}{2} \right) }のとき最大値1を,
  •  x = 0\ (y = 1)または  x = 1\ (y = 0)のとき最小値0をとります.

グラフを描くと,上に凸である放物線のような形状になります. x yの対称式であることからも, \displaystyle{ x = \frac{1}{2} }がキーになることは推測できますね.

 

ところで、情報論的エントロピーは「情報量」とも呼ばれます.これは集団の中からある情報(票)を取り出したときの「乱雑さ」「多様性」を表す指標となっています.

単位は「bit」を使います.コンピュータで出てくるあの「bit」です.上の定義の説明で対数の底を2とすることが多いというのは,コンピュータ(符号化)で扱うことを前提とした定義から出ているものとなります.具体的な値を計算してみると,

  •  \displaystyle{ x = y = \frac{1}{2} }のとき,全投票から1票を取り出したときにX党かY党であるかは均等に現れます.これを0(X党)か1(Y党)かの2進法で表すことにすると,0と1が均等に現れることになります.このとき,「情報量は1bitである」といいます.
  •  x = 0のとき,一票を取り出してもY党しか現れません.これは2進法に置き換えると,1しか現れないということになります.このとき,「情報量は0bitである」といいます.
  •  \displaystyle{ x = \frac{1}{4}\ \left(y = \frac{3}{4} \right) }のときであれば,情報量は約0.81bitとなります.1bitほどまでではないが多様性はある.という状況を表しています.

「X党かY党か」という言い方からすると「2とおり」という場合の数的な表現が用いられますが,そのようなものとは異なり,「どのくらいかき混ぜられているか」「どのくらい偏っているか」を表すような指標がエントロピー(情報量)ということになります.

 

「場合の数」的に言えば,選択肢が2つあれば、いずれの場合でも「2とおり」ということになります.しかし,そのエントロピー(情報量)は,どちらかというと「期待値」に近い存在とも言えます.ただ試行によって得られる期待を表すのではなく,その選択肢の多様性を定量化したものととらえることができます.

 

もう一例

二大政党だけじゃ面白味がないので,政党を4つ(P党,Q党,R党,S党)にしてみます.エントロピーが最大となるのは,上と同様にそれぞれが均等になっているとき,すなわち1/4ずつを占めているときとなります.このときのエントロピーは,\displaystyle{ 4 \times \frac{1}{4} \log{4} = 2 \ \rm{bit} } となります.これは1票を取り出したときに,

  • それがP党=「2進数コード:00」であるか,
  • またはQ党=「2進数コード:01」であるか,
  • またはR党=「2進数コード:10」であるか,
  • またはS党=「2進数コード:11」であるか

のように分けられるということを意味しています.同じ均等でも種類が増えれば,多様性も増すということです.

 

実は,エントロピーの話を適用できるもう少し実践的な例が過去にあります.それは東大総合科目 2014第1問Bの話です.振り分ける荷物の割合が出てきますが,上の式に当てはめれば,それぞれのエントロピーが求められます.

(B-1)行き先がD1~D4の4箇所で,それぞれの割合が1/16,3/16,1/4,1/2であるときのエントロピーは,約1.70bitとなります.最大値が2bitであることからすると、結構ばらついていることが読み取れます。

この問題は,他のサイトさんの解説でも書かれているように「ハフマン符号」と呼ばれる符号化の応用問題となっています.文字を0と1で置き換えるときに効率良くおこなう(また逆に,符号から文字に戻す効率をよくする)ことを考えるものです.よく現れる文字は短く表すようにすることを目的としています.気になる方は,Wikipediaさんのページを参照してみてください.

 

個人的には熱力学・統計力学的なエントロピーに最近関心を持っていて,いろいろ読み漁っているのですが,なかなかいい「腹落ち」がしないままでいます.単純に比率で見るもの悪くはないですが,たまにはこういった見方をしてみるのもいいかな?と思って挙げてみました.