前回に引き続き,選挙にまつわる算数(数学)を書いてみようと思います.今回は,ちょっと濃い目の内容です.
比例代表といえば
その計算方式として出てくる「ドント式」というのがあります.比例代表の計算方式には,他にもいろいろあるそうです.そのドント式について,ちょっと書いてみます.
以下では,Wikipediaに挙げられている例:ドント方式の例を参照とします.
使っている計算は「割り算」だけです.
- 得票数に対して,その党の議席に「得点」を割り当てていきます.得点は
(党の得票数)÷(その党で何人目の当選者になるか)
という計算で算出します.得点は他の党との兼ね合いになるので,議席順位だけでは決まらないものになります. - 上の表は「横」に見るのがわかりやすいと思います.「横」で一番得点の高い党が議席を獲得します.そして,そのとき議席を獲得した党は次の議席から得点が変わります.
一度,自分で計算してみれば,難しくないですよね.なにせ,割り算だけですから(笑).
一般に死に票が少ないといわれる比例代表ですが,二大政党制となるとあまり意味がないということも,計算を通じてわかるかと思います.
選挙のエントロピー?
ここからはちょっと強引な内容になります(苦笑).とりあえず,計算をしてみて,その結果を考察する形で,エントロピーとは何かということに触れてみたいと思います.
エントロピーの定義(ひとまず)
確率変数:に対して となる確率を とするとき,(情報論的な)エントロピー:は
と定義されます.通常,対数の底は2とすることが多いです.底を2とすることも含めて,追々意味は説明していきます.
簡単な例
ということで,二大政党(X党,Y党)の下でエントロピーを考えてみます.それぞれの党の得票率を とすると,であることに注意して,
となります.この式は底の値に関係なく,
- のとき最大値1を,
- または のとき最小値0をとります.
グラフを描くと,上に凸である放物線のような形状になります.と の対称式であることからも,がキーになることは推測できますね.
ところで、情報論的エントロピーは「情報量」とも呼ばれます.これは集団の中からある情報(票)を取り出したときの「乱雑さ」「多様性」を表す指標となっています.
単位は「bit」を使います.コンピュータで出てくるあの「bit」です.上の定義の説明で対数の底を2とすることが多いというのは,コンピュータ(符号化)で扱うことを前提とした定義から出ているものとなります.具体的な値を計算してみると,
- のとき,全投票から1票を取り出したときにX党かY党であるかは均等に現れます.これを0(X党)か1(Y党)かの2進法で表すことにすると,0と1が均等に現れることになります.このとき,「情報量は1bitである」といいます.
- のとき,一票を取り出してもY党しか現れません.これは2進法に置き換えると,1しか現れないということになります.このとき,「情報量は0bitである」といいます.
- のときであれば,情報量は約0.81bitとなります.1bitほどまでではないが多様性はある.という状況を表しています.
「X党かY党か」という言い方からすると「2とおり」という場合の数的な表現が用いられますが,そのようなものとは異なり,「どのくらいかき混ぜられているか」「どのくらい偏っているか」を表すような指標がエントロピー(情報量)ということになります.
「場合の数」的に言えば,選択肢が2つあれば、いずれの場合でも「2とおり」ということになります.しかし,そのエントロピー(情報量)は,どちらかというと「期待値」に近い存在とも言えます.ただ試行によって得られる期待を表すのではなく,その選択肢の多様性を定量化したものととらえることができます.
もう一例
二大政党だけじゃ面白味がないので,政党を4つ(P党,Q党,R党,S党)にしてみます.エントロピーが最大となるのは,上と同様にそれぞれが均等になっているとき,すなわち1/4ずつを占めているときとなります.このときのエントロピーは,となります.これは1票を取り出したときに,
- それがP党=「2進数コード:00」であるか,
- またはQ党=「2進数コード:01」であるか,
- またはR党=「2進数コード:10」であるか,
- またはS党=「2進数コード:11」であるか
のように分けられるということを意味しています.同じ均等でも種類が増えれば,多様性も増すということです.
実は,エントロピーの話を適用できるもう少し実践的な例が過去にあります.それは東大総合科目 2014第1問Bの話です.振り分ける荷物の割合が出てきますが,上の式に当てはめれば,それぞれのエントロピーが求められます.
(B-1)行き先がD1~D4の4箇所で,それぞれの割合が1/16,3/16,1/4,1/2であるときのエントロピーは,約1.70bitとなります.最大値が2bitであることからすると、結構ばらついていることが読み取れます。
この問題は,他のサイトさんの解説でも書かれているように「ハフマン符号」と呼ばれる符号化の応用問題となっています.文字を0と1で置き換えるときに効率良くおこなう(また逆に,符号から文字に戻す効率をよくする)ことを考えるものです.よく現れる文字は短く表すようにすることを目的としています.気になる方は,Wikipediaさんのページを参照してみてください.
個人的には熱力学・統計力学的なエントロピーに最近関心を持っていて,いろいろ読み漁っているのですが,なかなかいい「腹落ち」がしないままでいます.単純に比率で見るもの悪くはないですが,たまにはこういった見方をしてみるのもいいかな?と思って挙げてみました.