具体例をもとに進化的安定性を説明する[ 2] 。動物が交尾相手や餌といった資源を同じ種の個体と争う場合、互いに殺し合うような闘争を避け、威嚇などの儀式的な闘争をする事で決着をつける事がある。
こうした儀式的闘争が発達した原因として、進化的安定性の概念が登場する以前は、「闘争の際に殺し合いを行なう種は絶滅してしまうので、儀式的闘争をする種だけが生き残った」といった群淘汰 的な理由づけ[ 3] がなされがちであった。
しかし自然選択の対象が個々の個体である事を考えると、群淘汰的な理由づけでは儀式的闘争が数多くの種で発達した事をうまく説明できない。また、実際の動物の闘争を観察すると、戦いがエスカレートして傷つけ合ったり殺し合ったりする事も珍しくない[ 2] 事も前述した理由づけとは合致しない。
そこで、儀式的闘争のような現象を群淘汰に頼らず、生物進化の基本的な原則である「自然選択 によって繁殖成功率が高い適応戦略が種に広がっていく」という事によって説明する為の枠組みが、本稿の主題である進化的安定性である。
話を簡単にするため、動物の戦略が「タカ戦略」と「ハト戦略」の2つのみからなる場合を考える。タカ戦略とは、闘争がエスカレートした場合に戦う戦略であり、ハト戦略は闘争がエスカレートした場合には逃げる戦略である。
もし同じ動物種に属する全ての個体が常にハト戦略を取るのであれば、儀式的なものであれ実際的なものであれ、闘争は生じないであろう。しかしこのような種に突然変異などによって生まれた、タカ戦略を取る個体が少しでも侵略してくれば、周囲にいるハト戦略の個体は全て逃げ出すわけだから、タカ戦略を持つ個体が圧倒的に有利となり、子孫を残す事で種にタカ戦略が広がる事となる。したがってハト戦略を取る個体だけからなる種は安定しない。
逆に全ての個体が常にタカ戦略を取るとすれば、闘争は常にエスカレートする。ここにハト戦略の個体が侵入してくると、他の個体が闘争により著しく疲弊している中、闘争から逃げているハト戦略の個体だけが有利となり、ハト戦略が種の中に広まっていく。したがってタカ戦略を取る個体だけからなる種もやはり安定しない。
こうして、ハト戦略の個体とタカ戦略の個体が混じり合った状態で種は安定する事になる。この状態では、闘争相手がハト戦略を取るかタカ戦略を取るかを見極める事が重要となる為、儀式的闘争が発達する事になる。
進化的安定性は、上で述べたような複数の戦略が入り混じった状態での安定性概念である。
前節で説明した例をはじめとして、生物による多くの駆け引きは、自身の利得を最大化しようとする個体の同士による一種のゲーム(進化ゲーム )とみなす事ができる為、生物の駆け引きをゲーム理論 により記述する事ができる。
進化的安定性の概念もゲーム理論の枠組みで記述でき、その定式化にはゲーム理論における混合戦略の概念が有用となる。
前節で説明した例を使って説明すると、闘争が必要になった時、各個体が取りうる選択肢として、「タカ戦略」と「ハト戦略」という二種類の戦略(純粋戦略 )があった。しかし各個体はこれらの純粋戦略のうちひとつを常に取り続けるわけではなく、「30%の確率でタカ戦略を取り、70%の確率でハト戦略を取る」といった戦略をも取りうる。
混合戦略 とは、このように個々の純粋戦略の上に確率を付与した戦略を指す。進化的安定性の概念は、この混合戦略の概念に対して定式化される。
進化的安定性とは、何らかの混合戦略が集団の中で支配的になるための条件である。すなわち、混合戦略 σ が進化的に安定であるとは、直観的には、集団の中に戦略σ がすでに広まっている状況下において、 別の混合戦略τ を取る個体が少数侵入してきたとしても、それが排除される事をいう。
より詳しく言うと、たとえσ に近い別の混合戦略 τ を取る個体群が集団に少数侵入してきたとしても、戦略σ を取る個体と戦略τ を取る個体が2者間で戦った際、前者の個体の方がより高い利得が期待 できるため、戦略τ を取る個体は自然選択 により、いつしか集団から消えてしまう、という事である。
進化的安定性はゲーム理論の概念に基づいて定式化することができる。そこで本節では、必要なゲーム理論の概念を導入し、次節で進化的安定性を定式化する。
進化的安定性を定義するには、まず個々の個体の利得をゲーム理論的に定義する必要がある。ゲーム理論において利得はほかの個体とゲームを行ったときに得られる実数値として定義され、得られる利得は自分が取った戦略と対戦相手がとった戦略の結果として決まる。
すなわち、純粋戦略i を取る個体P が、純粋戦略 j を取る別の個体Q とゲームを行ったとき、個体P は利得 と呼ばれる実数値
E
(
i
,
j
)
{\displaystyle E(i,j)}
を獲得する。そしてi 、j に
E
(
i
,
j
)
{\displaystyle E(i,j)}
を対応させる関数E を個体P に関する利得関数 と呼ぶ。
利得関数はゲームが始まる前の段階で、外界の状況等により事前に定まっており、個々の個体が変えることはできない。個々の個体にできるのは、与えられた利得関数から得られる利得を最大化するよう自身の戦略を選ぶことだけである。
進化的安定性を定義する際には、全ての個体に対して同一の利得関数が適用される事が前提となる。したがって純粋戦略i を取る個体P が、純粋戦略 j を取る別の個体Q と戦った時、個体Q が得る利得を
E
′
(
i
,
j
)
{\displaystyle E'(i,j)}
とすると、
E
′
(
i
,
j
)
=
E
(
j
,
i
)
{\displaystyle E'(i,j)=E(j,i)}
が任意のi 、j に対して成立する事が要請される。利得関数がこのような性質を満たすゲームを対称なゲーム という。
混合戦略を取る個体の利得は、純粋戦略に対する利得の期待値として定義される。すなわち、各個体が取りうる純粋戦略に1 ,..., n と番号をつけ、純粋戦略i を取る確率がpi である混合戦略を
(
p
i
)
i
=
1
,
…
,
n
{\displaystyle (p_{i})_{i=1,\ldots ,n}}
と書く事にすると、個体P 、Q がそれぞれ混合戦略
σ
=
(
p
i
)
i
=
1
,
…
,
n
{\displaystyle \sigma =(p_{i})_{i=1,\ldots ,n}}
、
ξ
=
(
q
i
)
i
=
1
,
…
,
n
{\displaystyle \xi =(q_{i})_{i=1,\ldots ,n}}
を取る際のP の利得は、
E
(
σ
,
τ
)
=
∑
i
,
j
p
i
q
j
E
(
i
,
j
)
{\displaystyle E(\sigma ,\tau )=\sum _{i,j}p_{i}q_{j}E(i,j)}
により定義される。
進化的安定性を定義するためのゲーム(進化ゲーム )は以下のようなものである。なお、このゲームはゲーム理論の言葉で言えば「対象な2人戦略型ゲーム 」に相当する。
進化的安定性を定義するための進化ゲームでは、対戦する2個体A 、B が選択肢として取りうる純粋戦略1 、2 、…、および利得関数E が「ゲームのルール」として事前に定まっている。そしてA 、B は以下の手順でゲームを行なう:
A 、B はそれぞれ、与えられた選択肢の中から1つの純粋戦略i 、j を秘密裏に選ぶ
A 、B はi 、j を同時に公表する
A 、B はそれぞれ利得
E
(
i
,
j
)
{\displaystyle E(i,j)}
、
E
(
j
,
i
)
{\displaystyle E(j,i)}
を得る。
A 、B の目的は、自身の利得を最大化する事である。
前節でも述べたように、進化的安定性の文脈では全ての個体に対して同一の利得関数が適用される事が前提とされるため、上述したゲームにおいてA 、B が得られる利得はそれぞれ
E
(
i
,
j
)
{\displaystyle E(i,j)}
、
E
(
j
,
i
)
{\displaystyle E(j,i)}
と対称な形になっている。
上述した進化ゲームは、ゲームに参加する2個体A 、B 取りうる純粋戦略をそれぞれ行、列としてA 、B の利得を行列 の形にまとめた利得表 により特徴づけられる。
下に上げたのは、前述したタカ戦略、ハト戦略からなる進化ゲーム(タカハトゲーム )の利得表である[ 4] :
タカ
ハト
タカ
(
V
−
C
2
,
V
−
C
2
)
{\displaystyle \left({V-C \over 2},{V-C \over 2}\right)}
(
V
,
0
)
{\displaystyle (V,0)}
ハト
(
0
,
V
)
{\displaystyle (0,V)}
(
V
2
,
V
2
)
{\displaystyle \left({V \over 2},{V \over 2}\right)}
ここでV は2個体が争っている資源(例えば餌)を得た時に得られる利得を表し、C は闘争によって怪我を追う事による損失を表す。
また利得表で縦軸は個体A の取る戦略、横軸は個体B の戦略であり、表内の (○, △)は、A、Bの利得がそれぞれ○、△である事を意味する。例えば表の左下のマスにかかれている(0,V ) は個体A がハト戦略、個体B がタカ戦略を取った時、A 、B の利得がそれぞれ0 、V である事を意味する。表の左上と右下で値が2で割られているのは、2個体で資源を分け合った為である。
最後に、進化的安定性を定義する際に記法を簡単にするため、混合戦略の「線形結合」を定義する。
以下、話を簡単にするため、各個体が取れる純粋戦略の種類が有限個である事を仮定するが、無限個の場合にも自然に定義を拡張できる。
まず、記号を定義する。各個体が取りうる純粋戦略に1 ,..., n と番号をつける。そして純粋戦略i を取る確率がpi である混合戦略を
(
p
i
)
i
=
1
,
…
,
n
{\displaystyle (p_{i})_{i=1,\ldots ,n}}
と書く事にする。
2つの混合戦略の
σ
=
(
p
i
)
i
=
1
,
…
,
n
{\displaystyle \sigma =(p_{i})_{i=1,\ldots ,n}}
、
ξ
=
(
q
i
)
i
=
1
,
…
,
n
{\displaystyle \xi =(q_{i})_{i=1,\ldots ,n}}
、および実数a とb が与えられた時、σ 、ξ のa 、b による線形結合 を
a
σ
+
b
ξ
=
(
a
p
i
+
b
q
i
)
i
=
1
,
…
,
n
{\displaystyle a\sigma +b\xi =(ap_{i}+bq_{i})_{i=1,\ldots ,n}}
により定義する。
a
+
b
=
1
{\displaystyle a+b=1}
であれば、混合戦略の線形結合
a
σ
+
b
ξ
{\displaystyle a\sigma +b\xi }
もまた、混合戦略である。
E を利得関数とするとき、任意の混合戦略τ 、σ 、ξ に対し、次が成立する事が簡単な計算により分かる:
E
(
τ
,
a
σ
+
b
ξ
)
=
a
E
(
τ
,
σ
)
+
b
E
(
τ
,
ξ
)
{\displaystyle E(\tau ,a\sigma +b\xi )=aE(\tau ,\sigma )+bE(\tau ,\xi )}
…(1)
有限個の純粋戦略を持つ戦略型ゲームの事を(利得表が有限サイズの行列の形に書けるので)行列ゲーム [ 注 1] といい、これはもっとも典型的な進化ゲームの一つである。本節では対称な行列ゲームに対する進化的安定性を3つの異なる視点から定義づける。これら3つの定義は対称な行列ゲームにおいては同値であるが、より一般的な進化ゲームにおいては必ずしも同値ではない。
対称な行列ゲームにおける進化的安定性は以下のように定義される[ 8] [ 9] 。
定義1 のε0 を侵入障壁 という。定義1 では侵入障壁ε0 が混合戦略σ に依存する事を許容するバージョンの定義を採用したが、ε0 がσ に依存しないバージョンの定義も存在し、これを一様な侵入障壁をもつ進化的安定性 (ESS with uniform invasion barrier )と呼ぶ[ 9] 。一般には一様なもののほうがそうでないものより強い定義であり、純粋戦略が無限個あるゲームの場合には進化的安定であるにもかかわらず一様な侵入障壁をもつ進化的安定ではない混合戦略が存在する事が知られている[ 10] 。しかし定義1 で考えているゲーム(=有限個の純粋戦略を持つ対象な戦略型ゲーム)の範囲では、両者の定義は同値である[ 10] [ 11] 。
混合戦略
σ
∗
{\displaystyle \sigma _{*}}
を取る個体の集団に、混合戦略
σ
{\displaystyle \sigma }
を取る個体群が侵入し、集団全体の中で後者の割合がε になったとする。このとき、対戦相手がランダムに選ばれるとすれば、混合戦略
σ
∗
{\displaystyle \sigma _{*}}
を取る個体の利得の期待値は
(
1
−
ε
)
E
(
σ
∗
,
σ
∗
)
+
ε
E
(
σ
∗
,
σ
)
=
E
(
σ
∗
,
(
1
−
ε
)
σ
∗
+
ε
σ
)
{\displaystyle (1-\varepsilon )E(\sigma _{*},\sigma _{*})+\varepsilon E(\sigma _{*},\sigma )=E(\sigma _{*},(1-\varepsilon )\sigma _{*}+\varepsilon \sigma )}
となり、定義1 で登場する不等式の左辺と一致する。同様の理由により混合戦略
σ
{\displaystyle \sigma }
を取る個体の利得の期待値は
E
(
σ
,
(
1
−
ε
)
σ
∗
+
ε
σ
)
{\displaystyle E(\sigma ,(1-\varepsilon )\sigma _{*}+\varepsilon \sigma )}
となり、定義1 で登場する不等式の右辺と一致する。
したがって定義1 は混合戦略
σ
{\displaystyle \sigma }
を取る個体群が
ε
0
{\displaystyle \varepsilon _{0}}
以下の割合ε だけ侵入したとしても、混合戦略
σ
∗
{\displaystyle \sigma _{*}}
を取る個体の利得の期待値の方が混合戦略
σ
{\displaystyle \sigma }
を取る個体の利得の期待値よりも真に大きくなる事を示している[ 12] 。
局所優位性(local superiority)
編集
2つの混合戦略
σ
∗
=
(
p
i
)
i
=
1
,
…
,
n
{\displaystyle \sigma _{*}=(p_{i})_{i=1,\ldots ,n}}
、
σ
=
(
q
i
)
i
=
1
,
…
,
n
{\displaystyle \sigma =(q_{i})_{i=1,\ldots ,n}}
の距離 を
d
(
σ
∗
,
σ
)
:=
∑
i
=
1
n
|
p
i
−
q
i
|
2
{\displaystyle \mathrm {d} (\sigma _{*},\sigma ):={\sqrt {\sum _{i=1}^{n}|p_{i}-q_{i}|^{2}}}}
…(2)
により定義するとき[ 13] 、進化的安定性を以下のように異なる角度から特徴づける事ができる[ 11] [ 13] [ 14] :
なお、上では距離を(2) 式に従って定義したが、定理2 に書いたESSの別定義で本質的なのは距離そのものではなく、距離から定まる位相構造 なので[ 15] 、(2) 式の代わりに以下のℓ1 距離
d
(
σ
∗
,
σ
)
:=
∑
i
=
1
n
|
p
i
−
q
i
|
{\displaystyle \mathrm {d} (\sigma _{*},\sigma ):=\sum _{i=1}^{n}|p_{i}-q_{i}|}
を用いて定義しても定理2 のものと同値になる。
定理2 に書いたESSの別定義はより広範な進化ゲームに対して進化的安定性の概念を一般化する場合に有益であり[ 16] 、一般化のさせかたにより、neighborhood invader strategy、neighborhood superiorなどとも呼ばれる[ 16] 。
定義1 は進化的安定性の直観的な意味を自然に定式化したものになっているものの、この定義に基づいて混合戦略の進化的安定性を直接チェックするのは容易ではない。そこで進化的安定性をより簡単にチェックする事を可能にする、別の特徴付けを紹介する[ 1] :
定理3 (進化的安定性の特徴づけ) ― G を対称な行列ゲームとし、E をG の利得関数とする。
このとき、G における混合戦略
σ
∗
{\displaystyle \sigma _{*}}
が進化的に安定である必要十分条件は、任意の混合戦略σ に対して以下の2条件を両方とも満たす事である。
(均衡条件 )
E
(
σ
∗
,
σ
∗
)
≥
E
(
σ
,
σ
∗
)
{\displaystyle E(\sigma _{*},\sigma _{*})\geq E(\sigma ,\sigma _{*})}
(安定条件 )
E
(
σ
∗
,
σ
∗
)
=
E
(
σ
,
σ
∗
)
⇒
E
(
σ
∗
,
σ
)
>
E
(
σ
,
σ
)
{\displaystyle E(\sigma _{*},\sigma _{*})=E(\sigma ,\sigma _{*})~\Rightarrow ~E(\sigma _{*},\sigma )>E(\sigma ,\sigma )}
証明
(1) 式で示したように利得関数は線形性を満たすので、これを利用して定義1 に登場する式の両辺を変形すると、
E
(
σ
∗
,
σ
∗
)
+
ε
E
(
σ
∗
,
σ
−
σ
∗
)
>
E
(
σ
,
σ
∗
)
+
ε
E
(
σ
,
σ
−
σ
∗
)
{\displaystyle E(\sigma _{*},\sigma _{*})+\varepsilon E(\sigma _{*},\sigma -\sigma _{*})>E(\sigma ,\sigma _{*})+\varepsilon E(\sigma ,\sigma -\sigma _{*})}
…(A)
となる。したがって(A) 式が成り立つ必要十分条件が定理3 の2条件である事を示せばよい。
(必要性)(A) 式で極限ε →0 を取ると、均衡条件の式
E
(
σ
∗
,
σ
∗
)
≥
E
(
σ
,
σ
∗
)
{\displaystyle E(\sigma _{*},\sigma _{*})\geq E(\sigma ,\sigma _{*})}
が得られる。また
E
(
σ
∗
,
σ
∗
)
=
E
(
σ
,
σ
∗
)
{\displaystyle E(\sigma _{*},\sigma _{*})=E(\sigma ,\sigma _{*})}
であれば、(A) 式より
ε
E
(
σ
∗
,
σ
−
σ
∗
)
>
ε
E
(
σ
,
σ
−
σ
∗
)
{\displaystyle \varepsilon E(\sigma _{*},\sigma -\sigma _{*})>\varepsilon E(\sigma ,\sigma -\sigma _{*})}
なので、ε ≠0 に対してこれを変形すると
E
(
σ
∗
,
σ
)
>
E
(
σ
,
σ
)
{\displaystyle E(\sigma _{*},\sigma )>E(\sigma ,\sigma )}
となり、安定条件が言える。
(十分性)定義1 の式を変形すると、
E
(
σ
∗
,
σ
∗
)
−
E
(
σ
,
σ
∗
)
>
ε
E
(
σ
−
σ
∗
,
σ
−
σ
∗
)
{\displaystyle E(\sigma _{*},\sigma _{*})-E(\sigma ,\sigma _{*})>\varepsilon E(\sigma -\sigma _{*},\sigma -\sigma _{*})}
…(B)
であるので(B) 式が成り立つことを示せば良い。
均衡条件より(B) 式の左辺
E
(
σ
∗
,
σ
∗
)
−
E
(
σ
,
σ
∗
)
{\displaystyle E(\sigma _{*},\sigma _{*})-E(\sigma ,\sigma _{*})}
は0もしくは正である。
(B) 式の左辺
E
(
σ
∗
,
σ
∗
)
−
E
(
σ
,
σ
∗
)
{\displaystyle E(\sigma _{*},\sigma _{*})-E(\sigma ,\sigma _{*})}
が0である場合、安定条件より
E
(
σ
∗
,
σ
)
−
E
(
σ
,
σ
)
>
0
{\displaystyle E(\sigma _{*},\sigma )-E(\sigma ,\sigma )>0}
なので、
E
(
σ
−
σ
∗
,
σ
−
σ
∗
)
=
(
E
(
σ
∗
,
σ
∗
)
−
E
(
σ
,
σ
∗
)
)
⏟
=
0
−
(
E
(
σ
∗
,
σ
)
−
E
(
σ
,
σ
)
)
<
0
{\displaystyle E(\sigma -\sigma _{*},\sigma -\sigma _{*})=\underbrace {(E(\sigma _{*},\sigma _{*})-E(\sigma ,\sigma _{*}))} _{=0}-(E(\sigma _{*},\sigma )-E(\sigma ,\sigma ))<0}
が成立する。
ε
>
0
{\displaystyle \varepsilon >0}
より、これは(B) 式の右辺が負である事を意味するので、(B) 式が成立する。
それに対し、(B) 式の左辺
E
(
σ
∗
,
σ
∗
)
−
E
(
σ
,
σ
∗
)
{\displaystyle E(\sigma _{*},\sigma _{*})-E(\sigma ,\sigma _{*})}
が正の場合、
E
(
σ
−
σ
∗
,
σ
−
σ
∗
)
{\displaystyle E(\sigma -\sigma _{*},\sigma -\sigma _{*})}
が0以下であれば、明らかに(B) 式は成立する。一方
E
(
σ
−
σ
∗
,
σ
−
σ
∗
)
{\displaystyle E(\sigma -\sigma _{*},\sigma -\sigma _{*})}
が正であれば、
ε
0
:=
E
(
σ
∗
,
σ
∗
)
−
E
(
σ
,
σ
∗
)
E
(
σ
−
σ
∗
,
σ
−
σ
∗
)
{\displaystyle \varepsilon _{0}:={E(\sigma _{*},\sigma _{*})-E(\sigma ,\sigma _{*}) \over E(\sigma -\sigma _{*},\sigma -\sigma _{*})}}
よりも小さい任意の
ε
>
0
{\displaystyle \varepsilon >0}
に対し、(B) 式は成立する。
与えられた混合戦略τ に対し、
E
(
ξ
,
τ
)
{\displaystyle E(\xi ,\tau )}
を最大にする混合戦略ξ をτ の最適反応 (best reply )という[ 17] 。
均衡条件は、
σ
∗
{\displaystyle \sigma _{*}}
が
σ
∗
{\displaystyle \sigma _{*}}
自身の最適反応である事を意味しており、
E
(
ξ
,
σ
∗
)
{\displaystyle E(\xi ,\sigma _{*})}
の最大値は
M
=
E
(
σ
∗
,
σ
∗
)
{\displaystyle M=E(\sigma _{*},\sigma _{*})}
である[ 17] 。一方、安定条件は、
M
=
E
(
σ
,
σ
∗
)
{\displaystyle M=E(\sigma ,\sigma _{*})}
を満たす
σ
≠
σ
∗
{\displaystyle \sigma \neq \sigma _{*}}
、すなわち
σ
∗
{\displaystyle \sigma _{*}}
に対する最適反応のうち
σ
∗
{\displaystyle \sigma _{*}}
以外の混合戦略
σ
{\displaystyle \sigma }
は
E
(
σ
∗
,
σ
)
>
E
(
σ
,
σ
)
{\displaystyle E(\sigma _{*},\sigma )>E(\sigma ,\sigma )}
を満たしている事を意味している[ 17] 。
ゲーム理論における重要な均衡概念としてナッシュ均衡 があり、進化的安定性は
(
σ
∗
,
σ
∗
)
{\displaystyle (\sigma _{*},\sigma _{*})}
のナッシュ均衡性と関係がある。本項で考えているゲーム(2人対称戦略型ゲーム)の場合、混合戦略の組
(
σ
∗
,
σ
∗
)
{\displaystyle (\sigma _{*},\sigma _{*})}
がナッシュ均衡 であるとは任意の混合戦略σ に対し、
E
(
σ
∗
,
σ
∗
)
≥
E
(
σ
,
σ
∗
)
{\displaystyle E(\sigma _{*},\sigma _{*})\geq E(\sigma ,\sigma _{*})}
…(3)
が成立する事を言う。特に任意の混合戦略σ に対して(3) 式の不等号がイコールなしで成り立つ場合、
(
σ
∗
,
σ
∗
)
{\displaystyle (\sigma _{*},\sigma _{*})}
は狭義ナッシュ均衡 であるという。
定理3 から明らかに以下の事実が成りたつ[ 18] :
しかし定理4 の逆向きの包含関係は一般には成立しない[ 18] 。
前述したタカハトゲーム対して定理3 を適用する事で次が成立する事が分かる[ 19] :
V <C なら、「確率V /C でタカ戦略、確率1-(V /C ) でハト戦略」という混合戦略は進化的安定である
V ≧C なら、「確率1でタカ戦略」という純粋戦略が進化的安定である。これは利得V が非常に高い資源を争う場合は、儀式的闘争ではなく直接的闘争が行われる事を意味する。
これまで本稿では、行列ゲームに対する進化的安定性を議論してきたが、行列ゲームは下記のような条件を満たす場合にしか現実世界の生物の闘争をモデル化できない:
ゲームは一度しか行われない
各個体がとれる純粋戦略の個数は有限である
各個体がどの純粋戦略を取るのかはゲーム開始時点にランダムに選ぶ事ができる
ゲームは常に2個体で行われる
全ての個体に対して同一の利得関数が適用される事が前提としている
しかし実際の生物学における応用では、以上の条件を満たさない事も多い:
多くの状況では各個体はその生涯において何度も他の個体と闘争を繰り返すので、ゲームを繰り返し行う形でモデル化した方が自然な場合が多い
「植物が種を飛ばす飛距離」や「動物が行動を起こすまでの時間」のように純粋戦略として連続量を取る事ができるケースでは純粋戦略の個数は無限にある
哺乳類の配偶戦略のように「オスかメスか?」という生まれた段階で決定する戦略は、ゲーム開始時点にランダムに選ぶ事はできない
草むらで種をばらまいて近くにいる他の全ての個体と種のばらまく位置を争うケースのように、複数個体と争うゲームも多い
「オスとメス」、「テリトリーを守る個体とそこに侵入する個体」のように非対称な闘争では、闘争する個体がどちらの立場にいるのかで利得関数が異なるはずである
本章の目標は上で述べたような、行列ゲームの範疇に収まらないより一般的なゲームに対して進化的安定性を定義する事である。
本節では上述した1,...,5の制約を外すための手法を順に述べていく。
まず1に関しては、ゲーム理論の言葉で言えば繰り返しゲーム を考える必要がある、という事である。一回のゲームの利得と繰り返し行ったゲームの利得の平均値とを区別する為、一回のゲームの利得はこれまで通り
E
(
⋅
,
⋅
)
{\displaystyle E(\cdot ,\cdot )}
で表し、繰り返し行ったゲームの利得の平均値を
E
(
⋅
,
⋅
)
{\displaystyle {\mathcal {E}}(\cdot ,\cdot )}
と表す事に事にする。
ゲームを行うたびに闘争相手が毎回異なると仮定できる場合には、繰り返しゲームの平均利得
E
(
⋅
,
⋅
)
{\displaystyle {\mathcal {E}}(\cdot ,\cdot )}
は
E
(
⋅
,
⋅
)
{\displaystyle E(\cdot ,\cdot )}
と一致する(詳細後述)。一方、同一の闘争相手と何度もゲームを繰り返す場合はより複雑で、後退帰納法 (有限繰り返しゲームの場合)やフォーク定理 (無限繰り返しゲームの場合)など、ゲーム理論の手法を用いて
E
(
⋅
,
⋅
)
{\displaystyle {\mathcal {E}}(\cdot ,\cdot )}
を求める必要がある。
2および3に関しては、戦略空間 (strategy space)という概念を導入する事で一般化を図る[ 20] [ 21] 。戦略空間とは、そのゲームにおいて各個体が取りうる戦略全体の集合の事である。例えば行列ゲームの場合は混合戦略全体の集合が戦略空間である。すなわち、
Δ
n
=
{
(
p
i
)
i
=
1
,
…
,
n
|
0
≤
p
1
,
…
,
p
n
≤
1
,
∑
i
=
1
n
p
i
=
1
}
{\displaystyle \Delta _{n}=\left\{(p_{i})_{i=1,\ldots ,n}{\Bigg |}0\leq p_{1},\ldots ,p_{n}\leq 1,~\sum _{i=1}^{n}p_{i}=1\right\}}
...(Eq-G1 )
が戦略空間である。ここでn は取りうる純粋戦略の個数である。
また「個体の体長」のように連続量の純粋戦略が取れる(が闘争の際ランダムに体長を変える事はできないので混合戦略は取れない)ゲームの場合、戦略空間は正の実数全体の集合
R
+
=
{
x
>
0
∣
x
∈
R
}
{\displaystyle \mathbf {R} _{+}=\{x>0\mid x\in \mathbf {R} \}}
である。一方「動物が行動を起こすまでの時間」のように純粋戦略は連続量であり、混合戦略も取りうるゲームの場合には、戦略空間は
{
{\displaystyle \{}
R + 上の確率分布
}
{\displaystyle \}}
である[ 22] 。なお進化的安定性の議論では、戦略間の「近さ」の概念が定義できる事が望ましいので、戦略空間が位相空間 である事を求める事も多い[ 21] 。
4に関しては、個体vs.個体だけでなく個体vs.個体群 (population)の闘争を考える事で一般化を図る[ 23] 。個体群に属する個体数が有限である場合には数学的解析が難しくなるので、以下本説では個体数が無限であるものと仮定する[ 24] 。より厳密に言うと、戦略空間X に属する戦略σ を取る個体の割合を[0,1] 区間に属する実数として定義できるものと仮定する。現実には無限の個体を含む個体群は存在しないが、個体群に属する個体が十分大きい場合には、近似的にこのような仮定を置いて議論を進める事ができる。
個体群の各々の個体は戦略空間X に属するいずれかの戦略を取る。個体群Π において、「戦略σ 1 ,...σ m ∈X を(確率1で)取る個体の割合がそれぞれε 1 ,...ε m である」という状態を
ε
1
δ
σ
1
+
⋯
+
ε
1
δ
σ
m
{\displaystyle \varepsilon _{1}\delta _{\sigma _{1}}+\cdots +\varepsilon _{1}\delta _{\sigma _{m}}}
もしくは
∑
i
=
1
m
ε
i
δ
σ
i
{\displaystyle \sum _{i=1}^{m}\varepsilon _{i}\delta _{\sigma _{i}}}
と表記し[ 25] 、これをΠ の個体群戦略 (population strategy[ 26] )と呼ぶ。個体群戦略と区別するため、個々の個体の戦略の事を強調して個体戦略 (player strategy[ 26] )と呼ぶ。
なお上の式における記号「δ 」は、混合戦略の和「
ε
1
σ
1
+
⋯
+
ε
1
σ
m
{\displaystyle \varepsilon _{1}\sigma _{1}+\cdots +\varepsilon _{1}\sigma _{m}}
」と区別する為につけられた単なる記号であると解釈して差し支えない。この場合、上記の式は数学的には形式和 である。しかしこのδ をX 上で定義されたディラックのデルタ関数 であると解釈する事で、上式をX 上の分布を表す式とみなす事もできる。
また上では個体群が有限個の戦略σ 1 ,...σ m ∈X のいずれかしか取らない場合を考えたが、X が性質のよい空間 であれば無限個の戦略を取る場合も考える事ができる。しかし進化的安定性を定義する上では有限個の戦略を取る場合のみを考察すれば十分であるので、本稿では以下、無限個の戦略を取る場合は考えない。
本稿では個体群の性質として主として考えるのは個体群戦略のみなので、紛れがなければ個体群Π とその個体群戦略とで記号を混用し、
Π
=
ε
1
δ
σ
1
+
⋯
+
ε
1
δ
σ
m
{\displaystyle \Pi =\varepsilon _{1}\delta _{\sigma _{1}}+\cdots +\varepsilon _{1}\delta _{\sigma _{m}}}
という表記も用いるものとする。
5で述べたように実際の生物では2つの個体の立場が非対称なゲームも起こりうるが、進化ゲーム理論では2つの個体が対称な場合のみに対して進化的安定性を定義し[ 27] 、非対称なゲームには対称化 を施す事により対称なゲームに対する進化的安定性の概念を利用する。例えば「オス」と「メス」という2つの立場がある状況では、個体が受精した際「オス」か「メス」かをランダムに選べる事を考慮する事により、全ての個体が「オス」になる可能性も「メス」になる可能性もある対称なゲームとして定式化する。
そこで本章では以下、対称なゲームに対する進化的安定性のみを議論するものとし、非対称なゲームに対する進化的安定性は後の章で議論するものとする。
以上までで述べた一般的なフレームワークにおける進化的安定性の定義を述べる前に、行列ゲームを上述のフレームワークにおいて再定式化する。このためにn 通りの純粋戦略1 ,...,n が取れる行列ゲームを考え、その利得関数をE とする。さらにΠ を個体群とし、P を個体群Π の中にいる一匹の個体とし、P が取る混合戦略を
σ
=
(
p
i
)
i
=
1
,
…
,
n
{\displaystyle \sigma =(p_{i})_{i=1,\ldots ,n}}
とする。
前章で述べた行列ゲームでは、P は個体群Π の中のいずれか一匹の個体と一度だけゲームを行う事を前提としていた。しかし本章で述べる一般的フレームワークにおいては、Π の中の複数の個体と闘争する事を前提としている。より正確に言うと、定数k を固定し、以下のようなゲームをk 回繰り返す:
Π の中から一様ランダム に一匹の個体Q を選ぶ(Q はk 回行う各ゲームで毎回独立に選ばれる)。
P とQ が利得関数E を持つ行列ゲームを行う。
そしてこのようなゲームにおけるP の平均利得を
E
(
σ
,
Π
)
{\displaystyle {\mathcal {E}}(\sigma ,\Pi )}
と表記する(ここで我々は前節で述べたように記号を混用して個体群Π の個体群戦略にもΠ という記号を用いている)。
Π の個体群戦略が混合戦略τ により
Π
=
ε
δ
σ
+
(
1
−
ε
)
δ
τ
{\displaystyle \Pi =\varepsilon \delta _{\sigma }+(1-\varepsilon )\delta _{\tau }}
と書けるとき、P の対戦相手Q の戦略は確率ε でσ であり、確率1-ε でτ である。行列ゲームはk 回行われるが、我々は個体群Π には無限に多い個体が含まれていると仮定していたので(前述)、P が同一の個体と複数回ゲームを行う事はありえない。よってk 回の行列ゲームの平均利得
E
(
σ
,
Π
)
{\displaystyle {\mathcal {E}}(\sigma ,\Pi )}
は明らかに
E
(
σ
,
ε
δ
σ
+
(
1
−
ε
)
δ
τ
)
=
1
k
∑
i
=
1
k
(
ε
E
(
σ
,
σ
)
+
(
1
−
ε
)
E
(
σ
,
τ
)
)
=
E
(
σ
,
ε
σ
+
(
1
−
ε
)
τ
)
{\displaystyle {\mathcal {E}}(\sigma ,\varepsilon \delta _{\sigma }+(1-\varepsilon )\delta _{\tau })={1 \over k}\sum _{i=1}^{k}\left(\varepsilon E(\sigma ,\sigma )+(1-\varepsilon )E(\sigma ,\tau )\right)=E(\sigma ,\varepsilon \sigma +(1-\varepsilon )\tau )}
を満たす[ 28] 。すなわち行列ゲームの場合は複数回のゲームの平均利得
E
(
⋅
,
⋅
)
{\displaystyle {\mathcal {E}}(\cdot ,\cdot )}
と個体群戦略
Π
=
ε
δ
σ
+
(
1
−
ε
)
δ
τ
{\displaystyle \Pi =\varepsilon \delta _{\sigma }+(1-\varepsilon )\delta _{\tau }}
で考えようが、一回の行列ゲームの利得
E
(
⋅
,
⋅
)
{\displaystyle E(\cdot ,\cdot )}
と1個体の混合戦略
ε
σ
+
(
1
−
ε
)
τ
{\displaystyle \varepsilon \sigma +(1-\varepsilon )\tau }
で考えようが実質的な差はない。
しかし行列ゲーム以外のゲームではこのような単純な関係が成立するとは限らず、そもそも「2個体間の一回のゲームの利得」
E
(
⋅
,
⋅
)
{\displaystyle E(\cdot ,\cdot )}
が定義できない場合もある(例えば、2個体間の闘争ではなくΠ の全ての個体が闘争する場合)ので、本章で述べる一般的なフレームワークにおいて改めて進化的安定性の概念を定式化する必要がある。
以上の準備の元、進化的安定性の概念を一般化する。集合X を一つ固定し、これを戦略空間 と呼び、X の元を戦略 ないし個体戦略 と呼ぶ。そして任意の戦略σ 1 ,...σ m ∈X に対し、形式和
∑
i
=
1
m
ε
i
δ
σ
i
{\displaystyle \sum _{i=1}^{m}\varepsilon _{i}\delta _{\sigma _{i}}}
(
0
≤
ε
≤
1
,
∑
i
ε
i
=
1
)
{\displaystyle (0\leq \varepsilon \leq 1,~~\textstyle \sum _{i}\varepsilon _{i}=1)}
を個体群戦略 と呼ぶ。さらに戦略τ と個体群戦略
∑
i
=
1
n
ε
i
δ
σ
i
{\displaystyle \textstyle \sum _{i=1}^{n}\varepsilon _{i}\delta _{\sigma _{i}}}
の組に利得 と呼ばれる実数を対応させる関数
E
:
(
τ
,
∑
i
=
1
n
ε
n
δ
σ
n
)
↦
R
{\displaystyle {\mathcal {E}}~:~(\tau ,{\textstyle \sum _{i=1}^{n}\varepsilon _{n}\delta _{\sigma _{n}}})\mapsto \mathbf {R} }
を一つ固定し、この関数を利得関数 と呼ぶ。直感的には
E
{\displaystyle {\mathcal {E}}}
の第一変数の個体戦略を取るある個体P が、個体群戦略
∑
i
=
1
n
ε
i
δ
σ
i
{\displaystyle \textstyle \sum _{i=1}^{n}\varepsilon _{i}\delta _{\sigma _{i}}}
を取る個体群の中で(一般には複数回)闘争したときのP が得られる利得(ないしその平均値)が
E
(
τ
;
∑
i
=
1
n
ε
n
δ
σ
n
)
{\displaystyle {\mathcal {E}}(\tau ;{\textstyle \sum _{i=1}^{n}\varepsilon _{n}\delta _{\sigma _{n}}})}
になるという事である。
以上のフレームワークにおいて、ゲーム は戦略空間X と利得関数
E
{\displaystyle {\mathcal {E}}}
の組
(
X
,
E
)
{\displaystyle (X,{\mathcal {E}})}
として定義される。
ゲーム
(
X
,
E
)
{\displaystyle (X,{\mathcal {E}})}
に関する進化的安定性は以下のように定義される[ 29] :
定義G1 (進化的安定性) ―
σ
∗
,
σ
∈
X
{\displaystyle \sigma _{*},\sigma \in X}
を個体戦略とする。このとき個体戦略
σ
∗
{\displaystyle \sigma _{*}}
が
(
X
,
E
)
{\displaystyle (X,{\mathcal {E}})}
に関して
σ
{\displaystyle \sigma }
より進化的に安定 であるとは、
0
<
ε
0
≤
1
{\displaystyle 0<\varepsilon _{0}\leq 1}
を満たす実数
ε
0
{\displaystyle \varepsilon _{0}}
が存在し、
0
<
ε
<
ε
0
{\displaystyle 0<\varepsilon <\varepsilon _{0}}
を満たす任意の実数
ε
{\displaystyle \varepsilon }
に対し、
E
(
σ
∗
,
(
1
−
ε
)
δ
σ
∗
+
ε
δ
σ
)
>
E
(
σ
,
(
1
−
ε
)
δ
σ
∗
+
ε
δ
σ
)
{\displaystyle {\mathcal {E}}(\sigma _{*},(1-\varepsilon )\delta _{\sigma _{*}}+\varepsilon \delta _{\sigma })>{\mathcal {E}}(\sigma ,(1-\varepsilon )\delta _{\sigma _{*}}+\varepsilon \delta _{\sigma })}
が成立する事を言う。
特に
σ
∗
{\displaystyle \sigma _{*}}
が
(
X
,
E
)
{\displaystyle (X,{\mathcal {E}})}
に関して任意の
σ
∈
X
{\displaystyle \sigma \in X}
より進化的に安定であるとき、
σ
∗
{\displaystyle \sigma _{*}}
は
(
X
,
E
)
{\displaystyle (X,{\mathcal {E}})}
に関して進化的に安定である という。
上の定義ではε0 はσ に依存する事を許容しているが、σ に依存しないε0 が取れる場合には、一様な侵入障壁をもつ進化的安定性 (ESS with uniform invasion barrier )と呼ぶ[ 30] 。
E
{\displaystyle {\mathcal {E}}}
の定義より、任意の戦略
σ
∈
X
{\displaystyle \sigma \in X}
は
E
(
σ
,
⋅
)
{\displaystyle {\mathcal {E}}(\sigma ,\cdot )}
のように個体戦略として
E
{\displaystyle {\mathcal {E}}}
の第一変数としてする事も、
E
(
⋅
,
δ
σ
)
{\displaystyle {\mathcal {E}}(\cdot ,\delta _{\sigma })}
のように個体群戦略として
E
{\displaystyle {\mathcal {E}}}
の第二変数として登場する事も可能である。したがって「オス」と「メス」のように立場の異なる個体が存在したとしても、第一変数を「オス」の戦略、第二変数を「メス」の戦略といったふうに2つの変数を使い分ける事はできない。すなわち前述したように、立場の異なる個体間の非対称なゲームに対する進化的安定性を上記の定義では記述できず、何らかの「対称化」の操作を行う事によって非対称ゲームを記述する必要がある。対称化に関しては後の章でより詳しく説明する。
E
{\displaystyle {\mathcal {E}}}
の性質
編集
すでに述べたように行列ゲームでは
E
(
σ
,
ε
δ
σ
+
(
1
−
ε
)
δ
τ
)
=
E
(
σ
,
ε
σ
+
(
1
−
ε
)
τ
)
{\displaystyle {\mathcal {E}}(\sigma ,\varepsilon \delta _{\sigma }+(1-\varepsilon )\delta _{\tau })=E(\sigma ,\varepsilon \sigma +(1-\varepsilon )\tau )}
という単純な関係があり、しかも行列ゲームの利得関数は行列を用いて簡単に表記できるので、線形性
E
(
∑
i
ν
i
σ
i
,
∑
j
ε
j
δ
τ
j
)
=
∑
i
,
j
ν
i
ε
j
E
(
σ
i
,
δ
τ
j
)
{\displaystyle {\mathcal {E}}(\sum _{i}\nu _{i}\sigma _{i},\sum _{j}\varepsilon _{j}\delta _{\tau _{j}})=\sum _{i,j}\nu _{i}\varepsilon _{j}{\mathcal {E}}(\sigma _{i},\delta _{\tau _{j}})}
が成立した。
しかしこうした性質は行列ゲーム以外のゲームでは必ずしも成立するとは限らない。実際我々は現段階では一般のゲームにおける
E
{\displaystyle {\mathcal {E}}}
には一切仮定をおいていない為、線形性どころか連続性すら成り立つとは限らない。
このため行列ゲームに対して示した性質は一般のゲームに対しては無条件に成り立つとは限らず、線形性など何らかの仮定をおいた上でこうした性質(の類似物)を示す必要がある。
そこで本節では、線形性など
E
{\displaystyle {\mathcal {E}}}
に関する性質をいくつか導入し、これらの性質を元に進化的安定性の満たす性質を示す。
個体群戦略に関する線形性と個体戦略に関する線形性
編集
本節では
E
{\displaystyle {\mathcal {E}}}
の線形性の概念を定義する。
行列ゲームにおける混合戦略のように、戦略空間上に線形和が定義できる場合には、左線形性も同様に定義できる:
定義G3 (個体戦略に関する線形性) ― 任意の自然数m 、
任意の個体戦略
τ
1
,
…
,
τ
m
{\displaystyle \tau _{1},\ldots ,\tau _{m}}
、
0
≤
u
1
,
…
,
u
m
≤
1
{\displaystyle 0\leq u_{1},\ldots ,u_{m}\leq 1}
と
u
1
+
⋯
+
u
m
=
1
{\displaystyle u_{1}+\cdots +u_{m}=1}
を満たす任意の実数
u
1
,
…
,
u
m
{\displaystyle u_{1},\ldots ,u_{m}}
、および任意の個体群戦略
∑
i
=
1
ℓ
ε
i
δ
σ
i
{\displaystyle {\textstyle \sum _{i=1}^{\ell }\varepsilon _{i}\delta _{\sigma _{i}}}}
に対し、
E
{\displaystyle {\mathcal {E}}}
が
E
(
∑
j
=
1
m
u
j
τ
j
,
∑
i
=
1
ℓ
ε
i
δ
σ
i
)
=
∑
j
=
1
m
u
j
E
(
τ
j
,
∑
i
=
1
ℓ
ε
i
δ
σ
i
)
{\displaystyle {\mathcal {E}}\left(\textstyle \sum _{j=1}^{m}u_{j}\tau _{j},\sum _{i=1}^{\ell }\varepsilon _{i}\delta _{\sigma _{i}}\right)=\textstyle \sum _{j=1}^{m}u_{j}{\mathcal {E}}\left(\tau _{j},\textstyle \sum _{i=1}^{\ell }\varepsilon _{i}\delta _{\sigma _{i}}\right)}
を満たすとき、
E
{\displaystyle {\mathcal {E}}}
は個体戦略に関して線形 である、もしくは左線形 であるという[ 31] 。
これら2つの性質は行列ゲームの場合は明らかに満たされる。
多くのゲームにおいて、戦略空間X は行列ゲームの場合と同様、何らかの混合戦略全体の空間であり、混合戦略
σ
=
(
p
i
)
i
=
1
,
…
,
n
{\displaystyle \sigma =(p_{i})_{i=1,\ldots ,n}}
の利得は
E
(
σ
,
Π
)
=
∑
i
p
i
E
(
i
,
Π
)
{\displaystyle {\mathcal {E}}(\sigma ,\Pi )=\sum _{i}p_{i}{\mathcal {E}}(i,\Pi )}
のように純粋戦略の利得の期待値として定義されるので、個体戦略に対する線形性は多くのゲームで成立する[ 32] 。
それに対し個体群戦略に対する線形性は満たさないゲームも多く、例えば以下の3つの状況では満たされない事が多い:
ゲームが1:1の闘争でないとき[ 32]
(1:1の闘争であったとしても)同じ個体と複数回闘争しなければならないとき[ 32]
取りうる戦略が連続量であるとき[ 32]
2013年現在、「線形性が満たされないゲームに関する一般的な理論はまだ十分に発展しているとは言い難い」[ 32] 状況にあり、個別のゲームに応じた議論を行う必要がある。
行列ゲームにおける戦略空間X は混合戦略全体の集合なので、戦略同士の線形和が定義できる。このように戦略空間X 上に何らかの和の概念が定義できている場合、以下の概念を定式化できる:
多型-単型同値性は行列ゲームでは明らかに成立する:
E
(
σ
,
∑
i
ε
i
δ
σ
i
)
=
E
(
σ
,
∑
i
ε
i
σ
i
)
=
E
(
σ
,
δ
∑
i
ε
i
σ
i
)
{\displaystyle {\mathcal {E}}(\sigma ,\sum _{i}\varepsilon _{i}\delta _{\sigma _{i}})=E(\sigma ,\sum _{i}\varepsilon _{i}\sigma _{i})={\mathcal {E}}(\sigma ,\delta _{\sum _{i}\varepsilon _{i}\sigma _{i}})}
多型-単型同値性の直観的な意味を説明する。定義G4 の式の左辺では
E
{\displaystyle {\mathcal {E}}}
の第2変数が
∑
i
=
1
n
ε
i
δ
σ
i
{\displaystyle \textstyle \sum _{i=1}^{n}\varepsilon _{i}\delta _{\sigma _{i}}}
であるので、個体群の中には戦略
σ
1
{\displaystyle \sigma _{1}}
を取る個体が割合
ε
1
{\displaystyle \varepsilon _{1}}
だけ存在し、...、戦略
σ
n
{\displaystyle \sigma _{n}}
を取る個体が割合
ε
n
{\displaystyle \varepsilon _{n}}
だけ存在するという状況を左辺は意味している。一方右辺では
E
{\displaystyle {\mathcal {E}}}
の第2変数が
δ
∑
i
=
1
n
ε
i
σ
i
{\displaystyle \textstyle \delta _{\sum _{i=1}^{n}\varepsilon _{i}\sigma _{i}}}
であるので、個体群に属する全ての個体が全く同一の戦略
∑
i
=
1
n
ε
i
σ
i
{\displaystyle \textstyle \sum _{i=1}^{n}\varepsilon _{i}\sigma _{i}}
を取っている状況を右辺は意味している。
多型-単型同値性は
σ
1
,
…
,
σ
n
{\displaystyle \sigma _{1},\ldots ,\sigma _{n}}
が純粋戦略であるケースを考えると理解しやすい。上で述べた事から、定義G4 の式の左辺は純粋戦略
σ
1
{\displaystyle \sigma _{1}}
を取る個体が割合
ε
1
{\displaystyle \varepsilon _{1}}
だけ存在し、...、純粋戦略
σ
n
{\displaystyle \sigma _{n}}
を取る個体が割合
ε
n
{\displaystyle \varepsilon _{n}}
だけ存在するという状況である。すなわち全ての個体は何らかの純粋戦略を取っており、個体毎にどの純粋戦略を取るのかが決まっている状況である。これは例えば、遺伝的多型により、個体が生まれた段階でどの純粋戦略を取るのかが決まる場合がこの状況に相当する。
一方、定義G4 の式の右辺は、全ての個体が全く同一の混合戦略
∑
i
=
1
n
ε
i
σ
i
{\displaystyle \textstyle \sum _{i=1}^{n}\varepsilon _{i}\sigma _{i}}
を取っている状況である。これは例えば、「混合戦略
∑
i
=
1
n
ε
i
σ
i
{\displaystyle \textstyle \sum _{i=1}^{n}\varepsilon _{i}\sigma _{i}}
を取る事」が遺伝的に単型な形で刷り込まれており、ゲーム開始の段階でランダムに
σ
1
,
…
,
σ
n
{\displaystyle \sigma _{1},\ldots ,\sigma _{n}}
のうちどれかを行う場合がこの状況に相当する。
多型-単型同値性はこの多型のケースと単型のケースが
E
{\displaystyle {\mathcal {E}}}
の第一変数の戦略を取る個体P の平均利得という観点から見るとこの「多型」の状況と「単型」の状況に差がない事を意味する。
P の闘争相手がゲームのたびに個体群から毎回ランダムに選ばれるケース(個体群の個体数は無限大なのでこれは闘争相手が毎回異なる事を意味する)における繰り返し行列ゲームの場合には、明らかに多型-単型同値性が成立する。しかしゲームによっては多型-単型同値性が成り立たないものもあり、次章以降でそうしたゲームについて見る。
行列ゲームにおける進化的安定性の概念が均衡条件と安定条件により特徴づけられる事を定理3 で見た。この定理は本章で述べた一般的なゲームに関する進化的安定性に対しては常に成立するわけではないが、適切な条件下では定理3 の類似物を示す事が可能である。
前節までと同様、X を戦略空間とし、
E
(
⋅
,
⋅
)
{\displaystyle {\mathcal {E}}(\cdot ,\cdot )}
をX 上の個体戦略と個体群戦略に「利得」とよばれる実数値を対応させる関数とする。さらに戦略
σ
∗
,
σ
∈
X
{\displaystyle \sigma _{*},\sigma \in X}
を固定し、インセンティブ関数
h
σ
∗
,
σ
{\displaystyle h_{\sigma _{*},\sigma }}
を
h
σ
∗
,
σ
:
[
0
,
1
]
→
R
,
ε
↦
E
(
σ
∗
,
ε
δ
σ
∗
+
(
1
−
ε
)
δ
σ
)
−
E
(
σ
,
ε
δ
σ
∗
+
(
1
−
ε
)
δ
σ
)
{\displaystyle h_{\sigma _{*},\sigma }~:~[0,1]\to \mathbf {R} ,~\varepsilon \mapsto {\mathcal {E}}(\sigma _{*},\varepsilon \delta _{\sigma _{*}}+(1-\varepsilon )\delta _{\sigma })-{\mathcal {E}}(\sigma ,\varepsilon \delta _{\sigma _{*}}+(1-\varepsilon )\delta _{\sigma })}
により定義する[ 34] 。ここで
[
0
,
1
]
{\displaystyle [0,1]}
は0以上1以下の実数全体の集合である。このとき次が成立する[ 34] :
定理G5 (一般的なゲームの進化的安定性の簡便な特徴づけ) ―
h
σ
∗
,
σ
{\displaystyle h_{\sigma _{*},\sigma }}
が
ε
=
0
{\displaystyle \varepsilon =0}
において(右方)
ε
{\displaystyle \varepsilon }
-偏微分可能であり、しかも
∂
∂
ε
h
σ
∗
,
σ
(
0
)
≠
0
{\displaystyle {\partial \over \partial \varepsilon }h_{\sigma _{*},\sigma }(0)\neq 0}
であるとする。このとき、σ* が
E
{\displaystyle {\mathcal {E}}}
に関してσ より進化的安定である必要十分条件は以下の2条件が両方とも成立する事である:
(均衡条件 )
E
(
σ
∗
,
δ
σ
∗
)
≥
E
(
σ
,
δ
σ
∗
)
{\displaystyle {\mathcal {E}}(\sigma _{*},\delta _{\sigma _{*}})\geq {\mathcal {E}}(\sigma ,\delta _{\sigma _{*}})}
(安定条件 )
E
(
σ
∗
,
δ
σ
∗
)
=
E
(
σ
,
δ
σ
∗
)
⇒
∂
∂
ε
h
σ
∗
,
σ
(
0
)
>
0
{\displaystyle {\mathcal {E}}(\sigma _{*},\delta _{\sigma _{*}})={\mathcal {E}}(\sigma ,\delta _{\sigma _{*}})\Rightarrow {\partial \over \partial \varepsilon }h_{\sigma _{*},\sigma }(0)>0}
多くの生物学上の応用では、
∂
∂
ε
h
σ
∗
,
σ
(
0
)
=
0
{\displaystyle {\partial \over \partial \varepsilon }h_{\sigma _{*},\sigma }(0)=0}
を満たす
(
σ
∗
,
σ
)
∈
X
2
{\displaystyle (\sigma _{*},\sigma )\in X^{2}}
の集合は零集合 (≒面積0の集合)であるので、上記偏微分が0になる確率が0である事を多くのケースでは仮定できる(これをgeneric payoff assumptionという[ 35] )[ 注 2] 。この仮定の元では進化的安定性は均衡条件と安定条件が両方成立する事とほとんど至る所で 同値である。
本節では定理3 と定理G5 の関係を見るため、定理G5 を行列ゲームに適用してみる。すでに述べたように行列ゲームでは
E
(
σ
,
ε
δ
σ
+
(
1
−
ε
)
δ
τ
)
=
E
(
σ
,
ε
σ
+
(
1
−
ε
)
τ
)
{\displaystyle {\mathcal {E}}(\sigma ,\varepsilon \delta _{\sigma }+(1-\varepsilon )\delta _{\tau })=E(\sigma ,\varepsilon \sigma +(1-\varepsilon )\tau )}
であり、
E
(
⋅
,
⋅
)
{\displaystyle E(\cdot ,\cdot )}
は右線形かつ左線形であるので、インセンティブ関数
h
σ
∗
,
σ
{\displaystyle h_{\sigma _{*},\sigma }}
は
h
σ
∗
,
σ
(
ε
)
=
ε
E
(
σ
∗
−
σ
,
σ
∗
)
+
(
1
−
ε
)
E
(
σ
∗
−
σ
,
σ
)
{\displaystyle h_{\sigma _{*},\sigma }(\varepsilon )=\varepsilon E(\sigma _{*}-\sigma ,\sigma _{*})+(1-\varepsilon )E(\sigma _{*}-\sigma ,\sigma )}
である。よってε =0 における偏微分は
∂
∂
ε
h
σ
∗
,
σ
(
0
)
=
E
(
σ
∗
−
σ
,
σ
∗
−
σ
)
{\displaystyle {\partial \over \partial \varepsilon }h_{\sigma _{*},\sigma }(0)=E(\sigma _{*}-\sigma ,\sigma _{*}-\sigma )}
である。定理G5 の安定条件の仮定
E
(
σ
∗
,
δ
σ
∗
)
=
E
(
σ
,
δ
σ
∗
)
{\displaystyle {\mathcal {E}}(\sigma _{*},\delta _{\sigma _{*}})={\mathcal {E}}(\sigma ,\delta _{\sigma _{*}})}
が成り立つ条件下では
E
(
σ
∗
−
σ
,
σ
∗
−
σ
)
=
E
(
σ
,
σ
)
−
E
(
σ
∗
,
σ
)
{\displaystyle E(\sigma _{*}-\sigma ,\sigma _{*}-\sigma )=E(\sigma ,\sigma )-E(\sigma _{*},\sigma )}
であるので、定理G5 の安定条件は定理3 のそれと一致する。すなわち定理G5 は、
E
(
σ
∗
−
σ
,
σ
∗
−
σ
)
≠
0
{\displaystyle E(\sigma _{*}-\sigma ,\sigma _{*}-\sigma )\neq 0}
を要求する事以外は定理3 と一致している。
個体群ゲーム(Population Game)
編集
本章では個体群ゲーム というゲームを定義し、このゲームにおける進化的安定性の性質を述べる。
多くのゲームにおいて、戦略空間X は行列ゲームの場合と同様、有限個の純粋戦略を混合した混合戦略全体の空間であり、混合戦略
σ
=
(
p
i
)
i
=
1
,
…
,
n
{\displaystyle \sigma =(p_{i})_{i=1,\ldots ,n}}
の利得は
E
(
σ
,
Π
)
=
∑
i
p
i
E
(
i
,
Π
)
{\displaystyle {\mathcal {E}}(\sigma ,\Pi )=\sum _{i}p_{i}{\mathcal {E}}(i,\Pi )}
のように純粋戦略の利得の期待値として定義される。ここでさらに多型-単型同値が成り立てば、任意の個体群戦略
Π
=
∑
j
ε
j
δ
σ
j
{\displaystyle \Pi =\textstyle \sum _{j}\varepsilon _{j}\delta _{\sigma _{j}}}
は
Π
=
δ
τ
{\displaystyle \Pi =\delta _{\tau }}
のようにたった一つの混合戦略
τ
=
∑
i
ε
j
σ
j
{\displaystyle \tau =\textstyle \sum _{i}\varepsilon _{j}\sigma _{j}}
により記述できる。ここで
f
i
(
τ
)
:=
E
(
i
,
τ
)
{\displaystyle f_{i}(\tau ):={\mathcal {E}}(i,\tau )}
と定義すれば、
E
(
σ
,
δ
τ
)
=
∑
i
p
i
f
i
(
τ
)
{\displaystyle {\mathcal {E}}(\sigma ,\delta _{\tau })=\sum _{i}p_{i}f_{i}(\tau )}
が成立する事になる。利得関数
E
{\displaystyle {\mathcal {E}}}
が上式のように書けるゲームが個体群ゲーム である。
以上をまとめると次のようになる[ 36] [ 37] 。なお以下でΔn は(Eq-G1 )式で定義される集合であり、直観的には有限個(n 個)の純粋戦略を混合した混合戦略全体の空間を意味する。
定義P1 (個体群ゲーム) ― 戦略空間X がΔn であり、しかも関数
f
1
,
…
,
f
n
:
X
→
R
{\displaystyle f_{1},\ldots ,f_{n}~:~X\to \mathbf {R} }
が存在し、任意の混合戦略
σ
=
(
p
i
)
i
=
1
,
…
,
n
,
τ
∈
X
{\displaystyle \sigma =(p_{i})_{i=1,\ldots ,n},~\tau \in X}
に対し、利得関数
E
{\displaystyle {\mathcal {E}}}
が
E
(
σ
,
δ
τ
)
=
∑
i
p
i
f
i
(
τ
)
{\displaystyle {\mathcal {E}}(\sigma ,\delta _{\tau })=\sum _{i}p_{i}f_{i}(\tau )}
を満たすゲームを個体群ゲーム(population game) という。
応用例:場を通じる型(playing the field)
編集
行列ゲームでは個体P が個体群Π からランダムに選ばれた個体Q と1:1の闘争を行うケース(1対1型 [ 38] )を想定していた。しかし生物学における実際の状況は、このようなP は1:1の闘争を行うものばかりではなく、P が個体群Π に属する全ての他の個体と闘争しなければならないものも存在する。
このようなΠ の全ての他の個体との闘争を行われる状況を場を通じる型 [ 38] (playing the field [ 39] )という。例えば植物が種を飛散させる状況下では、近くにいる他の全ての個体と土地を争わなければならないので、場を通じる型の類型に属する[ 39] 。
場を通じる型のセッティングでは、そもそも1:1の闘争は行われないので行列ゲームのような1:1の闘争を前提とした利得関数E は定義できず、E を使わずに直接
E
(
σ
,
Π
)
{\displaystyle {\mathcal {E}}(\sigma ,\Pi )}
を定義する必要がある事になる。
この際利用できるのが、個体群ゲームのフレームワークである[ 40] [ 41] 。定理P2 で述べたように、左線形性や多型-単型同値などの条件が成立しさえすれば、場を通じる型の状況を個体群ゲームとして記述できるので、個体群ゲームは有益な概念である。
以下の2つの性質が成立する[ 42] :
定理P4 (個体群ゲームのESSにおける一様な侵入障壁の存在性) ― 個体群ゲームの利得関数が戦略空間
X
=
Δ
n
{\displaystyle X=\Delta _{n}}
上連続な関数
f
1
,
…
,
f
n
{\displaystyle f_{1},\ldots ,f_{n}}
を用いて
E
(
σ
,
δ
τ
)
=
∑
i
p
i
f
i
(
τ
)
{\displaystyle {\mathcal {E}}(\sigma ,\delta _{\tau })=\sum _{i}p_{i}f_{i}(\tau )}
と書け、しかも
E
{\displaystyle {\mathcal {E}}}
が多型-単型同値であるとする。
このとき
σ
∗
∈
X
{\displaystyle \sigma _{*}\in X}
が進化的安定である必要十分条件は以下の性質(局所優位性、local superiority )を満たす事である:
ある
ε
0
>
0
{\displaystyle \varepsilon _{0}>0}
が存在し、X の任意の元
σ
≠
σ
∗
{\displaystyle \sigma \neq \sigma _{*}}
に対し、
d
(
σ
∗
,
σ
)
<
ε
0
⇒
E
(
σ
∗
,
σ
)
>
E
(
σ
,
σ
)
{\displaystyle \mathrm {d} (\sigma _{*},\sigma )<\varepsilon _{0}~\Rightarrow ~E(\sigma _{*},\sigma )>E(\sigma ,\sigma )}
ここでd は(2) 式により定義される
X
=
Δ
n
{\displaystyle X=\Delta _{n}}
上の距離であるが、定理2 と同様、d と同一の位相を定める距離であれば他のものでもよい。
これまで全ての個体が対等である状況を考察してきたが、実際の生物学では「オス vs. メス」、「テリトリーの所有者 vs. テリトリーへの侵入者」、「体の大きい個体 vs. 体の小さい個体」のように2つの非対称 な立場がある個体同士が闘争する。しかし前章でも述べたように、進化ゲーム理論ではこうした非対称なゲームに関しては何らかの「対称化」を施すことにより、対象なゲームとして進化的安定性を定義する[ 27] 。
本節では非対称なゲームを定式化し、対称化を方法を述べる。今各個体には2つの立場[ 38] (role)があり、どちらの立場にいるかにより取れる戦略が異なるものとする。立場0、立場1にいる時に取れる戦略全体の集合をそれぞれX0 、X1 と表記する。このとき、非対称なゲームの戦略空間は
X
0
×
X
1
{\displaystyle X_{0}\times X_{1}}
である。戦略空間の元
(
σ
,
τ
)
∈
X
0
×
X
1
{\displaystyle (\sigma ,\tau )\in X_{0}\times X_{1}}
の直観的意味は「もし自分が立場0であれば戦略σ を取り、立場1であれば戦略τ を取る」というものである。
このゲームにおける個体群戦略 は
(
σ
1
,
τ
1
)
,
…
,
(
σ
m
,
τ
m
)
∈
X
0
×
X
1
{\displaystyle (\sigma _{1},\tau _{1}),\ldots ,(\sigma _{m},\tau _{m})\in X_{0}\times X_{1}}
と
ε
1
,
…
,
ε
m
∈
[
0
,
1
]
{\displaystyle \varepsilon _{1},\ldots ,\varepsilon _{m}\in [0,1]}
(
ε
1
+
⋯
+
ε
m
=
1
{\displaystyle \varepsilon _{1}+\cdots +\varepsilon _{m}=1}
)を用いて
∑
i
=
1
m
ε
i
δ
(
σ
i
,
τ
i
)
{\displaystyle \sum _{i=1}^{m}\varepsilon _{i}\delta _{(\sigma _{i},\tau _{i})}}
と書けるものを指す。ゲームは非対称であるので、利得関数も自分が立場0にいるときと立場1にいるときで異なる。自分が立場
k
=
0
,
1
{\displaystyle k=0,1}
にいるときの利得関数を
E
k
(
ξ
,
∑
i
=
1
m
ε
i
δ
σ
i
)
{\displaystyle {\mathcal {E}}_{k}(\xi ,\textstyle \sum _{i=1}^{m}\varepsilon _{i}\delta _{\sigma _{i}})}
と書く。ここでξ はXk の元であり、
σ
1
,
…
,
σ
m
{\displaystyle \sigma _{1},\ldots ,\sigma _{m}}
は
X
1
−
k
{\displaystyle X_{1-k}}
の元である。非対称なゲームは組
(
(
X
0
,
E
0
)
,
(
X
1
,
E
1
)
)
{\displaystyle ((X_{0},{\mathcal {E}}_{0}),(X_{1},{\mathcal {E}}_{1}))}
により定義される。
以上のように定義された非対称なゲーム
(
(
X
0
,
E
0
)
,
(
X
1
,
E
1
)
)
{\displaystyle ((X_{0},{\mathcal {E}}_{0}),(X_{1},{\mathcal {E}}_{1}))}
に対し、利得関数の対称化を行う。このために記号を導入する。個体群戦略
Π
=
∑
i
ε
i
δ
(
σ
i
,
τ
i
)
{\displaystyle \Pi =\sum _{i}\varepsilon _{i}\delta _{(\sigma _{i},\tau _{i})}}
に対し、
π
0
(
Π
)
=
∑
i
ε
i
δ
σ
i
{\displaystyle \pi _{0}(\Pi )=\sum _{i}\varepsilon _{i}\delta _{\sigma _{i}}}
、
π
1
(
Π
)
=
∑
i
ε
i
δ
τ
i
{\displaystyle \pi _{1}(\Pi )=\sum _{i}\varepsilon _{i}\delta _{\tau _{i}}}
と書くことにする。関数
ρ
:
X
0
×
X
1
→
[
0
,
1
]
{\displaystyle \rho ~:~X_{0}\times X_{1}\to [0,1]}
を一つ固定するとき、利得関数の組
(
E
0
,
E
1
)
{\displaystyle ({\mathcal {E}}_{0},{\mathcal {E}}_{1})}
を
ρ
{\displaystyle \rho }
により対称化した利得関数 を
E
(
(
ξ
0
,
ξ
1
)
,
Π
)
=
ρ
(
ξ
0
,
ξ
1
)
E
0
(
ξ
0
,
π
1
(
Π
)
)
+
(
1
−
ρ
(
ξ
0
,
ξ
1
)
)
E
1
(
ξ
1
,
π
0
(
Π
)
)
{\displaystyle {\mathcal {E}}((\xi _{0},\xi _{1}),\Pi )=\rho (\xi _{0},\xi _{1}){\mathcal {E}}_{0}(\xi _{0},\pi _{1}(\Pi ))+(1-\rho (\xi _{0},\xi _{1})){\mathcal {E}}_{1}(\xi _{1},\pi _{0}(\Pi ))}
により定義する[ 43] 。直観的には
ρ
(
ξ
0
,
ξ
1
)
{\displaystyle \rho (\xi _{0},\xi _{1})}
は個体戦略
(
ξ
0
,
ξ
1
)
∈
X
0
×
X
1
{\displaystyle (\xi _{0},\xi _{1})\in X_{0}\times X_{1}}
を取っている個体が立場0になる確率である。
なお、対称化が定数関数
ρ
=
const.
{\displaystyle \rho ={\text{const.}}}
を用いて行われた場合、この対称化は戦略-立場独立 (strategy-role independent[ 43] )であるという。
非対称なゲームに関する進化的安定性は、対称化したゲームの進化的安定性により定義する。すなわち個体戦略
(
ξ
∗
,
ν
∗
)
∈
X
1
×
X
2
{\displaystyle (\xi _{*},\nu _{*})\in X_{1}\times X_{2}}
が進化的安定 であるとは、戦略空間が
X
1
×
X
2
{\displaystyle X_{1}\times X_{2}}
であり利得関数が
E
{\displaystyle {\mathcal {E}}}
であるゲームに関して進化的安定である事を指す[ 43] 。もちろんこの進化的安定性の概念は関数
ρ
{\displaystyle \rho }
に依存しており、
ρ
{\displaystyle \rho }
が異なれば進化的安定性の概念も異なる。
これまで非対称なゲームを考察するに当たって、同じ立場にいる個体同士が闘争しないことを暗に仮定していた。すなわち、自分が立場0にいる時は立場1にいる個体と闘争し、立場1にいるときは立場0にいる個体と闘争する、という事である。しかし一般にはこれが成立しない場合もある。この場合には、4つの利得関数
E
00
,
E
10
,
E
01
,
E
11
{\displaystyle {\mathcal {E}}_{00},~{\mathcal {E}}_{10},~{\mathcal {E}}_{01},~{\mathcal {E}}_{11}}
を考え、
E
(
(
ξ
0
,
ξ
1
)
,
Π
)
=
∑
i
,
j
ρ
i
,
j
(
ξ
0
,
ξ
1
)
E
i
,
j
(
ξ
i
,
π
j
(
Π
)
)
{\displaystyle {\mathcal {E}}((\xi _{0},\xi _{1}),\Pi )=\sum _{i,j}\rho _{i,j}(\xi _{0},\xi _{1}){\mathcal {E}}_{i,j}(\xi _{i},\pi _{j}(\Pi ))}
として対称化をはかる[ 44] 。ここで
ρ
i
,
j
:
X
0
×
X
1
→
[
0
,
1
]
{\displaystyle \rho _{i,j}~:~X_{0}\times X_{1}\to [0,1]}
は
∑
i
,
j
ρ
i
,
j
(
ξ
0
,
ξ
1
)
=
1
{\displaystyle \textstyle \sum _{i,j}\rho _{i,j}(\xi _{0},\xi _{1})=1}
を満たす関数である。
直観的には
E
i
j
{\displaystyle {\mathcal {E}}_{ij}}
は自分が立場i 、闘争相手が立場j にいるときの利得関数で、
ρ
i
,
j
(
ξ
0
,
ξ
1
)
{\displaystyle \rho _{i,j}(\xi _{0},\xi _{1})}
は自分が個体戦略
(
ξ
0
,
ξ
1
)
∈
X
0
×
X
1
{\displaystyle (\xi _{0},\xi _{1})\in X_{0}\times X_{1}}
を取っている際に、自分が立場i 、闘争相手が立場j になる確率である。
レプリケーター方程式(Replicator Equation)と進化的安定性
編集
レプリケーターダイナミクス (replicator dynamics、自己複製子動学 [ 45] )は与えられた個体群内の各個体が取る戦略の頻度分布(すなわち、前章までの言葉で言えば個体群戦略)がどのように時間発展するかを定式化したモデルで、このモデルにおいて頻度分布の時間発展を記述する方程式をレプリケーター方程式 (replicator equation )という。本節では「離散型」、「連続型」の2種類のレプリケーター方程式を紹介し、行列ゲームにおいて連続レプリケーター方程式の解の収束先と進化的安定性の関係を述べる。
本節では以下の2種類のレプリケーター方程式を紹介する:
離散レプリケーター方程式 (discrete replicator equation):無性生殖する個体群の戦略の頻度分布を(オーバーラップのない)「世代」という離散的な時間で記述できると仮定した場合の方程式[ 46]
連続レプリケーター方程式 (continuous replicator equation):個体数が十分大きいため世代がオーバーラップし、連続的な時間によって(無性生殖する)個体群の戦略の頻度分布を記述できると近似した場合における方程式[ 46]
離散レプリケーター方程式を定式化するために、以下のような個体群を考える:
個体群の構成が世代1 , 2 , ... によって記述でき、各世代にはオーバーラップがない。すなわち世代t に生きた個体はt +1 には全て死滅し、世代t +1 は世代t に生まれた個体の子供のみから構成される[ 46] 。
個体群内の各個体は有限個の純粋戦略1 , ..., n のいずれかを取り、混合戦略は取らない[ 46]
この個体群は無性生殖によって子孫を残す[ 46]
この個体群には突然変異が生じないもの[ 46]
この個体群において世代t で(純粋)戦略i を取る個体の割合を
p
i
(
t
)
{\displaystyle p_{i}(t)}
と表記すると、この個体群における戦略の分布
p
(
t
)
=
(
p
1
(
t
)
,
…
,
p
n
(
t
)
)
{\displaystyle \mathbf {p} (t)=(p_{1}(t),\ldots ,p_{n}(t))}
と記述できる[ 注 3] 。
この個体群で戦略i を取る各個体の利得を
f
i
(
p
(
t
)
)
{\displaystyle f_{i}(\mathbf {p} (t))}
と表記し、
f
i
(
p
(
t
)
)
{\displaystyle f_{i}(\mathbf {p} (t))}
に関して以下の仮定を置く:
この個体群で世代t において戦略i を取る個体が残す事ができる子供の数は利得
f
i
(
p
(
t
)
)
{\displaystyle f_{i}(\mathbf {p} (t))}
に等しい
このように仮定すると、個体群のうち割合
p
i
(
t
)
{\displaystyle p_{i}(t)}
の個体が、それぞれ
f
i
(
p
i
(
t
)
)
{\displaystyle f_{i}(\mathbf {p} _{i}(t))}
の子供を残すのだから、世代t +1 において戦略1 , ..., n を取る個体の比率は
p
1
(
t
)
f
1
(
p
(
t
)
)
:
⋯
:
p
n
(
t
)
f
n
(
p
(
t
)
)
{\displaystyle p_{1}(t)f_{1}(\mathbf {p} (t))~:~\cdots ~:~p_{n}(t)f_{n}(\mathbf {p} (t))}
となる。ここで我々は
仮定3.により、(突然変異を例外とすれば)子供は親と同じ遺伝子を持つため、親と同じ戦略を取り
仮定4.により突然変異が起こらない
事を利用した。以上より世代世代t +1 において戦略i を取る個体の割合は、以下の離散レプリケーター方程式 に従う[ 46] :
p
i
(
t
+
1
)
=
f
i
(
p
(
t
)
)
f
¯
(
p
(
t
)
)
p
i
(
t
)
for
i
=
1
,
…
,
n
{\displaystyle p_{i}(t+1)={f_{i}(\mathbf {p} (t)) \over {\bar {f}}(\mathbf {p} (t))}p_{i}(t)~~~~~~{\text{for }}i=1,\ldots ,n}
ここで
f
¯
(
p
(
t
)
)
=
∑
j
p
j
(
t
)
f
j
(
p
(
t
)
)
{\displaystyle {\bar {f}}(\mathbf {p} (t))=\sum _{j}p_{j}(t)f_{j}(\mathbf {p} (t))}
である[ 46] 。
分数は分母だと意味を持たないので、最後に離散レプリケーター方程式の分母について触れておく。離散レプリケーター方程式の直観的な意味から、利得の期待値
f
i
(
p
(
t
)
)
{\displaystyle f_{i}(\mathbf {p} (t))}
は
f
i
(
p
(
t
)
)
≥
0
{\displaystyle f_{i}(\mathbf {p} (t))\geq 0}
を満たす必要がある。また
p
i
(
t
)
{\displaystyle p_{i}(t)}
は割合であったので
1
≥
p
i
(
0
)
≥
0
{\displaystyle 1\geq p_{i}(0)\geq 0}
であり、数学的帰納法により、離散レプリケーター方程式の分母が0になる世代t の直前までは
1
≥
p
i
(
t
)
≥
0
{\displaystyle 1\geq p_{i}(t)\geq 0}
が成立する事も示せる。したがって離散レプリケーター方程式の分母が0になる場合、すなわち
f
¯
(
p
(
t
)
)
=
∑
j
p
j
(
t
)
f
j
(
p
(
t
)
)
=
0
{\displaystyle {\bar {f}}(\mathbf {p} (t))=\sum _{j}p_{j}(t)f_{j}(\mathbf {p} (t))=0}
の場合は、正の数の和が0である事になるので、
p
1
(
t
)
f
1
(
p
(
t
)
)
=
⋯
=
p
n
(
t
)
f
n
(
p
(
t
)
)
=
0
{\displaystyle p_{1}(t)f_{1}(\mathbf {p} (t))=\cdots =p_{n}(t)f_{n}(\mathbf {p} (t))=0}
が成立する。これは各i に対し、
p
i
(
t
)
{\displaystyle p_{i}(t)}
か
f
i
(
p
(
t
)
)
{\displaystyle f_{i}(\mathbf {p} (t))}
のいずれかが0である事を意味する。
p
i
(
t
)
=
0
{\displaystyle p_{i}(t)=0}
であれば、純粋戦略i を取る個体は絶滅した事になるので、任意のs>t に対し、
p
i
(
s
)
=
0
{\displaystyle p_{i}(s)=0}
である。また
f
i
(
p
(
t
)
)
=
0
{\displaystyle f_{i}(\mathbf {p} (t))=0}
であれば、純粋戦略i を取る個体が世代t で残せた子供の数
f
i
(
p
(
t
)
)
{\displaystyle f_{i}(\mathbf {p} (t))}
が0である事を意味するので、やはり任意のs>t に対し、
p
i
(
s
)
=
0
{\displaystyle p_{i}(s)=0}
である。結局、離散レプリケーター方程式の分母が0になるという事は個体群の全ての個体が絶滅した場合に相当する。
連続レプリケーター方程式を定式化する為、離散レプリケーター方程式の節の2~4の仮定と以下の1'の仮定を満たす個体群を考える:
1'. 個体数が十分大きいため世代がオーバーラップし、連続的な時間によって個体群の戦略の頻度分布を記述できる[ 46]
前節同様、(純粋)戦略i を取る個体の割合を
p
i
(
t
)
{\displaystyle p_{i}(t)}
と表記し、
p
(
t
)
=
(
p
1
(
t
)
,
…
,
p
n
(
t
)
)
{\displaystyle \mathbf {p} (t)=(p_{1}(t),\ldots ,p_{n}(t))}
とし、この個体群で戦略i を取る各個体の利得を
f
i
(
p
(
t
)
)
{\displaystyle f_{i}(\mathbf {p} (t))}
と表記する。
利得
f
i
(
p
(
t
)
)
{\displaystyle f_{i}(\mathbf {p} (t))}
に関して前節のものと似た以下の仮定を置く:
この個体群で時刻t において戦略i を取る個体の増加率は利得
f
i
(
p
(
t
)
)
{\displaystyle f_{i}(\mathbf {p} (t))}
に等しい
個体群に属する個体数が十分に大きいと仮定しているので、個体数N(t) はt に関して微分可能な連続量であるとみなして差し支えないので[ 46] 、
N
i
(
t
)
=
p
i
(
t
)
N
(
t
)
{\displaystyle N_{i}(t)=p_{i}(t)N(t)}
とすると、上述の仮定から、
d
d
t
N
i
(
t
)
=
f
i
(
p
(
t
)
)
N
i
(
t
)
{\displaystyle {\mathrm {d} \over \mathrm {d} t}N_{i}(t)=f_{i}(\mathbf {p} (t))N_{i}(t)}
…(Eq-R1)
が成立する[ 46] 。記号を簡単にするため、時間微分を
N
˙
i
(
t
)
{\displaystyle {\dot {N}}_{i}(t)}
のようにドットで書くことにすると、(Eq-R1) と
N
i
(
t
)
=
p
i
(
t
)
N
(
t
)
{\displaystyle N_{i}(t)=p_{i}(t)N(t)}
より、
p
˙
i
(
t
)
=
d
d
t
(
N
i
(
t
)
N
(
t
)
)
=
N
˙
i
(
t
)
−
p
i
(
t
)
N
˙
(
t
)
N
(
t
)
{\displaystyle {\dot {p}}_{i}(t)={\mathrm {d} \over \mathrm {d} t}\left({N_{i}(t) \over N(t)}\right)={{\dot {N}}_{i}(t)-p_{i}(t){\dot {N}}(t) \over N(t)}}
=
f
i
(
p
(
t
)
)
N
i
(
t
)
−
p
i
(
t
)
N
˙
(
t
)
N
(
t
)
=
p
i
(
t
)
(
f
i
(
p
(
t
)
)
−
N
˙
(
t
)
N
(
t
)
)
{\displaystyle ={f_{i}(\mathbf {p} (t))N_{i}(t)-p_{i}(t){\dot {N}}(t) \over N(t)}=p_{i}(t)\left(f_{i}(\mathbf {p} (t))-{{\dot {N}}(t) \over N(t)}\right)}
が成立し、しかも(Eq-R1) から
N
˙
(
t
)
N
(
t
)
=
∑
j
N
˙
j
(
t
)
N
(
t
)
=
∑
j
f
j
(
p
(
t
)
)
p
j
(
t
)
{\displaystyle {{\dot {N}}(t) \over N(t)}=\sum _{j}{{\dot {N}}_{j}(t) \over N(t)}=\sum _{j}f_{j}(\mathbf {p} (t))p_{j}(t)}
でもあるので、以下の連続レプリケーター方程式 が成立する[ 46] :
d
p
i
d
t
(
t
)
=
(
f
i
(
p
(
t
)
)
−
f
¯
(
p
(
t
)
)
)
p
i
(
t
)
for
i
=
1
,
…
,
n
{\displaystyle {\mathrm {d} p_{i} \over \mathrm {d} t}(t)=(f_{i}(\mathbf {p} (t))-{\bar {f}}(\mathbf {p} (t)))p_{i}(t)~~~~~~{\text{for }}i=1,\ldots ,n}
ここで
f
¯
(
p
(
t
)
)
=
∑
j
p
j
(
t
)
f
j
(
p
(
t
)
)
{\displaystyle {\bar {f}}(\mathbf {p} (t))=\sum _{j}p_{j}(t)f_{j}(\mathbf {p} (t))}
である[ 46] 。なお、適切な条件下では離散レプリケーター方程式の極限として連続レプリケーター方程式が得られる事が知られている[ 46] [ 47] 。
行列ゲームの連続レプリケーター方程式と進化的安定性
編集
本節の目標は、行列ゲームに対し、レプリケーター方程式の解が進化的安定な状態へと収束する条件を見る事である。なお、行列ゲーム以外のゲームに関してはこのような収束性は成り立つとは限らない[ 48] 。その理由の一端は、(後述するように)レプリケーター方程式が純粋戦略のみを取る個体群を想定しているのに対し、進化的安定性の定義では混合戦略をも考慮する事が多いからである[ 48] 。したがって単型-多型同値が成り立たない系では、レプリケーター方程式による解析と進化的安定性とが一致しない可能性がある[ 48] 。
まず行列ゲームに対する連続レプリケーター方程式を記述する。n ×n の行列
A
=
(
a
i
j
)
i
,
j
{\displaystyle A=(a_{ij})_{i,j}}
とn 行の縦ベクトルp に対し、積Ap の第i 行を
(
A
p
)
i
{\displaystyle (A\mathbf {p} )_{i}}
という記号で書くことにすると、利得関数が
E
(
i
,
j
)
=
a
i
j
{\displaystyle E(i,j)=a_{ij}}
と記述できる行列ゲームにおいて、純粋戦略i を取る個体の利得の期待値
f
i
(
p
(
t
)
)
{\displaystyle f_{i}(\mathbf {p} (t))}
は明らかに
f
i
(
p
(
t
)
)
=
(
A
p
(
t
)
)
i
{\displaystyle f_{i}(\mathbf {p} (t))=(A\mathbf {p} (t))_{i}}
なので、行列ゲームにおける連続レプリケーター方程式は
d
p
i
d
t
(
t
)
=
(
(
A
p
(
t
)
)
i
−
p
(
t
)
T
A
p
(
t
)
)
p
i
(
t
)
for
i
=
1
,
…
,
n
{\displaystyle {\mathrm {d} p_{i} \over \mathrm {d} t}(t)=((A\mathbf {p} (t))_{i}-\mathbf {p} (t)^{T}A\mathbf {p} (t))p_{i}(t)~~~~~~{\text{for }}i=1,\ldots ,n}
…(Eq-R2)
と記述できる[ 46] [ 49] 。ここで
p
(
t
)
T
{\displaystyle \mathbf {p} (t)^{T}}
は
p
(
t
)
{\displaystyle \mathbf {p} (t)}
を転置 した横ベクトルである。
本節では(Eq-R2) と進化的安定性の関係性を調べるため、(Eq-R2) に関する性質を述べる。まず
p
i
(
t
)
{\displaystyle p_{i}(t)}
は純粋戦略i を取る個体の割合であったから、
p
(
t
)
{\displaystyle \mathbf {p} (t)}
の初期値
p
(
0
)
{\displaystyle \mathbf {p} (0)}
は
Δ
n
=
{
(
p
i
)
i
=
1
,
…
,
n
|
0
≤
p
1
,
…
,
p
n
≤
1
,
∑
i
=
1
n
p
i
=
1
}
{\displaystyle \Delta _{n}=\left\{(p_{i})_{i=1,\ldots ,n}{\Bigg |}0\leq p_{1},\ldots ,p_{n}\leq 1,~\sum _{i=1}^{n}p_{i}=1\right\}}
...(Eq-G1 、再掲)
の元である。(Eq-R2) は行列によって記述できる常微分方程式 であるので、(少なくとも初期値の近傍では)解が存在し、しかもその解は一意である(Picard–Lindelöf theorem )[ 50] 。
解の一意性から、(Eq-R2) における時間発展で2つの超平面
{
(
p
i
)
i
=
1
,
…
,
n
|
∑
i
=
1
n
p
i
=
1
}
{\displaystyle \{(p_{i})_{i=1,\ldots ,n}|\textstyle \sum _{i=1}^{n}p_{i}=1\}}
{
(
p
i
)
i
=
1
,
…
,
n
|
p
i
=
0
}
{\displaystyle \{(p_{i})_{i=1,\ldots ,n}|p_{i}=0\}}
が保存される事を簡単に示せるので、以下が明らかに従う[ 51] :
定理R1 ― (Eq-R2) の初期値
p
(
0
)
{\displaystyle \mathbf {p} (0)}
が
Δ
n
{\displaystyle \Delta _{n}}
の境界
∂
Δ
n
=
{
(
p
i
)
i
=
1
,
…
,
n
|
0
≤
p
1
,
…
,
p
n
≤
1
,
∑
i
=
1
n
p
i
=
1
,
∃
i
∈
{
1
,
…
,
n
}
:
p
i
=
0
}
{\displaystyle \partial \Delta _{n}=\left\{(p_{i})_{i=1,\ldots ,n}{\Bigg |}0\leq p_{1},\ldots ,p_{n}\leq 1,~\sum _{i=1}^{n}p_{i}=1,\exists i\in \{1,\ldots ,n\}~:~p_{i}=0\right\}}
に属していれば任意の時刻t に対し、
p
(
t
)
{\displaystyle \mathbf {p} (t)}
は
∂
Δ
n
{\displaystyle \partial \Delta _{n}}
に属している。
ここから明らかに次の系が従う[ 51] :
Δ
n
{\displaystyle \Delta _{n}}
はコンパクト であるので、以上の性質と前述の解の局所的存在性・一意性から次が従う:
定理R3 ― (Eq-R2) は任意の初期値
p
(
0
)
∈
Δ
n
{\displaystyle \mathbf {p} (0)\in \Delta _{n}}
に対し、任意の時刻t において解が一意に存在する。
次の事実も知られている[ 52] :
定理R4 (行列ゲームの連続レプリケーター方程式と一般化されたロトカ・ヴォルテラの方程式との関係性) ― 写像
{
(
p
1
,
…
,
p
n
)
∈
Δ
n
|
p
n
>
0
}
→
R
>
0
n
−
1
,
(
p
1
,
…
,
p
n
)
↦
(
p
1
/
p
n
,
…
,
p
n
−
1
/
p
n
)
{\displaystyle \{(p_{1},\ldots ,p_{n})\in \Delta _{n}|p_{n}>0\}\to \mathbf {R} _{>0}{}^{n-1},~~(p_{1},\ldots ,p_{n})\mapsto (p_{1}/p_{n},\ldots ,p_{n-1}/p_{n})}
により、行列
A
=
(
a
i
j
)
i
,
j
{\displaystyle A=(a_{ij})_{i,j}}
により記述される行列ゲームの連続レプリケーター方程式(Eq-R2) の解は一般化されたロトカ・ヴォルテラの方程式
d
y
i
d
t
(
t
)
=
y
i
(
t
)
(
r
i
+
∑
j
=
1
n
−
1
c
i
j
y
j
(
t
)
)
for
i
=
1
,
…
,
n
−
1
{\displaystyle {\mathrm {d} y_{i} \over \mathrm {d} t}(t)=y_{i}(t)(r_{i}+\textstyle \sum _{j=1}^{n-1}c_{ij}y_{j}(t))~~~~{\text{for }}i=1,\ldots ,n-1}
の解に写る。ここで
r
i
=
a
i
n
−
a
n
n
,
c
i
j
=
a
i
j
−
a
n
j
{\displaystyle r_{i}=a_{in}-a_{nn},~~c_{ij}=a_{ij}-a_{nj}}
(Eq-R2) と進化的安定性の関係を述べるため、以下の概念を定義する。なお以下で、
p
(
t
)
{\displaystyle \mathbf {p} (t)}
は初期値が
p
(
0
)
{\displaystyle \mathbf {p} (0)}
であるときの(Eq-R2) の(必ず存在する一意な)解である[ 51] :
なお大域的安定性の定義で
Δ
n
{\displaystyle \Delta _{n}}
の境界
∂
Δ
n
{\displaystyle \partial \Delta _{n}}
の点に対して
p
0
{\displaystyle \mathbf {p} _{0}}
への収束性を求めないのは、定理R1 で述べたように、
∂
Δ
n
{\displaystyle \partial \Delta _{n}}
の点は(Eq-R2) における時間発展で
∂
Δ
n
{\displaystyle \partial \Delta _{n}}
に留まり続ける為、
p
0
{\displaystyle \mathbf {p} _{0}}
に収束することはありえないからである[ 51] 。
このとき次が成立する[ 51] [ 48] 。なおゲーム理論にも「フォーク定理 」という名称の定理があるが、下のものはこれとは無関係の定理である[ 注 4] 。
すでに述べたように行列ゲームにおいては
狭義ナッシュ均衡⇒進化的安定⇒ナッシュ均衡
という関係性が成立するので、上述の定理から連続レプリケーター方程式の解と進化的安定性との関係がある程度わかる事になる。
また以下も成立する[ 48] :
行列ゲームの混合戦略に対する連続レプリケーター方程式と進化的安定性
編集
これまで我々は、着目している個体が純粋戦略を取る場合の連続レプリケーター方程式に関して考察してきたが、より一般に、有限個の混合戦略
q
1
,
…
,
q
m
∈
Δ
n
{\displaystyle \mathbf {q} _{1},\ldots ,\mathbf {q} _{m}\in \Delta _{n}}
を取る個体がそれぞれ割合
x
1
(
t
)
,
…
,
x
m
(
t
)
{\displaystyle x_{1}(t),\ldots ,x_{m}(t)}
で存在する個体群に対する連続レプリケーター方程式を考える事もできる[ 53] :
d
x
i
d
t
(
t
)
=
(
q
i
−
q
x
(
t
)
)
T
A
q
x
(
t
)
)
x
i
(
t
)
for
i
=
1
,
…
,
m
{\displaystyle {\mathrm {d} x_{i} \over \mathrm {d} t}(t)=\left(\mathbf {q} _{i}-\mathbf {q} _{\mathbf {x} }(t)\right)^{T}A\mathbf {q} _{\mathbf {x} }(t))x_{i}(t)~~~~~~{\text{for }}i=1,\ldots ,m}
…(Eq-R3)
ここで
q
x
(
t
)
{\displaystyle \mathbf {q} _{\mathbf {x} }(t)}
は平均混合戦略[ 54]
q
x
(
t
)
=
∑
j
=
1
m
x
j
(
t
)
q
j
{\displaystyle \mathbf {q} _{\mathbf {x} }(t)=\textstyle \sum _{j=1}^{m}x_{j}(t)\mathbf {q} _{j}}
…
である[ 53] 。(Eq-R3) の導出は(Eq-R2) のそれと同様なので省略する。
(Eq-R3) においてm =2 であれば、
x
=
x
1
(
t
)
{\displaystyle x=x_{1}(t)}
、
q
=
q
1
{\displaystyle \mathbf {q} =\mathbf {q} _{1}}
、
q
^
=
q
2
{\displaystyle {\hat {\mathbf {q} }}=\mathbf {q} _{2}}
と略記すると、
x
2
=
1
−
x
{\displaystyle x_{2}=1-x}
なので、(Eq-R3) に登場するm =2 本の式はいずれも
x
˙
=
x
(
1
−
x
)
{
x
(
q
−
q
^
)
T
A
q
+
(
1
−
x
)
(
q
−
q
^
)
T
A
q
^
)
}
{\displaystyle {\dot {x}}=x(1-x)\{x(\mathbf {q} -{\hat {\mathbf {q} }})^{T}A\mathbf {q} +(1-x)(\mathbf {q} -{\hat {\mathbf {q} }})^{T}A{\hat {\mathbf {q} }})\}}
…(Eq-R4)
に同値である事が簡単な計算から確かめられる[ 53] 。このとき、次が成立する事が知られている[ 53] :
定理R8 ― 行列A に関する行列ゲームにおいて混合戦略
q
^
{\displaystyle {\hat {\mathbf {q} }}}
が混合戦略
q
{\displaystyle \mathbf {q} }
に対して進化的安定である必要十分条件は(Eq-R4) が漸近的に安定である事である。
行列ゲームの混合戦略に対する離散レプリケーター方程式と進化的安定性
編集
行列ゲームの純粋戦略に対する離散レプリケーター方程式
編集
混合戦略に関して考察する前に、まず本節では行列ゲームの純粋戦略に対する離散レプリケーターを導出する。純粋戦略i を取る個体の割合を
p
i
(
t
)
{\displaystyle p_{i}(t)}
と表記し、
p
(
t
)
=
(
p
1
(
t
)
,
…
,
p
n
(
t
)
)
{\displaystyle \mathbf {p} (t)=(p_{1}(t),\ldots ,p_{n}(t))}
とし、この個体群で戦略i を取る各個体の利得を
f
i
(
p
(
t
)
)
{\displaystyle f_{i}(\mathbf {p} (t))}
と表記する。
n ×n の行列
A
=
(
a
i
j
)
i
,
j
{\displaystyle A=(a_{ij})_{i,j}}
を用いて利得関数が
E
(
i
,
j
)
=
a
i
j
{\displaystyle E(i,j)=a_{ij}}
と書ける行列ゲームにおいて、純粋戦略i を取る個体の利得の期待値
f
i
(
p
(
t
)
)
{\displaystyle f_{i}(\mathbf {p} (t))}
は明らかに
f
i
(
p
(
t
)
)
=
(
A
p
(
t
)
)
i
{\displaystyle f_{i}(\mathbf {p} (t))=(A\mathbf {p} (t))_{i}}
なので、これを利用して離散レプリケーター方程式の具体的な形を書き下す事ができる。より一般に各個体が行列ゲームの利得以外に「背景利得」(background payoff)β を得られる場合、すなわち
f
i
(
p
(
t
)
)
=
(
A
p
(
t
)
)
i
+
β
{\displaystyle f_{i}(\mathbf {p} (t))=(A\mathbf {p} (t))_{i}+\beta }
の場合には、離散レプリケーター方程式の具体的な形は
p
i
(
t
+
1
)
=
(
A
p
(
t
)
)
i
+
β
p
(
t
)
T
A
p
(
t
)
+
β
p
i
(
t
)
for
i
=
1
,
…
,
n
{\displaystyle p_{i}(t+1)={(A\mathbf {p} (t))_{i}+\beta \over \mathbf {p} (t)^{T}A\mathbf {p} (t)+\beta }p_{i}(t)~~~~~~{\text{for }}i=1,\ldots ,n}
…(Eq-R5)
である[ 46] [ 55] 。
行列ゲームの混合戦略に対する離散レプリケーター方程式
編集
連続レプリケーター方程式の「純粋戦略版」である(Eq-R2) から「混合戦略版」の(Eq-R3) を導いたのと同様の方法で、離散レプリケーター方程式の「混合戦略版」を「純粋戦略版」である(Eq-R5) から導くことができる。
すなわち、有限個の混合戦略
q
1
,
…
,
q
m
∈
Δ
n
{\displaystyle \mathbf {q} _{1},\ldots ,\mathbf {q} _{m}\in \Delta _{n}}
を取る個体が世代t においてそれぞれ割合
x
1
(
t
)
,
…
,
x
m
(
t
)
{\displaystyle x_{1}(t),\ldots ,x_{m}(t)}
だけ存在する個体群を考え、
x
(
t
)
=
(
x
1
(
t
)
,
…
,
x
m
(
t
)
)
T
{\displaystyle \mathbf {x} (t)=(x_{1}(t),\ldots ,x_{m}(t))^{T}}
とするとき、混合戦略
q
i
{\displaystyle \mathbf {q} _{i}}
を取る個体の利得の期待値
f
i
(
x
(
t
)
)
{\displaystyle f_{i}(\mathbf {x} (t))}
は平均混合戦略[ 54]
q
x
(
t
)
=
∑
j
=
1
m
x
j
(
t
)
q
j
{\displaystyle \mathbf {q} _{\mathbf {x} }(t)=\textstyle \sum _{j=1}^{m}x_{j}(t)\mathbf {q} _{j}}
…
を用いて
f
i
(
x
(
t
)
)
=
∑
j
x
j
(
t
)
E
(
q
i
(
t
)
,
q
j
(
t
)
)
)
+
β
=
q
i
(
t
)
T
A
q
x
(
t
)
+
β
{\displaystyle f_{i}(\mathbf {x} (t))=\sum _{j}x_{j}(t)E(\mathbf {q} _{i}(t),\mathbf {q} _{j}(t)))+\beta =\mathbf {q} _{i}(t)^{T}A\mathbf {q} _{\mathbf {x} }(t)+\beta }
と表記できるので、
x
i
(
t
+
1
)
=
q
i
T
A
q
x
(
t
)
+
β
q
x
T
A
q
x
(
t
)
+
β
x
i
(
t
)
for
i
=
1
,
…
,
m
{\displaystyle x_{i}(t+1)={\mathbf {q} _{i}^{T}A\mathbf {q} _{\mathbf {x} }(t)+\beta \over \mathbf {q} _{\mathbf {x} }^{T}A\mathbf {q} _{\mathbf {x} }(t)+\beta }x_{i}(t)~~~~~~{\text{for }}i=1,\ldots ,m}
…(Eq-R6)
となる。なお(Eq-R6) より明らかに比の等式
x
1
(
t
+
1
)
x
1
(
t
)
:
⋯
:
x
m
(
t
+
1
)
x
m
(
t
)
=
E
(
q
1
,
q
x
(
t
)
)
:
⋯
:
E
(
q
m
,
q
x
(
t
)
)
{\displaystyle {x_{1}(t+1) \over x_{1}(t)}~:~\cdots ~:~{x_{m}(t+1) \over x_{m}(t)}=E(\mathbf {q} _{1},\mathbf {q} _{\mathbf {x} }(t))~:~\cdots ~:~E(\mathbf {q} _{m},\mathbf {q} _{\mathbf {x} }(t))}
…(Eq-R7)
が成立する。ここで
E
(
p
,
q
)
=
p
T
A
q
+
β
{\displaystyle E(\mathbf {p} ,\mathbf {q} )=\mathbf {p} ^{T}A\mathbf {q} +\beta }
…(Eq-R8)
である。上の比の等式は左辺に登場する分母
x
i
(
t
)
{\displaystyle x_{i}(t)}
が0である場合は意味を持たないが、前節でも述べたのと同様の議論により、
x
i
(
t
)
{\displaystyle x_{i}(t)}
が0になるのは混合戦略
q
i
{\displaystyle \mathbf {q} _{i}}
を取る個体が個体群から絶滅した事を意味するので、以降のs に関しては常に
x
i
(
s
)
=
0
{\displaystyle x_{i}(s)=0}
であるものと解釈する。
離散レプリケーター方程式と進化的安定性との関係を見るため、(Eq-R7) でm =2 であるケースを考え、
x
(
t
)
=
x
1
(
t
)
{\displaystyle x(t)=x_{1}(t)}
、
q
=
q
1
{\displaystyle \mathbf {q} =\mathbf {q} _{1}}
、
q
^
=
q
2
{\displaystyle {\hat {\mathbf {q} }}=\mathbf {q} _{2}}
と略記すると、
x
2
(
t
)
=
1
−
x
(
t
)
{\displaystyle x_{2}(t)=1-x(t)}
なので
x
(
t
+
1
)
x
(
t
)
:
1
−
x
(
t
+
1
)
1
−
x
(
t
)
=
E
(
q
,
q
x
(
t
)
)
:
E
(
q
^
,
q
x
(
t
)
)
{\displaystyle {x(t+1) \over x(t)}~:~{1-x(t+1) \over 1-x(t)}=E(\mathbf {q} ,\mathbf {q} _{\mathbf {x} }(t))~:~E({\hat {\mathbf {q} }},\mathbf {q} _{\mathbf {x} }(t))}
…(Eq-R9)
である[ 54] 。ここでE は(Eq-R7) のように定義されており、
q
x
(
t
)
=
x
(
t
)
q
+
(
1
−
x
(
t
)
)
q
^
{\displaystyle \mathbf {q} _{\mathbf {x} }(t)=x(t)\mathbf {q} +(1-x(t)){\hat {\mathbf {q} }}}
…
であり、(Eq-R9) の左辺の分母が0である場合の解釈は前節と同様であるものとする。また離散レプリケーター方程式の利得は子供の数を示していたので、
E
(
q
,
q
)
,
E
(
q
^
,
q
^
)
≥
0
{\displaystyle E(\mathbf {q} ,\mathbf {q} ),~{\hat {E(\mathbf {q} }},{\hat {\mathbf {q} }})\geq 0}
が成立する事を仮定する。このとき、次が成立する[ 54] :
上述の定理は、個体群において
q
≠
q
^
{\displaystyle \mathbf {q} \neq {\hat {\mathbf {q} }}}
を取る個体の割合が進化的安定戦略
q
^
{\displaystyle {\hat {\mathbf {q} }}}
の侵入障壁よりも小さい時は、世代を重ねる事で
q
{\displaystyle \mathbf {q} }
を取る個体の割合が0に収束していく事を意味する。
証明
まず簡単なケースとして、ある
t
0
{\displaystyle t_{0}}
において
x
(
t
0
)
=
0
{\displaystyle x(t_{0})=0}
が成立する場合を考える。(Eq-R9) の左辺の分母が0になったという事であり、この場合は
t
0
{\displaystyle t_{0}}
以上の全てのt に対し
x
(
t
)
=
0
{\displaystyle x(t)=0}
であるとしていたので、明らかに目的の収束性
x
(
t
)
→
0
{\displaystyle x(t)\to 0}
が従う。よって以下、
x
(
t
)
≠
0
{\displaystyle x(t)\neq 0}
が全てのt に対して成立する場合のみを議論する。(Eq-R9) を変形すると、(Eq-R6) と同様の式
x
(
t
+
1
)
=
E
(
q
,
q
x
(
t
)
)
E
(
q
x
(
t
)
,
q
x
(
t
)
)
⋅
x
(
t
)
{\displaystyle x(t+1)={E(\mathbf {q} ,\mathbf {q} _{\mathbf {x} }(t)) \over E(\mathbf {q} _{\mathbf {x} }(t),\mathbf {q} _{\mathbf {x} }(t))}\cdot x(t)}
…(Eq-RP1)
が従う。これをさらに変形して
x
(
t
)
−
x
(
t
+
1
)
=
E
(
q
x
(
t
)
,
q
x
(
t
)
)
−
E
(
q
,
q
x
(
t
)
)
E
(
q
x
(
t
)
,
q
x
(
t
)
)
⋅
x
(
t
)
{\displaystyle x(t)-x(t+1)={E(\mathbf {q} _{\mathbf {x} }(t),\mathbf {q} _{\mathbf {x} }(t))-E(\mathbf {q} ,\mathbf {q} _{\mathbf {x} }(t)) \over E(\mathbf {q} _{\mathbf {x} }(t),\mathbf {q} _{\mathbf {x} }(t))}\cdot x(t)}
…(Eq-RP2)
を得る。(Eq-RP2) の分母は
E
(
q
x
(
t
)
,
q
x
(
t
)
)
=
x
(
t
)
2
E
(
q
,
q
)
+
x
(
t
)
(
1
−
x
(
t
)
)
E
(
q
,
q
^
)
+
x
(
t
)
(
1
−
x
(
t
)
)
E
(
q
^
,
q
)
+
(
1
−
x
(
t
)
)
2
E
(
q
^
,
q
^
)
≥
0
{\displaystyle E(\mathbf {q} _{\mathbf {x} }(t),\mathbf {q} _{\mathbf {x} }(t))=x(t)^{2}E(\mathbf {q} ,\mathbf {q} )+x(t)(1-x(t))E(\mathbf {q} ,{\hat {\mathbf {q} }})+x(t)(1-x(t))E({\hat {\mathbf {q} }},\mathbf {q} )+(1-x(t))^{2}E({\hat {\mathbf {q} }},{\hat {\mathbf {q} }})\geq 0}
を満たし、
E
(
q
x
(
t
)
,
q
x
(
t
)
)
=
0
{\displaystyle E(\mathbf {q} _{\mathbf {x} }(t),\mathbf {q} _{\mathbf {x} }(t))=0}
の場合は既に述べたようにs>t に対し
x
(
s
)
=
0
{\displaystyle x(s)=0}
であるので、以下
E
(
q
x
(
t
)
,
q
x
(
t
)
)
>
0
{\displaystyle E(\mathbf {q} _{\mathbf {x} }(t),\mathbf {q} _{\mathbf {x} }(t))>0}
であるとしてよい。
次に我々は(Eq-RP2) 式を利用する事で、
x
(
t
)
{\displaystyle x(t)}
が狭義単調減少 であるための条件を調べる。
[
0
,
1
]
{\displaystyle [0,1]}
区間に属する
x
(
t
)
{\displaystyle x(t)}
が単調減少であれば
x
(
t
)
{\displaystyle x(t)}
は何らかの非負の実数に収束するので 、我々が知りたかった
x
(
t
)
{\displaystyle x(t)}
の収束性に関する情報が得られるからである。
解析を簡単にするため、しばらくの間
x
(
t
)
≠
1
{\displaystyle x(t)\neq 1}
を仮定する。
狭義単調減少性
x
(
t
+
1
)
<
x
(
t
)
{\displaystyle x(t+1)<x(t)}
を満たす必要十分条件は、(Eq-RP2) 式の右辺がt によらず正になる事である。我々は(Eq-RP2) 式の分母
E
(
q
x
(
t
)
,
q
x
(
t
)
)
{\displaystyle E(\mathbf {q} _{\mathbf {x} }(t),\mathbf {q} _{\mathbf {x} }(t))}
が正である事をすでに示した。したがって(Eq-RP2) 式の右辺が正であるのは、
(
E
(
q
x
(
t
)
,
q
x
(
t
)
)
−
E
(
q
,
q
x
(
t
)
)
)
x
(
t
)
{\displaystyle (E(\mathbf {q} _{\mathbf {x} }(t),\mathbf {q} _{\mathbf {x} }(t))-E(\mathbf {q} ,\mathbf {q} _{\mathbf {x} }(t)))x(t)}
の場合である。割合
x
(
t
)
{\displaystyle x(t)}
は
0
≤
x
(
t
)
≤
1
{\displaystyle 0\leq x(t)\leq 1}
を満たしており、我々は
x
(
t
)
≠
0
{\displaystyle x(t)\neq 0}
のケースを考えていたので、結局
x
(
t
+
1
)
<
x
(
t
)
{\displaystyle x(t+1)<x(t)}
となる必要十分条件は
E
(
q
x
(
t
)
,
q
x
(
t
)
)
−
E
(
q
,
q
x
(
t
)
)
>
0
{\displaystyle E(\mathbf {q} _{\mathbf {x} }(t),\mathbf {q} _{\mathbf {x} }(t))-E(\mathbf {q} ,\mathbf {q} _{\mathbf {x} }(t))>0}
…(Eq-RP3) …
となる事である。
τ
t
{\displaystyle \tau _{t}}
の定義より、(Eq-RP3) 式の左辺は
(
1
−
x
(
t
)
)
(
E
(
q
^
,
q
x
(
t
)
)
−
E
(
q
,
q
x
(
t
)
)
)
>
0
{\displaystyle (1-x(t))(E({\hat {\mathbf {q} }},\mathbf {q} _{\mathbf {x} }(t))-E(\mathbf {q} ,\mathbf {q} _{\mathbf {x} }(t)))>0}
に等しい。前述のように
0
≤
x
(
t
)
≤
1
{\displaystyle 0\leq x(t)\leq 1}
で、
x
(
t
)
≠
1
{\displaystyle x(t)\neq 1}
を仮定していたので、(Eq-RP3) が成立する必要十分条件は
E
(
q
^
,
q
x
(
t
)
)
−
E
(
q
,
q
x
(
t
)
)
>
0
{\displaystyle E({\hat {\mathbf {q} }},\mathbf {q} _{\mathbf {x} }(t))-E(\mathbf {q} ,\mathbf {q} _{\mathbf {x} }(t))>0}
となる事である。再び
q
x
(
t
)
{\displaystyle \mathbf {q} _{\mathbf {x} }(t)}
の定義より、上式が成り立つ必要十分条件は
E
(
q
^
,
(
1
−
x
(
t
)
)
q
^
+
x
(
t
)
q
)
>
E
(
q
,
(
1
−
x
(
t
)
)
q
^
+
x
(
t
)
q
)
{\displaystyle E({\hat {\mathbf {q} }},(1-x(t)){\hat {\mathbf {q} }}+x(t)\mathbf {q} )>E(\mathbf {q} ,(1-x(t)){\hat {\mathbf {q} }}+x(t)\mathbf {q} )}
…(Eq-RP4)
が成立する事である。
以上の議論から
x
(
t
)
≠
1
{\displaystyle x(t)\neq 1}
であれば、
x
(
t
+
1
)
<
x
(
t
)
{\displaystyle x(t+1)<x(t)}
である必要十分条件は(Eq-RP4) が成立する事である事がわかった。
よって特に、
「
x
(
t
)
≠
1
{\displaystyle x(t)\neq 1}
かつ(Eq-RP4) が成立」⇒「
x
(
t
+
1
)
<
x
(
t
)
{\displaystyle x(t+1)<x(t)}
が成立」 …(Eq-RP5)
が結論づけられる。
さて、仮定より、
x
(
0
)
{\displaystyle x(0)}
は進化的安定戦略
q
^
{\displaystyle {\hat {\mathbf {q} }}}
の
q
≠
q
^
{\displaystyle \mathbf {q} \neq {\hat {\mathbf {q} }}}
に対する参入障壁
ε
0
{\displaystyle \varepsilon _{0}}
に対して
0
≤
x
(
0
)
<
ε
0
{\displaystyle 0\leq x(0)<\varepsilon _{0}}
を満たしていた。これはすなわち
t
=
0
{\displaystyle t=0}
に対し(Eq-RP4) が成立する事を意味し、当然
x
(
t
)
≠
1
{\displaystyle x(t)\neq 1}
でもあるので、(Eq-RP5) より、
x
(
1
)
<
x
(
0
)
<
ε
0
{\displaystyle x(1)<x(0)<\varepsilon _{0}}
が成立する。よって再び進化的安定性より(Eq-RP4) が成立し、
x
(
1
)
≠
1
{\displaystyle x(1)\neq 1}
も成立するので(Eq-RP5) より、
x
(
2
)
<
x
(
1
)
<
x
(
0
)
<
ε
0
{\displaystyle x(2)<x(1)<x(0)<\varepsilon _{0}}
も成立する。以下同様に考える事で数学的帰納法 により、
x
(
t
+
1
)
<
x
(
t
)
{\displaystyle x(t+1)<x(t)}
が任意のt に対して成立する事がわかる。すなわち
x
(
t
)
{\displaystyle x(t)}
は狭義単調減少である。
非負の単調減少列は収束する ので、
x
(
t
)
{\displaystyle x(t)}
はt →∞ の極限
x
∞
{\displaystyle x_{\infty }}
を持ち、
0
≤
x
∞
<
ε
{\displaystyle 0\leq x_{\infty }<\varepsilon }
である。
0
≤
x
∞
<
ε
{\displaystyle 0\leq x_{\infty }<\varepsilon }
である事から、再び進化的安定性より
E
(
q
^
,
(
1
−
x
∞
)
q
^
+
x
∞
q
)
>
E
(
q
,
(
1
−
x
∞
)
q
^
+
x
∞
q
)
{\displaystyle E({\hat {\mathbf {q} }},(1-x_{\infty }){\hat {\mathbf {q} }}+x_{\infty }\mathbf {q} )>E(\mathbf {q} ,(1-x_{\infty }){\hat {\mathbf {q} }}+x_{\infty }\mathbf {q} )}
である。したがって
r
∞
:=
(
1
−
x
∞
)
q
^
+
x
∞
q
{\displaystyle \mathbf {r} _{\infty }:=(1-x_{\infty }){\hat {\mathbf {q} }}+x_{\infty }\mathbf {q} }
とすれば、
E
(
q
^
,
r
∞
)
>
E
(
q
,
r
∞
)
{\displaystyle E({\hat {\mathbf {q} }},\mathbf {r} _{\infty })>E(\mathbf {q} ,\mathbf {r} _{\infty })}
である。
0
≤
x
∞
<
ε
{\displaystyle 0\leq x_{\infty }<\varepsilon }
より、
E
(
r
∞
,
r
∞
)
=
(
1
−
x
∞
)
E
(
q
^
,
r
∞
)
+
x
∞
E
(
q
,
r
∞
)
>
(
1
−
x
∞
)
E
(
q
,
r
∞
)
+
x
∞
E
(
q
,
r
∞
)
=
E
(
q
,
r
∞
)
{\displaystyle E(\mathbf {r} _{\infty },\mathbf {r} _{\infty })=(1-x_{\infty })E({\hat {\mathbf {q} }},\mathbf {r} _{\infty })+x_{\infty }E(\mathbf {q} ,\mathbf {r} _{\infty })>(1-x_{\infty })E(\mathbf {q} ,\mathbf {r} _{\infty })+x_{\infty }E(\mathbf {q} ,\mathbf {r} _{\infty })=E(\mathbf {q} ,\mathbf {r} _{\infty })}
…(Eq-Rp6)
である。一方(Eq-RP1) の分母を払って極限を取ると
E
(
τ
∞
,
τ
∞
)
⋅
x
∞
=
E
(
σ
,
τ
∞
)
⋅
x
∞
{\displaystyle E(\tau _{\infty },\tau _{\infty })\cdot x_{\infty }=E(\sigma ,\tau _{\infty })\cdot x_{\infty }}
が成立する。
x
∞
≠
0
{\displaystyle x_{\infty }\neq 0}
であれば上式両辺を
x
∞
{\displaystyle x_{\infty }}
で割る事ができるが、割った結果は(Eq-RP6) と矛盾する。したがって
x
t
{\displaystyle x_{t}}
のt →∞ における極限は
x
∞
=
0
{\displaystyle x_{\infty }=0}
である事が結論付けられる。
^ ゲーム理論では「行列ゲーム」という用語は2人零和の双行列ゲームを指す事が多いが[ 5] 、数理生物学では2人対称双行列ゲームの事を指すので[ 6] [ 7] 、本稿ではこれに従った。
^ 「generic payoff assumption(仮定)」という言葉を用いている事からもわかるように、あくまでこれらは生物学にありそうなシナリオから想定した仮定であり、純粋に数学的にはこの仮定がなりたたないケースを考えるのは容易である。例えば
E
(
⋅
,
⋅
)
{\displaystyle {\mathcal {E}}(\cdot ,\cdot )}
が恒等的に0であれば、
∂
∂
ε
h
σ
∗
,
σ
(
0
)
=
0
{\displaystyle {\partial \over \partial \varepsilon }h_{\sigma _{*},\sigma }(0)=0}
は明らかに全ての
(
σ
∗
,
σ
)
∈
X
2
{\displaystyle (\sigma _{*},\sigma )\in X^{2}}
で0である。また偏微分が0になる戦略全体の集合が零集合であっても、(何らかの制約条件等により)偏微分が0になるような戦略が確率1で成立するようなケースも数学的には考えうる。
^ 前節までは
p
(
t
)
{\displaystyle \mathbf {p} (t)}
を
∑
i
p
i
(
t
)
δ
i
{\displaystyle \textstyle \sum _{i}p_{i}(t)\delta _{i}}
という記号で表記していたが、本節では記号を単純にする為、上述のようなベクトル表記で表す。
^ 一般に「証明をつけようと思えばつけられると誰もが思っているが、実際には誰一人としてその証明をつけたことがない定理」のことを folklore (民間伝承) と呼ぶので、両定理ともフォーク定理と呼ばれている。
本稿全般に対する参考文献として下記のものがある:
その他にも下記を参考にしたが、上に挙げたものの方がより詳しく記述されているため、参考にした箇所は限定的である:
本稿で用いたゲーム理論の知識はどの教科書にも載っている初歩的な話に限定されているので、個別に引用する事はしなかったが、例えば下記の文献が参考になる(ただし進化的安定性については12章にお話的な記載があるのみ):
Hines, WGS (1987). “Evolutionary stable strategies: a review of basic theory”. Theoretical Population Biology 31 (2): 195–272. doi :10.1016/0040-5809(87)90029-3 . PMID 3296292 .
J. Hofbauer; K. Sigmund (1988). Evolutionary Games and Population Dynamics . Cambridge, U.K.: Cambridge Univ. Press
Leyton-Brown, Kevin; Shoham, Yoav (2008). Essentials of Game Theory: A Concise, Multidisciplinary Introduction . San Rafael, CA: Morgan & Claypool Publishers. ISBN 978-1-59829-593-1 . http://www.gtessentials.org . An 88-page mathematical introduction; see Section 3.8. Free online at many universities.
Geoff Parker (1984) Evolutionary stable strategies. In Behavioural Ecology: an Evolutionary Approach (2nd ed) Krebs, J.R. & Davies N.B., eds. pp 30–61. Blackwell, Oxford.
Shoham, Yoav; Leyton-Brown, Kevin (2009). Multiagent Systems: Algorithmic, Game-Theoretic, and Logical Foundations . New York: Cambridge University Press . ISBN 978-0-521-89943-7 . http://www.masfoundations.org . A comprehensive reference from a computational perspective; see Section 7.7. Downloadable free online .