「よいモデルとはなんだろうか?」          保全生態学研究 4, 143-149. (1999)

 

巌佐 庸
 
はじめに

 今回のシンポジウムでは、モデリングがテーマとして取り上げられました。鷲谷さんや松田さんのお話によると、ある程度定量的な推定やシミュレーションが保全の場面でも重要になってきているとのことです。生態学で理論やモデリングを専門にしている私たちとしては大変ありがたいことと思う一方で、その期待に答えられるように仕事を進めねばと感じます。

 同じ生態学会の前日には、「計算生態学」という自由集会があり、本セッションの講演者である竹中明夫さんも話題提供をされました。コンピュータの計算速度は毎年2倍と思えるほどに急激に高速になり、また安くなっています。そのため、昔では考えられなかった新しいモデリング方式が可能になってきました。竹中さんが詳しくお話された個体基礎模型は、その好例です。あるクラスに属する個体の数ではなくて、個々の個体の成長や死亡などを追跡するわけです。これだとかつては困難であった側面を自由に取り込むことができます。

 コンピュータの高速化ですすんだ第2の側面は、空間構造を取り込んだモデリングでしょう。波田先生のお話にあったように、生物集団や群集の保全を考えるときにも地形・地質といった情報を取り込むことが必要で、これは景観生態学と言われ、そのようなモデリングも盛んになりつつあります.もう一人の話題提供者の佐藤さんの専門は、空間構造のある個体群動態です。かつてのような個体数の平均密度による取り扱いは不十分であり、個体のかたまり具合が個体群動態に効いてくることが明らかになっています。空間構造のある集団や群集の動態・進化をどのように捉えられるかは、理論生態学においてここ10年ほどで一番重要なコンセプトの1つとなっています。


よいモデルとは何か?

 本シンポジウムセッションはモデリングの最近の進歩に関連したいろいろな話題をうまくカバーしています。以下では、私が日頃考えていることについて1つだけ述べたいと思います。それは、そもそもよいモデルとは何だろうかということです。

 かつてCarl Walters やDon Ludwigたちが、詳細なモデルと単純化したモデルを比較検討した研究をしました。私もモデルの単純化(アグリゲーション)の一般論を考えたことがあります。その結論の1つは、何がもっとも適切ですぐれたモデルであるかは、そのモデルを使用する目的によって異なるということです。たとえば短い時間での予測に適したモデルは非常に長い遠い将来での挙動を予測するにはよいとは限らないのです。種組成を正確に予測したい場合とエネルギーや栄養塩類の流れを知りたい場合とは使うべきモデルが違ってきます。

 モデルには多数のパラメータや関数が含まれますが、それらを推定するには多量のデータと基礎知識が必要です。第2の結論は、パラメータ推定に使えるデータとその信頼性によって、どの程度に詳細なモデルが望ましいかが異なってくることです。データが限られている状況では、ごく単純なモデルしか使えないことになります。

 このことは保全生物の場合にはとても重要です。というのも、モデリングに入る前に正確に推定できるまで十分に生態調査をすることが許されない場合が多いからです。ときには対象となる集団そのもののデータがないので他の生息地での情報を借用する、またその種に関するデモグラフィーが不明なのでそれと似た異なる種のデータを使う、といったことをせねばなりません。不確定な中でなお推定をし、政策の評価や推奨をせねばならないというのが保全生物学の宿命です。

 だから仮定が少々間違っていても、知りたい結論は変わらない、「ロバスト」である、ということがモデルにとってもっとも重要でなのです。またある結論にはどの程度の不確定性がともなうのか、にはいつも注意を払っておかねばなりません。


問題ごとに別のモデルを、

 むかしIBPのころ、コンピュータモデリングのはじまりだったと思いますが、たとえば湖、森林といった生態系に生じていることをすべて予測できるコンピュータモデリングをつくろうとするプロジェクトがありました。その生態系に対しての問いであればどのようなことにも答えられる万能モデルが目標だったのです。魚、それの餌である動物プランクトン、その餌の植物プランクトンといった食物網はもちろん取込み、水深さで分けたり、場所で分けたり、また齢構造、サイズ構造などと考えていけばモデルはどんどんと大きくなります。結局、最初に計画した生態系総合モデルというのは遂に完成できなかったと聞いています。

 このような経験から、現在行なわれているIGBPの陸域生態系予測部門では、1つのモデルですべてを予測するのではなく、時間スケールも空間スケールも異なる多数のモデルを組み合せることによって生態系の応答の予測を行なうという方針になっています。自然のミニチュアをコンピュータの中に作るのではモデリングはうまく行かないのです。

モデルの信頼性を調べる方法を確立することが急務

 生態学者の人が野外の動物植物について調査をしたときには、どのような結論についても、それは統計的に有意なのか、データによってその結論はサポートされているのかが、いつも慎重に問うでしょう。帰無仮説をつねに考えます。たとえばある植物と別の植物とが光合成速度が違うといったことは、実験的に測定して有意な差があるということが示されなければ、同じと結論せねばなりません。ところが同じ生態学者が、いざコンピュータモデリングになると、より複雑で現実的に見えるモデルをすぐれていると見なす傾向があります。データを説明するために本当に必要なのかどうかは問わずに、成長率などはとりあえず種によって違ったものと仮定したモデルをつくり、あとでそれらの値を埋めるという作業をします。

 非常に大きな問題は、このようにしてつくったモデルの予測や結論がどの程度の信頼性をおけるのかを評価する客観的な方法が確立されていないことです。もっともらしいパラメータのもとでのモデルの予測を出してみて、納得できる挙動であれば、モデルが正しいとして使うということが行なわれ、Model validationといわれます。しかし、モデルに含まれる膨大な数のパラメータと未知関数の仮定が正しいかどうか、それらに比べれば少数の出力の形で確かめることはできないはずです。統計的なデータ解析法には、AICなどのモデル選択の手法があるわけですから、コンピュータモデリングについても、複雑過ぎるモデルを根拠なく採用することのないようにチェックする手続を確立することが、いま一番大事なことだと私は思います。

 多数のパラメータと未知関数を含むモデルはどのような振舞いをするかについてすべての可能性を探ることは不可能でしょう。そこで、より簡単なモデルをつくり、その挙動を詳細に解析し、その単純なモデルと現実的なモデルとの比較によってもとのモデルの挙動を理解するという作業が必要になります。簡単なモデルの方が挙動がよく理解できますし、ダイレクトなシミュレーションだけでなく、さまざまな数理解析が可能になります。

 このような解析プロセスを十分に経てモデルの挙動を理解することはかなりの手間をかけねばできません。
 また複雑すぎるモデルでは、挙動が分からないために「発見」ができません。モデラーがあらかじめこうなるだろうと思っていた挙動がでることを確かめることが目的になりがちです。

 そもそもすべてのモデルは、単純化したもので、それはどのように現実的に複雑にしても自然そのものにはなり得ないのです。そのことを忘れてしまう傾向があります。そのため、私達には、データの量や質を越えた複雑なモデルをつくる傾向があり、信頼できるモデリングを行なうには、この心理傾向を乗り越えることが必要です。

 「現在のモデリング目的が達成できるものの中でもっとも単純なモデルが最良のモデルである。」というのがLudwig達の結論でした。


生態学でのモデリングの3つの分野

 ここで、生態学に関連したモデリングもしくは理論的研究と言われるものを、3つの分野に分けて考えてみます(図1)。

 まず生態モデリング(Ecological Modelling)です。たとえば新しく発電所をつくると、温排水の影響で川の生物がどのような影響を受けるかといった調査が行なわれるとすれば、シミュレータをつくって予測をします。これは保全生態学でももっとも馴染みがある分野でしょう。具体的な対象に対して、量的な予測をしてくれます。

 政策決定などに使おうとすると説得力を持たせるために、モデルが現実的なものであることを強調し、「季節変動も入っています」「捕食者も」「種子の流入も」という具合に、その系に対して知られていることは何でもモデルに取り込んでしまおうとする傾向があります。

 2つ目は、数理生態学(Mathematical Ecology)という分野で、そこにはLotka-Volterra 以来の伝統があります。数理生態学の研究テーマは、「なぜ湿潤熱帯では温帯よりも共存する種数が大きいのか」「外来生物が新しい生息地で広がるスピードは何によってきまるのか」「捕食者がいることで競争者が共存しやすくなることは可能か」「生息地が縮小したときに絶滅リスクはどのように増大するか」といった生態学の一般的な問いです。モデルは通常極めて単純です。その代わり平衡状態を求めてそれがパラメータにどのように依存するかを調べたり、複数の平衡状態があるのか、システムがいつまでも振動を続けることは可能か、といった数理的解析を行ないます。結論が一般的である一方で、個々の生息地での具体的な生物集団の推定や管理には直結しないかもしれません。

 第3の分野が、生物統計学(Statistical Ecology)もしくは統計生態学です。出来合いの統計手法を生態現象に当てはめるという応用にはとどまりません。コンピュータが速くなったために、ブートストラップやモンテカルロ法など多量のランダム化計算に依存した方法が手軽に使えるようになりました。統計学はこれまで農学・生態学・集団遺伝学などの問題に答えるべき発展してきた歴史があります。保全生態学に必要な新しい統計手法が発展することは大いにありそうなことです。

 これら3つの研究領域は、これまでほぼ独立して進歩してきました。これからはこれらが融合した形へと進むのではないかと私は期待しています。モデリングと統計学、数理解析が融合しつつある1つの例としては、人の感染症データの解析があります。たとえばイギリスの各都市における患者数の刻一刻の変動データが得られており、それをもとにして、さまざまなレベルのモデリングとそれらの予測力の比較が行なわれています。もう一つの例は、竹中さんが話された森林の更新過程のデータがあります。熱帯季節林BCIの50haプロットがよい例ですが、時系列としては短くても地図の形で個々の樹木の位置と状態が記録されています。それからギャップのそばでは樹木が倒れやすいなどという個体間の相互作用、種子分散の範囲、地形の影響などを読み取ることはまさに統計学の仕事です。その一方でそのような相互作用のある集団はどのような運命をたどるのか、どのような空間パターンをつくり出すのかを予測することはモデリングなわけです。シミュレータの構造をデータに合わせてつくり、逆にデータの取りかたについては最終的につくるべきシミュレータに必要な測定の仕方をし、統計法や推定の信頼性についても十分な検討をしてから本格的調査をすすめることが行なわれるようになっています。竹中さんが紹介されたコネチカットの森林を念頭においたSortieというシミュレータはそのようにしてつくられたものです。

 一方パラメータの最尤推定をコンピュータによる繰返し計算にもとづいて行なうとすれば、統計とモデリングとは地続きです。最尤推定を行なうにはモデルを特定することが必要になるからです。そうなると、結論の信頼性に対する十分な検討なしにモデルだけつくるというのでは信頼されなくなってくると思います。

 一方で理論生態学の課題は、地理的ヘテロジェネイティーの効果、空間自己相関、スケール則など、より具体的な空間構造データのパターンに答えるものになりつつあります。

 そしてこれらの分野の融合にはコンピュータの高速化が重要なのです。

 こういう一般的な話だけではと思い、自由集会の当日には、箱山 洋さん(北海道区水産研究所)による絶滅リスク推定の新しい方法についてごく簡単に紹介いたしました。それは、時系列しか手に入らないとき、もしくは増殖率は知っているけれども環境収容力や環境変動の大きさについては個体数の時系列から推定し、それをもとに平均絶滅時間を予測する話でした。どの程度の信頼性をもって推定できるのかは、モンテカルロ法をもちいると知ることができます。また推定法にかなり強いバイアスがあっても、それを除去することができます。ただし多量の繰返し計算が要求されますので、コンピュータが高速になったいまだからこそ実用になった方法といってよいでしょう。


保全の管理方式を検討するためのモデリング

 シンポジウムでの話題は、さまざまなシナリオのもとで野外の集団の将来の運命を予測するものでした。私は、保全のための数理モデルとしては、人間が行なう保全の努力の影響やその意志決定過程をも直接取り込んだモデルを開発して行くことが今後はますます必要になってくると思います。それに関連して、現在、九州大学理学研究科の山下 仁さんと私とで進めている課題について簡単に紹介をしましょう。

 アダプティブマネッジメントという言葉があります。保全の方法は、最初にすべてを決めてしまうのがよいとは限りません。むしろ、絶滅の危険のある対象個体群の様子をモニタリングしながら、逐次対処する方が望ましいこともあります。また施策がどの程度効果的なのかについても試しにやってみて結果をみることを通じて次第に分かってくることもあります。このようなダイナミックな意志決定の枠組みを調べてみました(図2)。

 生存率に確率的なノイズの加わるような個体群を仮定し、これに対して、絶滅確率の期待値と施策のコストの和を最小化するような政策をダイナミックプログラミングを用いて求めるのです。環境変動の幅が大きいほど保全の手を厚く加えるべきかといえば、意外なことに必ずしもそうではなく、変動の分散が大きすぎると保全の効果が薄いと考えて諦めてしまうことが分かりました。最適保全努力は、中間の環境分散をもつ集団で最大になるのです。また、最適保全努力は分散だけでなく分布の形(裾の広がりなど)にも強く依存することが分かります。

 施策の効果や個体数、ノイズの分散といった不確実なパラメータの推定精度が政策決定や絶滅確率におよぼす影響を評価しました。この感度が強いほど、そのパラメータを知るための研究努力は重要だということになります。面白いことに、もともと価値の極めて高いことが分かっている集団よりも、保全の価値が明らかではない集団こそ、研究努力を重点的に傾けるべきだという結論が導かれます。価値が高い集団は、とりあえず多量の保全努力によって絶滅のリスクをごく小さくすべきで、保全価値が低い集団では、よく調べた値によって保全すべきかどうかが、大きく異なるからなのでしょう。

 また異なる生息地や異なる生物種のうちどれかに重点をおくべきか、広く保全すべきか、ということを考えるような枠組みをつくることも大事になってくると思います。そのときには、保全の施策が社会に対してもたらすコストや保全の効果などを客観的に議論できる考え方や手法をつくることが求められるはずです。こうなると生態学といった自然科学を越えて、環境経済学や社会科学の知識を取り込んだモデリングが必要になると思います。

 



Back       Top