質問 CPT対称性について質問があります。これは現在の素粒子理論の根幹となっていて、「これが破れていると素粒子の全ての理論を覆す大発見となる」と聞いたことがあるのですが、これによって現在の宇宙が物質優勢になった理由を直接的に示すことができるのでしょうか。【現代物理】
回答
 まず、CPT対称性について簡単に説明しておきましょう。場の量子論では、粒子は「電子場」「クォーク場」のような場によって記述されますが、こうした場は、一般に複素数で表されます(厳密に言えば、物理量は演算子で記述されるので、以下の文章で、「実数」は「エルミート演算子」、「複素共役」は「エルミート共役」などと読み替える必要がありますが、ややこしくなるので、ここではふつうの数のように扱います)。一般に粒子の場をφ(x,t) で表し、これをフーリエ展開すると、
  φ(x,t) = ∫[dk] { a ei(kx-ωt) + b* e-i(kx-ωt) }
となります。φが実数の場合は a=b ですが、φが複素数のときは a と b は独立した係数になります。この a と b が、それぞれ粒子と反粒子の強度を表しています(反粒子や反物質に関して、「時間を逆行しているのか」という質問もありますが、上の式からわかるように、単に時間t の符号が逆になっているだけです)。
 量子論には、「物理量は実数でなければならない」という強い要請があり、ハミルトニアンという物理系のダイナミクスを決定する物理量(値としてはエネルギーに等しい)も、複素共役を取ったときに元の値に戻らなければなりません。ハミルトニアンは、粒子場の変数やその微分を組み合わせたものなので、「全体の複素共役を取っても変わらない」とは、個々のφをその複素共役量で置き換えても不変だということです。ところが、φの式を見ればわかるように、この複素共役を取る操作は、
  空間反転(P) x → -x
  時間反転(T) t → -t
を行い、さらに、粒子と反粒子を入れ替える操作(C)を加えることと等しくなっています。したがって、C,P,Tという3つの操作を同時に行うならば、系のダイナミクスは変わらないはずです。これが「CPT対称性」と呼ばれる対称性です。CPT対称性が成り立っていると、粒子と反粒子が従う運動方程式は一部の符号を除いて同じものになるので、質量や相互作用定数の大きさが等しくなります。
 このように、CPT対称性の導出には、粒子場のフーリエ展開を利用しています。しかし、上のフーリエ展開の形は、時間や空間がローレンツ対称性を持つリジッドな“枠組み”であることを前提としており、重力の作用として時空がダイナミックに変化する一般相対論では、このようなフーリエ展開はできません。重力を含む量子論で CPT対称性がどこまで成り立つかは明らかでありませんが、重力の効果によってこの対称性が破れる可能性もあります。これまで、CPT対称性の破れに関する実験がいくつかの実験施設で行われましたが、今のところ、高い精度で対称性が成り立っているという結果が得られています(例えば、K中間子の特定の係数に関しては、10-21の精度で対称性が確かめられています)。しかし、重力の影響がきわめて強かった宇宙初期の名残としてCPT対称性がごくわずかに破れているという理論もあり、現在なお、研究が続けられています。
 なお、この宇宙で反物質より物質が圧倒的に多い理由は、(「CPT対称性」ではなく)「CP対称性」の破れによって説明できるという説が有力です。

【Q&A目次に戻る】

質問 製作したホログラムを再生する時に使われるレーザー(参照光)は人体に影響はないのでしょうか?【技術論】
回答
 結論から言えば、ディスプレイ用のホログラムの場合、光源を直接のぞき込まない限り、人体への影響はほとんどないでしょう。
 ホログラムの種類によっては自然光で再生できるものもありますが、フレネルホログラムなどでは、再生に可視光領域のレーザーが用いられます。一般に、レーザーは、(1)照射された部位が発熱することによる熱作用、(3)エネルギー密度が高いために発生する衝撃波の作用、(3)光化学反応−−によって人体に悪影響を及ぼす可能性があります。しかし、可視光レーザーはほとんど光化学反応を起こしませんし、ホログラムの参照光は衝撃波を発生するほどエネルギー密度が高くないので、ここで問題となるのは熱作用だけです。特に重大なのは眼の傷害です。網膜細胞は再生しないために、レーザー光を直視した場合は、網膜熱傷によって網膜の一部が永久的に欠落し、視力が大幅に低下することもあります。
 レーザーによる事故を避けるために、JISではクラス1からクラス4までのクラス分けに基づく安全基準が設けられています(現在では、クラス2M、クラス3Bなど7段階に分けられています)。クラス1は、対策を行わなくても安全が保てるレベルで、スーパーマーケットのPOSスキャナはこのレベルです。クラス2は、露光時間が0.25秒以下ならば安全なレベルです。可視光の場合は、レーザーが眼に照射されると瞬きなどによって0.25秒以内に光を遮るので、このレベルで傷害事故になることは滅多にありません。クラス3以上になると、眼傷害や皮膚の火傷が起こります。2000年頃にマスコミで取り上げられたレーザーポインタによる事故は、主に外国製のクラス3の製品によるケースです。
 ホログラムで回折された後のレーザー光は、光が散らばってエネルギー密度が低下しているので、危険性はありません。光源から出た光が直接眼に入ると危険な場合もありますが、理科教材や安価なディスプレイ用に使われるホログラムでは、出力1mW 程度のクラス2のレーザー発振器が使われることが多いので、じっと見続けない限り傷害事故にはなりません。

【Q&A目次に戻る】

質問 ソ連で開発された発明のためのシステムとして、TRIZ(発明的問題解決理論)というものがあります。40の発明原理、39の技術パラメータ、76の標準解、エフェクツからなる知識データベースを駆使する体系との事です。その普遍性に数学や物理学ほどのものはないだろうと思いつつも、実務上大変興味を持っております。物理を専門とする先生からみて、このシステムはどのように映るものでしょうか。ご感想をお聞かせください。【技術論】
回答
 TRIZについては、この質問で初めて知りました。
 図書館で参考書を何冊かパラパラめくった限りでは、あまり食指を動かされませんでした。1つの発想に拘泥して手近にあるはずの打開策を見つけられないでいるとき、TRIZは視点を変えるきっかけとして使えるかもしれません。しかし、システマティックな方法論としては、有効性が限られていると思われます。
 TRIZは多岐にわたる内容を含んでいますが、その中心部分である「技術的矛盾の解決」に関しては、次のようなものだと理解しています。まず、対象を機能的システムとしてモデル化し、解決すべき問題を、2つの要素(技術パラメータ)間のトレードオフの関係として定式化します。TRIZの開発者であるアルトシュラーは、この技術パラメータとして、「物体の重量」「エネルギー損失」「操作の容易さ」「信頼性」など39の要素を挙げています。さらに、アルトシュラーは、過去の特許事例をもとに、こうした問題が解決されるパターンは40の「発明原理」に分類できるとし、トレードオフの関係にある2つの要素を指定したときに、どの発明原理が適用されるケースが多いかを表の形でまとめました。技術パラメータが39あるので、この表は、39×39 のマトリクスの形になります。例えば、「信頼性を増そうとすると操作の容易さが失われる」といった「技術的矛盾」がある場合、「信頼性」の行と「操作の容易さ」の列の交わる項を見ると、適用すべき発明原理が1〜4個記されているというものです。
 こうしたTRIZの方法論で疑問に感じるのは、技術パラメータにせよ発明原理にせよ、異質のものがまぜこぜにされて何十個も列挙されている点です。技術パラメータとして、速度や温度のような物理的パラメータと、製造・修復の容易さといった工学的な要素が同列に扱われており、思いつく要素を場当たり的に並べた感があります(技術パラメータをいくつかのカテゴリに分けて整理したTRIZの改良版もあるようです)。
 40の発明原理として挙げられているものは、さらに雑多です。「分割(対象を独立したパーツに分割する)」「非対称(対称的な形状を非対称に変更する)」のように特定の方針を明示しているものもありますが、「逆転の発想(作用の向きを反対にする、可動部分と固定部分を入れ替える、物体をさかさまにする)」「別次元(利用されていない空間次元への展開、異なる動作ラインの採用)」のように判じ物めいた原理も少なくありません。TRIZは具体的な特許の事例に基づいているそうですが、これほど抽象化されたパターンだと、多様な発明が同じ原理の枠内にまとめられてしまいます。また、「多孔質素材の利用」「不活性雰囲気の利用」といった時代を感じさせる妙に具体的な原理もあります。現実に技術的課題に悩んでいる人が、こうした発明原理を提示されたとして、果たして解決策に到達できるかどうか、いささか疑わしいと言わざるを得ません。
 もっとも、対象をモデル化するという方法論に慣れていない技術者にとっては、TRIZの勉強もそれなりに有益でしょう。科学者(特に物理学者)は、同じ分野を研究する他の科学者と学術誌上や学会でさかんに議論を戦わせているので、具体的なデータの中から重要な論点を抽出し、図や式でモデル化して提示する作業はお手の物です。しかし、企業内で製品開発などに従事している技術者は、同業者と意見を交換することもままならず、実験機器や未完成品に囲まれたまま、何をすべきかわからず行き詰まってしまうケースも少なくないでしょう。TRIZの方法論を採用すると、対象をモデルとして捉え直すことによって問題点を一般的な形で定式化し、さらに、矛盾解決マトリクスで与えられた発明原理に従って、それまでとは異なる視点から対象を眺めるようになります。この「モデル化」と「視点の変更」が、新しい発想を導く可能性はあります。
 TRIZを愚直に適用するだけで新しい発明ができるとは思いませんが、技術者にとっては間接的に役に立つこともあるといったところでしょうか。

【Q&A目次に戻る】

質問 脳細胞は主に栄養をブドウ糖に依存しているらしいのですが何故なんでしょう。脂肪もエネルギー源にできたほうが生存上有利な気がするんですが。【その他】
回答
 人間の脳は、重量で体重の2%程度にすぎないのに、安静時で全エネルギー消費の20%弱、新生児期には50%を占めるエネルギー多消費型臓器です。にもかかわらず、エネルギー源として利用できるのは、血液によって供給されるブドウ糖(グルコース)にほぼ限られており、ブドウ糖以外の糖質や、脂肪、タンパク質もエネルギー源とする他の組織・臓器とは異なっています。骨格筋の場合、まず筋肉に貯蔵してあるグリコーゲンを利用し、それでも燃料が足りない場合は、脂肪組織に蓄えられている中性脂肪を代謝して不足分を補います。しかし、グリコーゲンや脂肪のような貯蔵燃料を使えない脳は、血糖値が下がるとすぐに機能不全に陥り、肝臓で作られるグルコースの供給が追いつかなければ、昏睡状態になって死に至ることもあります。
 なぜ燃料不足に陥る危険があるにもかかわらず、脳はグルコースしか利用しないのでしょうか。専門家でないので詳しくはわかりませんが、想像するに、燃料不足よりも有害物質のリスクが大きいために、進化の過程でエネルギー源を限定する選択が行われたのでしょう。
 脳の誤作動は、生体にとって致命的になるケースも少なくありません。このため、神経と血管の間にアストログリアと呼ばれる細胞が網状の緻密な組織を形成し、有害な物質の侵入を防ぐバリアとして機能しています。これが血液脳関門(脳血液関門)であり、水・酸素・二酸化炭素、脂質の膜を通過できる低分子の脂溶性物質、および、トランスポータによって能動的に移送される物質以外は、基本的には侵入を許しません(脂溶性のニコチンやヘロインは脳に侵入して機能を損ないます)。脳は、筋肉などと違ってほとんど成長しない(猛勉強したからと言って脳が大きくなることはない)上に、多くの物質をリサイクルして有効に使っているので、供給される物質が限られても、さして困らないのです。グルコースは、能動的移送によって血液脳関門を通過できる唯一のエネルギー源です。脳に入り込んだグルコースは解糖系で代謝され、分子レベルのエネルギー源であるATPを合成します。中間段階で作られる乳酸もニューロン内部で代謝されるので、水と二酸化炭素以外に、外部に排出しなければならない老廃物は生まれません。
 脳で脂肪を利用するためには、脂肪の合成・分解に伴うさまざまな物質が行き来することになり、脳が有害物質にさらされる危険性が増します。例えば、脂肪が代謝によって生成されるケトン体は、少量ならば脳でもエネルギー源として利用できますが、多量になると意識障害などを引き起こします。こうした危険性を避けるためにも、利用するエネルギー源の種類を限っておいた方が好ましいのでしょう。

【Q&A目次に戻る】

質問 量子力学の教科書では、波動方程式は半ば天下り的に与えられていて、私はそこのところでもうひっかかってしまったのでした。運動方程式を量子化すると称して、物理量を演算子で置き換えるのですが、そもそも何故そんなことをするのでしょうか? J.J.サクライの教科書では、一応それらしい説明がありましたが、ブラケット表示など使ってあって、私には高級すぎました。ところで、最近ある本を読んでいたら、波動方程式を理論的に導出することは厳密には出来ないと書いてありましたが、どうなのでしょうか?【現代物理】
回答
 量子力学は、それ以前の理論の直接的な発展形態ではなく、全く新しい理論として創造されたものです。量子力学の基礎方程式は、他の何かから導くことは不可能であり、天下り的にしか与えることはできません。
 ボーアの原子論など初期量子論の論文を読むとわかりますが、当時の研究者たちは、論理的にすっきりした形で理論を構築していったわけではありません。ニュートン力学やマクスウェル電磁気学では説明できないようなさまざまな現象を目の当たりにして、これらを解明する理論を何とかして作り上げようと、文字通り悪戦苦闘していたのです。教科書では、最終的な完成形に至るまで理論が順調に発展したかのように描かれています。しかし、実際には、現在の目から見ると信じられないような突飛なアイデアを捻り出しては、現象の説明に失敗して撤回するといった試行錯誤の繰り返しでした。そうこうしているうちに、物質波という奇怪な概念と、行列力学という訳の分からない計算手法が、共に1つの方向性を示していることが明らかになり、瓢箪から駒が出たような形で量子力学が完成されたのです。これは、科学の歴史でしばしば見られる“飛躍”であり、その過程を合理的に説明することは困難です。
 古典力学と量子力学を結びつける「対応原理」として、「物理量を演算子に、ポアソン括弧式を交換関係に対応させる」に対応させるというものがあります。しかし、古典力学から出発し対応原理によって量子力学を構築するという考え方は、物理学的に意味がありません。古典力学は、あくまで量子力学の古典近似であって、量子力学から導かれる理論です。両者が対等のレベルで対応しているのではなく、演算子や交換関係を古典近似で考えると、(c数として表される)物理量やポアソン括弧式になるという一方的な関係なのです(量子化の方法がわからないときに、対応原理を導きの糸とすることはありますが、それは初学者にはどうでも良い話です)
 量子力学には、量子ゆらぎと呼ばれる古典力学には存在しない現象が見られます。古典力学では確定した値を取る(粒子の位置のような)物理量も、量子力学では、量子ゆらぎのために不確定になります。こうした状況を扱うために、量子力学での物理量は、ヒルベルト空間上で定義される演算子によって表されます。逆に、量子ゆらぎを無視する近似が使える場合は、この演算子を期待値で置き換えてもかまいません。量子力学 から 古典力学 近似的に導く場合には、こうした置き換えが役に立ちます。
 古典力学の基礎方程式となるポアソン括弧式も、交換関係の古典近似として導けます。量子力学では、正準交換関係:
  [q, p] = qp - pq = ih/2π
が成り立ちます(簡単のため、正準変数は1組とします)。ここで、A=qnpm なる演算子の交換関係を考えると、n個のq(あるいはm個のp)のどれと入れ替えたときにお釣りの項をカウントするという選び方がn(あるいはm)通りあるため、
  [A, p] = nqn-1pm×(ih/2π) + O(h2) = ∂A/∂q×(ih/2π) + O(h2)
  [A, q] = -mqnpm-1(ih/2π) + O(h2) = -∂A/∂p×(ih/2π) + O(h2)
となります。一般に、qとpで多項式展開できる任意の演算子に関して、
  {A, p} = ∂A/∂q + O(h)
  {A, q} = -∂A/∂p + O(h)
となります。ただし、
  {…} = […]/(ih/2π)
です。この式は、hの高次項を無視する近似で、正準交換関係からポアソン括弧式と同じものが出てくることを意味します。つまり、古典力学は量子力学の古典近似として導かれるものなのです。もちろん、近似的な理論である古典力学から、より根本的な理論である量子力学を導くことはできません。
 量子力学を最初に勉強するとき、古典力学と無理に関係づけようとしても、混乱するだけです。まず、原子の安定性のように古典力学では説明できない現象を量子力学がどのように説明するかを学んだ上で、少しずつ対応関係を理解していくのが良いでしょう。

【Q&A目次に戻る】

質問 相対性理論や量子力学は、自分たちの実生活や事業などのどこに役立っているのでしょうか?【現代物理】
回答
 量子力学は、研究開発の至る所で利用されています。
 初期の応用例としては、核エネルギーの解放があります。1930年代の核物理学者は、半経験的な手法を取り入れながら核反応に関する近似式を作り、核分裂の反応断面積などを計算しました。その成果は、直接的には原子爆弾の開発につながりましたが、戦後は、原子力発電などに利用されています。
 第二次世界大戦後は、量子力学の計算手法が洗練され、さまざまな分野へと応用が拡がりました。エレクトロニクスの分野では、半導体の動作原理を解明し、製品を設計・製造する上で、量子力学が不可欠です。例えば、p型/n型半導体を製造する際に、どのような基板に何をドープすれば良いかを決めるには、量子力学的な電子軌道論の知識が必要です。レーザーや発光ダイオードも、量子力学なしには開発できませんでした。このほか、伝導性プラスチックのような新素材の開発、ナノスケールの微細加工、超伝導デバイスなどの設計といった分野で、量子力学が利用されています。近年では、医薬品などの開発につながる分子設計、量子コンピュータや量子暗号など、その応用範囲はますます拡がってきています。量子力学は科学技術文明を支える土台の役割を果たしていると言っても、過言ではないでしょう。
 これに比べると、相対論の成果は、社会的にあまり利用されていません。核分裂によって解放されるエネルギーを推定する際に、相対論から導かれるアインシュタインの関係式:E=mc2 が使われたことがありますが、これは、相対論の直接的な応用とは言えないでしょう。相対論は、光速に近い速度で運動する高エネルギー物体や超銀河スケールの天文学で重要になるものであって、日常生活と関わる分野とはあまり縁がありません。カーナビに使われるGPSの補正に相対論的な効果が取り入れられている程度でしょうか。

【Q&A目次に戻る】

質問 「ループ量子重力理論」について詳しくお教えいただけないでしょうか? 何かの記事で簡単な紹介を読んだだけなのですが、その理論によると、空間だけでなく、時間の進みも飛び飛びだそうです。時空間が飛び飛びだと、連続的な場合と比べて何が違うのでしょうか? また従来の理論(超ひも理論、M理論など)と比べて、どのような長所・短所がありますか?【現代物理】
回答
 ループ量子重力理論とは、1980年代後半に、アシュテカ、ロヴェッリ、スモーリンらによって端緒が開かれた理論で、超ひも理論(およびその進化形のM理論)とともに、あり得べき量子重力理論の有力候補とされています。超ひも理論が、重力を含めた全ての相互作用の統一を目標としているのに対して、ループ量子重力理論は、あくまで時間・空間がミクロの極限でどのようになるかに議論を絞っています。このため、両者は必ずしも排他的ではなく、それぞれのアイデアを取り入れた統合的な理論を構築することも不可能ではないと言われていますが、そこに至る道のりは途方もなく長いようです(私はそれほど詳しくありませんが)。
 重力を時空のダイナミクスとして扱うアインシュタインの一般相対論は、天体力学や宇宙論のスケールでは、きわめて高い精度で成り立っています。しかし、素粒子のレベルで他の力と同じように重力を量子化しようとすると、問題が生じます。ミクロの領域では、「量子ゆらぎ」という形でさまざなな時空の歪みが現れますが、一般相対論の相互作用には多くの微分項が含まれるため、こうした歪みが微分項を介して大きな寄与をもたらし、計算不能になってしまいます。理論を破綻させないために、ミクロの領域に何らかのカットオフを導入しようとすると、こんどは、一般相対論の大前提である一般共変性(座標を部分的に拡大・縮小したり捻ったりしても方程式の基本形は変わらないという性質)を否定することになってしまいます。
 ループ量子重力理論は、こうした問題を巧みに回避する方法を与えます。まず、力学変数を取り直します。アインシュタインは、計量場gμνを使って一般相対論を記述しましたが、これは量子化には向かない変数なので、代わりに、1986年にアシュテカが発明したアシュテカ変数と呼ばれる量を利用します。この変数をループ(3次元空間内部の閉曲線)αに沿ってある形で積分することによって得られるループ変数 T(α)は、座標変換に対して不変であり、量子化の際に便利だと判明しました(具体的な式の形は専門書を参照してください)。ループによって力学変数を定義することが、ループ量子重力という名前の由来です。
 量子力学は、基本的な力学変数q とその共役運動量p による古典的なポアソン括弧式において、ポアソン括弧を交換関係という演算子の関係に読み替えることによって作られます。これと同様に、ループ量子重力理論では、ループ変数 T(α) と、共役運動量に相当する高次のループ変数の間にあるポアソン括弧式に似た式(ループ代数の関係式)を演算子の関係に読み替え、ループ変数の演算子によって作られる状態として量子状態を定義します。こうした方法を採用することによって、重力は一般共変性を保ったまま量子化され、量子論的な励起状態は、どんな座標を使っても同じ状態として表されます。ループ変数を利用した量子化は、1986〜87年にロヴェッリとスモーリンによって開発されました。
 ループ変数を利用しているからと言っても、超ひも理論の「ひも」のように、1次元的な拡がりを持った実体が存在するわけではありません(超ひも理論の「ひも」も厳密に言えば実体ではないのですが)。ループを使って状態を定義するという1つの手法と考えてください。
 「ミクロの極限で量子ゆらぎが大きな寄与をもたらす」という問題は、考えるループを制限することによって解決しています。通常の幾何学では、あるループαを変形してできるループは、全て異なるものとして扱われます。しかし、一般相対論の世界では、座標変換しても理論が変わらないという「冗長性」があるので、滑らかな変形によって移行できるループは同じもの見なすことができる−−ループ量子重力理論の提唱者は、そう主張します。この結果、ループの計算を行うときに、あらゆるループを考える必要はなく、異なったトポロジー(絡み合い方)を持つものだけを考慮すれば良いことになり、極微の量子ゆらぎによる寄与を抑制することができます。
 ちなみに、制限されたループによる量子状態は、ペンローズが考案したスピンネットワークと呼ばれる図で表現することができます。こちらの方が直観的にわかりやすいので、一般向けの書物では、ループよりもスピンネットワークを使った解説が多く見受けられます。
 ループ量子重力理論の最も興味深い成果は、領域の体積がある最小値以上の離散的な値になることです。これは、特定のループしか考えなくて良いことの直接的な帰結です。体積を表す演算子をループ変数によって表し、ある量子状態に作用させたときの固有値を計算すると、L3×C となります。ただし、Cはスピンネットワークを使って代数的に計算できる離散的な値で、最小値は1のオーダーになります。また、L はループ代数の定義に使われる基本長で、通常 はプランク長10-35m に等しいとされます。この体積の値はきわめて小さいので、分子から構成されているはずの水が人間には連続媒質のように感じられるのと同様に、高エネルギー素粒子実験などの範囲では、時空も連続的な拡がりにしか見えません。体積が離散化されていることを検証する実験は、今世紀中は不可能でしょう。
 体積がある値以上の離散値になると言っても、空間がL3 程度の大きさのブロックからできていると考えてはいけません。理論が定義されているのはあくまで連続的な多様体であり、その上で実現される物理的な状態の拡がりを測定すると、飛び飛びの値しか得られないという意味です。もっとも、座標を表すために用いられる実数は、ε-δ法などからもわかるように「部分的にいくら拡大しても元の実数体と同じ構造になる」という物理的世界ではあり得ない性質を持っているので、実数による記述は人為的な虚構で、離散的な量子状態だけがリアルなのかもしれません。
 ループ量子重力理論は、いまだ建設途上であり、特に、時間方向のダイナミクスに関しては、さまざまな議論が錯綜している状況です。重力以外の相互作用を取り入れる方法についても不明な点が多々ありますし、そもそも、大スケールで見たときに古典的な一般相対論と一致するかどうかも明らかではありません(簡単なケースでは一致することが確かめられています)。個人的には、理論の基本前提が超絶的で理解困難な超ひも理論やM理論よりも、一般共変性をベースとするループ量子重力理論の方が、「素直な理論」だと感じられます。ただし、いつか完成するかどうかもわからない有様なので、これが究極的な理論かと問われると、首を傾げざるを得ません。

【Q&A目次に戻る】

質問 軍事衛星や偵察衛星はタバコの箱の大きさくらいの物を撮影できるということらしいですか、このような超望遠をどうやって実現しているのでしょうか?【技術論】
回答
 偵察衛星の分解能は軍事機密にされているので詳しいことはわかりませんが、一般的に言って、過大評価されているようです。偵察衛星の性能として、しばしば「分解能15cm」という表現がなされます。この数値自体、信憑性がはっきりしませんが、仮に正しいとしても、15cmの物体が見えるわけではありません。「分解能15cm」とは、15cm四方の範囲が1つのピクセル(画素)で表されることです。タバコの箱がそれと分かるように撮影できるためには、分解能がせめて1〜2cmでなければなりませんが、これは、現在の技術では不可能に近い値です。
 地球観測衛星の場合、地表での空間分解能は、1990年頃まで5mが技術的限界だと言われていましたが、1999年に軍事技術を転用したIKONOS によって1mの壁を突破し(最高で80cm)、こんにちでは60cmに達しているとのことです。軍事偵察衛星となると、(1)広範囲のスキャニングではなくピンポイント観測すれば良い、(2)自力でかなり高度を下げられる、(3)軍事予算がふんだんにつぎ込める−−などの理由で、民生用のものより何倍か高性能だと考えられますが、それでも10cmを切っているかどうか、怪しいところです。
 また、分解能が充分に上げられたとしても、衛星写真は、さまざまな原因でぼけています。原因の1つは、衛星で受信される可視光線や赤外線、マイクロ波などの電磁波が、大気の層を通過する間に、吸収・放射・散乱などの影響を受けることです。一部はカルマンフィルタを用いた推定によって補正可能ですが、エアロゾルによる散乱など除去困難なノイズもあり、多くの情報が不可逆的に失われています。何枚も写真を撮影してさまざまな画像処理を施したとしても、「新聞の見出しが読める」「人間の顔が識別できる」といったことは、まず無理です。
qa_256.gif  画像処理によって確定できるのは、ある程度以上の大きさを持つ物体のエッジです。エッジ周辺は、狭い範囲で明るさが急激に変化しているので、デジタル画像の差分処理を行うことにより、エッジを検出することが可能です。さらにノイズを除去し、中心線を割り出すことによって、かなりの精度でエッジの形がわかります。この技術により、例えば、基地にある戦闘機の輪郭や胴体の幅を分解能以上の精度で解析し、機種を特定することができます。軍事偵察衛星といっても、実際にやっているのはこの程度のことでしょう。
 ちなみに、最近、「グルジアでブッシュ大統領に手榴弾を投げた男を偵察衛星がキャッチした」というニュースが報じられ、あるワイドショーでは、その衛星写真として、犯人の顔がはっきりと見分けられるものを紹介していましたが、これは噴飯ものの誤報です(そもそも、軍事機密に属する偵察衛星の写真が、マスコミに提供されるわけがありません)。
 思うに、軍事技術が実際以上に評価されがちなのは、誰かが意図的に過大な情報を流しているためではないでしょうか。軍事技術を実際以上に見せることは、国の威信を高めるだけでなく、しばしば敵国に脅威を与える結果になります。実際、レーガン政権下のアメリカで進められた SDI(戦略防衛構想) は、多くの技術が実現不可能だったにもかかわらず、過剰に反応したソビエトに余分な軍事支出を強い、国家の崩壊を早めたと言われています。また、軍事予算の増額を求める際にも、現実離れした高度な技術が使われているという情報はプラスです。大半の政治家は技術に疎いので、虚偽の情報でも、何かと役に立てられるのです。

【Q&A目次に戻る】

質問 飛行機事故は、1度起きると立て続けに起きるというジンクスがあります。「めったに起きないことは1回起きると続いて起きやすい」ことを証明した人がいるという記事を目にしましたが、どんな証明なのでしょうか。【その他】
回答
qa_255.gif  証明まではわかりませんが、「めったに起きないが、ひとたび起きると連続しやすい」と感じられるケースは確かにあります。これらは、3つのパターンに分類できるでしょう。
  1. 偶然ではなく、実際に立て続けに起きる傾向がある : 稀にしか起きない事象でも、何らかのメカニズムによって連鎖が生じることがあります。地震の場合、最初に生じた地盤の動きが周辺でのひずみを増大させ、その結果として、何十年に1回という規模の地震が1年の間に複数回起きるケースがあります。
     飛行機事故に関しては、大型航空機の場合はともかく、グライダー(滑空機)事故は、確かに立て続けに起きる傾向がありそうです。1974〜2004年に国内で起きた大型航空機の事故について、「事故がある件数だけ起きた年が何回あったか」という頻度を調べると、誤差範囲内でポアソン分布(事故がランダムに起きると仮定したときの分布)に従っているように見えます(右上図;年間5回の事故が起きた年が31年間に6年もあるのは、やや多いかもしれませんが、このうちの3年は1974〜77年の間に集中しているので、まだ安全対策が不充分な時期の出来事だと解釈されます)。これに対して、グライダーの事故件数の分布(右下図)は、年間3〜4件にピークを持つランダムな分布に加えて、年間7件のところに別のピークがあります。これは、平年よりも事故が多発する年があることを意味します。事故多発年が存在する理由としては、(1)ブームなどのせいで年によって利用者数が大幅に変動する、(2)大きな事故の直後には事故防止対策が徹底して行われるが、何年も経つと安全への意識が低下する、(3)一時的なブームがあると、技量の未熟な者が操縦する機会が増える−−などが考えられます。
    事故件数については、佐久間光夫氏のホームページ "Aircraft Accident in Japan"(http://www.rinku.zaq.ne.jp/sakuma/accident.html)のデータを参照しました。ただし、大型航空機の場合は、病死(1999年以前の統計では事故の中に含まれていた)の件数を差し引いています。
  2. 立て続けに起きたケースだけ記憶している : めったに起きないことが続けざまに起きた場合は、そのことが強く記銘され、単独で起きた他のケースを忘れてしまうので、立て続けに起きるという印象だけが残ります。似たような例として、稀に発生する印象的な事件(大地震など)の直前に、ふだんはあまり気にとめない出来事(動物の異常行動など)が起きると、両者を関連づけて記憶しがちなことが知られています。
  3. ランダムに起きているのに、立て続けに起きる傾向があると感じる : 上に示した大型航空機事故の場合、通常は年2〜3回の頻度で事故が発生しているのに対して、7回も事故が起きた年(1979年)があります。まるで、この年だけ事故が事故を呼んだようにも見えますが、ポアソン分布のグラフからもわかるように、31年の間に7回事故が起きる年が1年あるのは、むしろ当たり前のことなのです。
     これと関連したケースとして、「V2ロケットに狙われた場所があるか」という問題があります。第二次世界大戦中に、ナチスドイツは、ロンドンに537発のV2ロケットを撃ち込みましたが、ロンドンを500メートル四方の広さを持つ576のブロックの分割すると、V2が着弾しなかったブロックが229だったのに対して、4発着弾した区域が7箇所、5発の区域も1箇所ありました。これだけの偏りがあるなら、ドイツ側は特定の場所に狙いを定めていたのではないかと思われたわけです。しかし、ポアソン分布に当てはめて計算すると、着弾数が0となるブロック数の期待値は226.74、着弾数4および5以上の場合は、それぞれ7.14、1.57 となり、実際の数とピタリと一致します。したがって、V2はランダムに撃ち込まれていたのであり、特定の場所を狙っているように感じられるのは錯覚だと言えます。人間は、何らかの傾向性を見いだそうとする特性があり、全くの偶然にも意味を感じてしまう生き物なのです。
    【参考文献】B.K.ホランド著『確率・統計で世界を読む』(白揚社)

【Q&A目次に戻る】



©Nobuo YOSHIDA