科学の方法論とは、「ある条件が与えられたとき、法則によって特定の結果が生じる」という形式で現象を分析することだと考えます。ところが、いわゆる心霊写真は、いくつかの理由でこうした方法論が通用せず、科学的に議論することが難しくなっています。
理由の1つは、人々に知られるようになった心霊写真が、膨大な数の写真の中から意図的に選び出されたものだという点です。フィルムで撮影した写真には、現像ムラやレンズの不良などのせいで、実際には存在しない奇妙な像が写り込んでいるものがあります(デジカメでも、機械的故障やソフトのバグなどで似たような現象が起きます)。その中から、たまたま顔や手のように見えるものを選び出して説明を求めても、満足のいく回答は得られません。顔や手の形になったのが全くの偶然である以上、「おそらく現像ムラではないか」とか「ネガの保存状態が悪かったんじゃないの」といった曖昧な答えしかできないのです。
頭や手が消えているケースも、ほとんどが偶然だと考えられます。例えば、暗い室内で撮影すると自動的にシャッター速度が遅くなりますが、このときに手先を素早く動かすと、そこだけ消えたようになります。また、高い襟のある服を着た人が深くうなだれているところを背後から撮ると、首のない写真ができあがります。多くの場合、手や頭の一部が写っているために原因が判明して笑い話で済みますが、何万枚かに1枚の割合で体の一部が鮮やかに消えてしまい、専門家も首をひねる“心霊写真”となります。瞬間的に変な姿勢を取った場合でも、シャッター速度が速いと、その姿勢をじっと保っているように見えるため、あるはずの手足がなかったり、ないはずのものがあったりするように感じられます。こうした偶然の産物は、「ある条件が与えられたときに常に生じる」ものではないため、科学的に解明することはかなり難しいと言えます。
心霊写真問題をさらに厄介にするのが、人為的な操作が介在しているケースが少なくないという点です。耳目を驚かしたいと欲するのは人の常であるため、捏造された心霊写真は、乾板写真が発明された直後の19世紀半ばに早くも登場しています。幽霊の姿が写っているとされる当時の写真の大半は、技術が稚拙なので、二重露光によるものと即座にわかります。しかし、最近のデジカメ写真は、パソコンを使えば誰でも簡単に加工できますし、画質の調整などをきちんと行ったものは、どこをどういじったかほとんど突き止められません。本格的な画像分析を行って加工の跡を見つけたとしても、科学に資することは何もなく、楽しみを無にされた制作者の恨みを買うだけなので、敢えてやろうとする人はほとんどいないでしょう。
ちなみに、私は、フジテレビで放映されていた『ほんとにあったら怖い話』の心霊写真コーナーで、稲垣吾郎が小学生と一緒にギャーギャー怖がるのを見るのが好きでした。イワコデジマ、イワコデジマ…
【Q&A目次に戻る】
この分野は専門ではないので、調べられた範囲で簡単に解説しておきます。
Hapkeモデルとは、1980年代にHapkeが考案したもので、多数の粒子から成る層に光(一般的には電磁波)が入射した場合、どのような散乱波が生じるかを記述する公式です。主に、天体の表土からの散乱波のデータをもとに粒子の大きさや間隙率などを推定する際に用いられます。
Hapkeモデルの出発点になるのは、1粒子による散乱です。ある波長の光が1粒子によって散乱され、入射波に対してαの方向に進む場合を考えます(α:位相角)。このとき、個々の散乱波のα依存性は、散乱する粒子によって異なりますが、問題としている表土について平均すると、ある分布関数 p(α) で表されます。多くの場合、p(α) としては、Henyey-Greenstein の散乱分布関数が使われます。この関数は、α=0 に唯一の極大値を持つ対称な関数で、関数形はパラメータgによって決定され、gが1に近いほどα=0 のピークが鋭くなります(正確に言えば、cosαの平均値が g になります)。gを適当に選べば、多くの実験のデータを近似的に再現することが知られています。
ここで、光が表土内を単位長さ進む間に散乱される割合を S、吸収される割合を A とすると、強度I
1の光がdζだけ進む間に、I
1Sdζが散乱、I
1Adζが吸収され、減衰率はS+A になります。また、単位体積の領域から位相角αの方向に散乱される光の強度は、平均すると、
I
1S p(α)/4π
で与えられます。
表面に入射角θ で入射した光が、表土内部で1回だけ散乱されて、外部に散乱角φで放出される場合を考えましょう(図の入射光・散乱光は、法線を含む同一平面上にあるとは限りません)。このとき、散乱波はさまざまな深さで散乱された波の重なりになるので、散乱光の光線に沿って積分する必要があります。表面に入射する光の強度を I
0 とすると、深さ d の散乱地点での強度 I
1は、減衰を考慮して、
I
1 = I
0 exp(-(S+A)d/cosθ)
となります。散乱されてから表面に達するまでの減衰効果も含めて、散乱光線に沿った経路ζ=d/cosφ で積分すると、散乱光の強度として、
∫dζ I
0 exp(-(S+A)ζcosφ/cosθ) exp(-(S+A)ζ)S p(α)/4π
= I
0 {cosθ/(cosθ + cosφ)}w p(α)/4π
が得られます。ただし、
w = S/(S+A)
は、1次散乱のアルベドです。これが基本式であり、Hapkeモデルは、次のような2次的な効果を段階的に取り入れて作られています。
- ホットスポット効果 : 位相角αが10°以下となるような逆方向への散乱光は、影になる部分が少ないなどいくつかの理由で、とりわけ明るくなります。この効果を考慮して、
p(α) → p'(α) = (1 + B(α)) p(α)
と置き換えます。ただし、B(α) はαが小さい領域で鋭いピークを持つ関数で、経験的に、
B(α) = b/{1 + (1/h) tan(α/2)}
のような関数が使われます。
- 多重散乱効果 : 表土内部で何回も散乱される効果を近似的に取り入れるため、
p'(α) → p'(α) + H(cosφ) H(cosθ) - 1
と置き換えます。H としてはいくつかの提案がありますが、
H(x) = (1 + 2x)/{1 + 2x(1-w)1/2}
という関数がよく使われます。
- 表面凹凸効果 : 表面がでこぼこしていることの影響として、入射光・散乱光の方位とともに表面の傾斜角の平均値に依存する因子が、式全体に乗じられます。
Hapkeモデルには、さらにいろいろな改良が加えられており、さまざまなバージョンが存在しています。
【Q&A目次に戻る】
量子重力理論の難しさは、そもそも、どのような形式の理論を考えれば良いのか明らかでない点に根ざしています。
1940年代の末に量子電磁気学が完成を見た後、重力場の量子化にチャレンジした物理学者は少なくありませんが、彼らの前に、さまざまな困難が立ちはだかりました。量子電磁気学の基本方程式は、外見上はマクスウェル理論と同じ形をしています。これは、マクスウェル理論を(ゲージ固定などの数学的テクニックを使って)そのまま量子化しても、量子効果が強く現れる短距離領域での振舞いが比較的穏やかで、いわゆる「くりこみの処方箋」によって対処できるからです。ところが、天文学的なスケールで重力場の振舞いを記述しているアインシュタイン方程式は、相互作用項に微分が含まれているため、短距離領域で場が激しく変動するようなケースでは、相互作用の大きさを求める積分が発散してしまい、「くりこみの処方箋」では何ともしがたくなります。くりこみとは、スケールを変えても基本方程式の形が変わらないことを前提とした手法ですから、これが使えないことは、量子重力理論の基本方程式が、アインシュタイン方程式とは全く違うものであることを意味します。「古典的な場の方程式をそのままにして量子化する」という従来のやり方が通用しないことが、量子重力理論を構築する際の最初のハードルでした。
初期の研究者の中には、古典的な重力理論の枠組みを大きく変えずに、くりこみに代わる別の処方箋を開発して、この問題に対処しようとする人もいました。しかし、しだいに、そうした小手先の技法ではなく、より根本的な解決策が必要だと考えられるようになります。その背景には、重力場が他の場と異なった根源的なものだという認識があります。電磁場やクォーク場など通常の量子場は、固定された時間・空間の“内部”にあります。これに対して、重力場は、時空構造そのものを決定する役割を果たしており、それだけ、他の場よりも根源的なものだと言えるでしょう。くりこみの処方は、「短距離極限ではどうなるかわからないが、ある程度以上のスケールならば、理論的予測が可能な実効的理論を作れる」というものであり、これに代わる処方箋も、短距離極限には目をつぶることが多かったのですが、量子重力理論は、そうした暫定的なものではなく、短距離極限でも成り立つ“完全な”理論であることが要求されました。従来の場の理論は、その域にまで達していなかったのですから、理論に対する要求水準は、きわめて高いと言えます。
さらに、理論の構築に当たって、実験データをもとに改良していくという方法が使えません。重力場に関する実験は、等価原理に関するものなど、実験室レベルでもいくつか行われていますが、量子重力理論の候補を選別していくだけのデータを提供してはくれません。将来、加速器でミニ・ブラックホールが造れるようになれば話は別ですが、現時点では、実験・観測データの手がかりのないまま、盲目的に突き進むしかありません。
量子重力理論に関しては、具体的な理論の形もよくわからず、実験データも手助けにならないまま、長距離極限ではアインシュタインの重力理論と一致し、短距離極限でも理論が破綻しないという異様に厳しい要求だけが突きつけられているといった状況です。研究者は、とりあえず思いついた理論をいくつか試しています(例えば、ひもを量子化したときの式が重力場と似ていることをきっかけとして、超ひも理論という量子重力理論の一つの候補が作り上げられました)。しかし、長距離極限の近似であるアインシュタイン理論が数学的にかなり難解な理論であったわけですから、完全な理論であるべき量子重力理論は、それに輪をかけて難解になっています。実験データとすぐに比較できないので、研究者は、こうした理論を数学的にあれこれひねりまわしながら、ブラックホールや初期宇宙に適用し、理論の良し悪しを決定しようとしています。通常の科学研究ならば、半ダース以上の候補理論についてこうした研究を行い、その中から実験・観測のふるいにかけて残るものを選び出すはずですが、量子重力理論は数学的にあまりに難しく、優秀な研究者を消耗するだけなので、それもままなりません。研究がなかなか進まない−−順調に進んでいると主張する人も一部にいますが−−のは、ある意味で、当然のことなのです。
【Q&A目次に戻る】
私の考えでは、自然科学とは「予測能力を持った仮説の体系」です。科学の役割は、すでに知られている現象を説明することではなく、同じ現象が再現されるための条件を明確にし、どの条件が変化すると現象に差異が生じるかを示すことです。運動方程式などの基礎方程式は、“科学的真理”といった仰々しいものではなく、それを仮定することによって多くの信頼できる予測が導き出せるという意味で「役に立つ」仮説にすぎません。科学の歴史は、より予測能力の高い仮説を作り上げていく過程であり、科学者たちは、新しい仮説が従来のものより優れていると認められれば、それを研究のベースとして採用することにあまりためらいを見せません。こうしたプラグマティックな方法論が、科学を信頼に値するものにしていると言えます。
ある仮説が高い予測能力を持つかどうかは、(あいまいな仮定が含まれない、多方面に応用可能であるといった)形式的な基準によっても評価されますが、最終的には、実験や観測を通じて検証することが必要です。現代科学では、仮説の検証に際して、経験的に最も信頼できるやり方として、「仮説演繹法」と呼ばれるやり方が採用されています。仮説演繹法とは、仮説そのものを直接的に検証するのではなく、仮説を構成する最も主要な部分に鋭敏に依存するような予測を演繹的に導き出し、それを実験や観測のデータと比較するというものです。科学は信念の体系ではないので、予測を導き出すに当たって、仮説を正しいものと信じている必要はありません。むしろ、その仮説を信じていない人でも、「仮にそれが成り立つとすれば演繹的に導ける」ような予測であることが、検証作業の正当性を高めると言えます。導かれた仮説とデータが誤差範囲内で一致すれば、仮説の信頼性はそれだけ高まりますが、少数のデータだけでは、正当性が保証されたとは言えません。多くの実験・観測を通じて繰り返し検証されることによって、漸進的に正当性が高まっていくというわけです。どの程度の検証にパスすれば正当化されたと言えるかは、経験的なものであって明示できる基準はありませんし、何に応用するかによって、要求される正当性のレベルも異なります。「研究者向けの教科書に定説として掲載する」という程度なら、必ずしも厳格な検証でない場合もありますが、「人命にかかわる装置の設計に利用する」ときには、当然のことながら、高度な検証作業が必要となります。
(製品開発などの目的ではなく)仮説の検証のために行われる実験や観測は、「どのような実験/観測を行えば良いか」が仮説そのものに依存しています。この結果、得られるデータの範囲があらかじめ限られてしまい、充分な検証となり得ないケースも出てきます。こうした問題を避けるために、通常は、異なる予測をもたらす複数の対抗仮説を用意し、データをもとにダメ仮説を棄却していきます。現象を説明し得る仮説を全て枚挙することができれば、データと一致しない仮説をふるい落としていって、きわめて信頼性の高い仮説を選び出せるはずです。現実には、可能な仮説を全て枚挙するのは困難ですが、多くの科学者に仮説を提出させることによって、それに準じる信頼性を得ようとしています。もっとも、参画している科学者が少ない分野では、充分な数の仮説が提出されず、検証の回数も少ないため、信頼性の乏しい仮説が通用していることは否めません。
研究が活発な分野で基礎的な原理・法則が学界で認められるまでには、通常、実験/観測に基づく検証作業が重ねられています。科学の信頼性はこの検証作業に基づいているのであって、暫定的な仮説にすぎない理論の形式的な美しさや、提唱者のネームバリューに頼っているわけではありません。
【Q&A目次に戻る】
別の回答で示したように、自転車で高速走行する場合には、安定性の確保に車輪の角運動量が重要な役割を果たしますが、速度が遅い、あるいは、車輪の質量が小さいときには、そうはいきません。安定を保つためには、傾いた側にハンドルをきって姿勢を立て直す必要があります。
まず、1つの車輪だけが転がる場合を考えましょう。仮に、摩擦によって速度が落ちることがないとすると、車輪は傾いたまま床上で円軌道を描いて運動することが可能になります。これは、重力を車輪面に平行な成分と水平な成分に分けたとき、この水平成分がちょうど遠心力と等しくなるような円運動解が存在するからです。したがって、もし車輪がこの円運動の半径より小さい半径でカーブした場合は、遠心力が体勢を立て直す方向に作用して、傾きが小さくなるはずです。こうした現象は、縁が適度な曲率を持った軽い車輪の場合に見られます。転がっている途中で何らかの理由で傾いたとすると、地面に接触している部分から中心までの距離は、傾きの内側の方が外側より小さくなるため、自動的に小さな曲率半径でカーブを描いて、傾きを小さくします。実際、1つの車輪を平らな床面で転がすと、ときにフラフラしながらも、かなりの長距離にわたって倒れずに転がり続けますが、これは、こうした自己安定化の作用があるからです。
人が乗る自転車の場合は、車輪が2つになって上のような自己安定化のメカニズムが働かない上に、重心が高く倒れやすくなるため、より能動的に安定させる必要があります。具体的には、傾きかけたときに、乗り手が素早く傾いた側にハンドルを切りながら、自分は体重を外側に残すようにします。通常の自転車では、ハンドルと前輪をつなぐ軸が、前輪の回転軸よりも後ろ側になるように設計されているので、ハンドルをきると、全体の重心は、前後輪の接地点を結ぶ線よりも傾きの外側になり、自身の重量で体勢を立て直すように作用するのです(右図)。なお、現在の自転車は、車体が傾くと、地面との摩擦を利用して自動的に前輪がカーブをきり、姿勢を立て直すものが多いそうです
(私自身は、自転車に乗らないので詳しくないのですが…)。
【Q&A目次に戻る】
素粒子を19世紀までの原子論における原子と同じようにイメージすることは、理論物理学を専門としない人にしばしば見られる大いなる誤解です。古典力学に基づく原子は、何もない空っぽの空間を飛び回る粒子として理解されています。しかし、素粒子は、その名に反して「粒子」ではありません。素粒子論とは、量子化された場の理論であり、素粒子とは、場の励起状態(excited state = 興奮した状態)を意味しています。電子は電子場の、光(光子)は電磁場の励起状態であり、電子場や電磁場の方が物理的な実体と言うべきものです。「電子や光子のような粒子の存在確率が、電子場や電磁場の波動関数で与えられる」というわけではありません。電子場はフェルミ統計に、電磁場はボーズ統計に従うため、電子の方がより粒子的に、光子の方がより波動的に振舞いますが、どちらも場が励起した状態という点では変わりありません。
原子の大きさ(最外殻電子軌道の大きさ)が10
-10m程度であるのに対して、原子核は10
-14m程度で、電子はいまだ大きさが判明していないほど小さいものですから、電子や原子核を粒子だと考えると、確かに、物質の内部はスカスカのはずです。しかし、すでに述べたように、電子は粒子ではありません。場としての電子の作用域は電子軌道の範囲に拡がっていると考えるべきであり、物質内部のほとんどの領域に、電子の作用が及んでいると言えます。一方、物質内部に進入した光も、点状の光子の集まりではなく、拡がった場として振舞います(ただし、γ線のような波長の短い光は、粒子性が強く現れるので、近似的に粒子として扱うことができます)。媒質中を進行する過程で、光は多くの電子−−フェルミ統計に従う素粒子は、個数が決められます−−と相互作用するため、全体として大きな影響を受けます。直観的に言えば、電磁場は、媒質中では電子(の場)を振動させながら進むため、位相が遅れて真空中よりも速度が遅くなるのです。
【Q&A目次に戻る】
レーザービームが大気中でどの程度減衰するかは、波長に依存します。レーガン政権時代のSDI(戦略防衛構想)に登場するX線レーザーは、大気中では急激に減衰して使い物にならないため、宇宙空間での使用が検討されていました。現在、ミサイル防衛構想で実用化が目指されているレーザーは、大気中で比較的減衰しにくい赤外領域(波長数ミクロン程度)のものですが、塵や水滴に散乱されるため、あまり長距離には使えないはずです。
質問にあるノーチラスシステムをインターネットで検索したところ、フッ化重水素化学レーザーで長さ3mほどのロケット弾を撃墜したことは判明しましたが、射程や威力について詳しいデータは得られませんでした。関連記事などから推測すると、たかだか数km以内に飛来した目標を攻撃する兵器のようで、あくまで、局地戦における短距離ミサイル(というよりロケット弾)の迎撃を目指しているものと思われます。
中長距離ミサイルにも対応できるようにするには、きわめて大出力の化学レーザーを開発するか、あるいは、レーザー発射装置を大型機に搭載して空気の薄い高度から狙い撃ちするエアボーンレーザーを利用するしかないでしょう。いずれも開発中ですが、実戦配備までには、まだ時間がかかりそうです。弾道ミサイルの場合は、技術的に見て迎撃はきわめて難しいと言えます
(そもそも、ミサイル防衛網の必要のない世界を作る方が重要です)。
【Q&A目次に戻る】
強磁性体の磁化は、いくつかの理由で、原理的に可能な最大の強度にはなっていません。したがって、外部磁場を加えると、より強く磁化されていきます。
通常の試料における磁気モーメントが飽和磁化よりもはるかに小さくなるのは、主に、試料の内部で、自発磁化が異なる方向を向いた磁区が形成されるためです。強磁性体では、スピンを互いに平行に揃えるような相互作用が働いており、キュリー温度よりはるかに低温の領域では、この作用が熱による擾乱に打ち勝って、近隣の磁気モーメントは同じ方向を向いています。しかし、マクロなスケールで見ると、結晶全体で同じ向きに揃うことはなく、通常は、異なる方向に磁化した領域(磁区)に分かれています。こうした磁区は、スピンの方向が遷移する薄い遷移層(ブロッホの壁)によって隔てられています。ブロッホの壁の厚さは、スピンが平行でないことから生じる交換エネルギー(壁が薄いほど大きい)と、磁化しやすい結晶軸からスピンの向きがずれることによる異方化エネルギー(壁が厚いほど大きい)のバランスによって決まり、鉄の結晶の場合は、約300の原子層を含む厚さになります。
強磁性体の結晶が複数の磁区が併存するような構造を取るのは、その方がエネルギー的に安定するからです。図の左のように、結晶全体が単磁区構造になると、外部に磁力線が漏れ出るため、∫H
2dV に比例する静磁場エネルギーはかなり大きな値になります。しかし、図の右のように、磁区構造によって結晶内部での磁束の回路が閉じるようになると、静磁場エネルギーはほぼゼロになります。実際の結晶では、異方化エネルギーやブロッホの壁の寄与などを考慮する必要があるため、かなり複雑になりますが、静磁場エネルギーを小さくするために磁区が生じるという原則は同じです。
外部磁場を加えると、ブロッホの壁が移動することによって、外部磁場に近くエネルギー的に得な向きの磁区の体積が増大し、そうでない磁区の体積が減少します(図参照)。その結果として、試料全体の磁気モーメントは大きくなります。壁の移動は、外部磁場が弱い場合は可逆的ですが、磁場が強くなるにつれて不可逆となり、それとともに、磁気モーメントは急激に増大します。
さらに外部磁場を強くすると、磁化の向きが回転し始めます。回転が起きるには、磁化しやすい結晶軸からずらされることによる異方化エネルギーの増大を、外部磁場との相互作用による静磁場エネルギーの減少が上回る必要があります。最終的には、試料全体が外部磁場と同じ向きに磁化される飽和状態に漸近していきます。
【Q&A目次に戻る】
従来のコンピュータでは、「0か1のいずれか」という1ビットの情報が基本単位として扱われています。情報処理の1ステップは、AND, OR, NOT などの論理ゲートに1ないし2ビットの情報を入力し、1ビットの情報を出力することで実行されます。これに対して、量子コンピュータは、0と1を表す状態 |0〉と|1〉の重ね合わせの状態
|ψ〉= a|0〉+ b|1〉 (|a|
2+|b|
2=1)
が可能です(|0〉と|1〉としては、原子の固有状態などが用いられます)。従来の NOTゲートは、
|0〉→ |1〉
|1〉→ |0〉
のように、単に入力された状態を反転するだけですが、量子コンピュータの NOTゲートは、
|ψ〉= a|0〉+ b|1〉→ |ψ'〉= b|0〉+ a|1〉
のように重ね合わせの状態を変化させます。これは、ある意味で、入力が|0〉のケースと |1〉のケースを同時に処理したことに相当します。もし、重ね合わせの状態のまま情報処理を行う複数の量子論理ゲートを組み合わせて使うことができれば、従来のコンピュータでは、組み合わせの数が膨大になって完了するまで何年もかかるような計算を、短時間で実行することも可能になると期待されています。実際には、重ね合わせの状態を維持するのが難しく、実用的な量子コンピュータの実現までには、まだ乗り越えなければならない技術的なハードルがいくつもありますが、少なくともその動作原理に関しては、SF的な夢想ではなくなっています。
量子コンピュータが重ね合わせの状態のままで情報処理を行うことは、確かに直観的に理解するのが難しいと言えますが、次のように考えると、幾分かわかりやすくなると思います。
従来の素子では、キャパシタに電荷が蓄えられているかどうかで1ビットの情報を表しますが、この2つの状態は、同時に実現されることのない背反的な事象であり、重ね合わせの状態は考えられません。しかし、量子力学的な状態は、もともと背反的な事象ではなく、重ね合わせの状態はリアルなものです。例えば、電子のスピンは上向きと下向きに量子化されていると言われますが、これは、あくまで、観測可能なのがこの2つに限られるということであって、物理的には、連続的な変化が可能な自由度を持っています。電子のスピン状態を観測する場合は、外部から磁場を加え、これに平行か反平行かによってエネルギー準位が異なるようにするので、平行・反平行のいずれか一方だけが、長時間にわたって安定して維持されるエネルギー固有状態として、観測にかかる状態となります。しかし、外部磁場が充分に小さければ、特定の向きで量子化されることはなく、スピンはどの方向も向くことができます。任意の方向を向いたスピン状態は、特定の向きで量子化された2つの状態 |0〉と |1〉の重ね合わせとして表されます。つまり、スピンの重ね合わせ状態とは、上向きと下向きが混じった奇妙な状態というよりも、|0〉と |1〉を定義したのとは異なる方向を向いた状態のことであり、リアルな状態と考えてかまいません。
量子コンピュータでは、量子系がもともと持っていた連続的な自由度をそのまま活かして計算を行っているので、従来のコンピュータではできない並列計算が可能になったとも言えます。
【Q&A目次に戻る】
©Nobuo YOSHIDA