この回答では、読者が量子力学や統計力学についてある程度の知識を持っていることを前提としています。
量子情報理論(Quantum Information Theory)には、量子通信・量子暗号・量子コンピュータなどに適用される比較的きちんと体系化された応用領域と、不可逆過程や量子カオスのように多くの謎が残されている基礎領域とがあります。研究者によっては、前者に関する厳密な解説を行っているうちに、筆を滑らせて後者についても訳知り顔で語ってしまうことがありますが、この2つの領域は切り離して考えるべきです。上の質問は後者にかかわるものであり、現代物理学は、まだ確固たる答えを用意できていません。
ここで注意しなければならないのは、「情報」の定義です。観測を通じて人間が獲得する情報と、量子統計力学においてエントロピーとともに定義される情報は、互いにリンクしてはいるものの、単純に同じものと見なすことはできません。ちなみに、数年前に話題になった「ブラックホールに落ち込んだ情報はどうなるのか」という問いは、ホーキング効果によってブラックホールが蒸発するときに、いったん事象の地平面の彼方に消えたはずの情報が再び外に出て来るかどうかを問題とするもので、質問にある情報とは(関係はありますが)また別物です。
シュレディンガー方程式に従う孤立した量子論的なシステムでは、エントロピーおよび(エントロピーを元にして定義した)情報量は一定に保たれるという性質があります。これは、シュレディンガー方程式による時間発展が常に可逆的であり、ある時刻の状態にユニタリ演算子を作用させるだけで(過去・未来を問わず)任意の時刻の状態を表現できるので、情報量の変化が生じないからです。古典力学においても、全ての力学的変数の値がわかっている系ではエントロピーがゼロのまま変化しませんが、量子力学の純粋状態は、それと同じような振舞いをするわけです。しかし、シュレディンガー方程式に従う孤立系でも、これをいくつかの部分系に分割してそれぞれのエントロピー(あるいは情報量)を考えると、時間とともに変化することがわかります。
簡単な例として、1次元のボックスに入れられた1個の気体分子を考えましょう。ここで、中央部に薄い隔壁を挿入して分子を左右のどちらかに閉じ込めるときのエントロピーの変化を計算してみます。気体分子のエネルギーは、波動関数の節の個数nによって分類されます。n=2k+1 の波動関数ψ
2k+1 は、中央部に節があるので、隔壁を挿入しても波形はあまり変わらずに、奇関数の形をした波動関数ψ
o に移行します。これに対して、n=2k の波動関数ψ
2k は、隔壁を挿入する過程で中央部の腹が押し込められる形になり、最終的には偶関数の波動関数ψ
e になります(図参照)。隔壁を挿入する前は、n=2k+1 と n=2k は異なるエネルギー状態でしたが、隔壁を挿入する過程で n=2k の方が多くのエネルギーを受け取り、完全に挿入された時点でψ
o とψ
e のエネルギーは等しくなります。気体分子は壁と衝突する際にエネルギーをやりとりするので、熱力学的な状態を考える際には全ての n について考慮する必要がありますが、ここでは、話を簡単にするために、n=2k+1 と n=2k の2つだけを取り上げます。
隔壁を挿入して2つの状態が縮退したとき、気体分子がボックスの左右どちら側にあるかを表す新しい波動関数を導入することができます。すなわち、
|L> = (|ψ
o>+ |ψ
e>)/√2
|R> = (|ψ
o>- |ψ
e>)/√2
当たり前かもしれませんが、気体分子の波動関数がボックス全体に拡がっていると考えても、左右どちらかに閉じ込められていると考えても、エントロピーに違いはありません。これは、量子論的なエントロピーを定義する際に用いられる密度行列が同じ形で表現されるからです。隔壁を挿入する前はエネルギーに差があるので、ψ
2k+1 とψ
2k のそれぞれに対してエネルギー因子 exp(-βE
n) を乗じておく必要がありましたが、隔壁挿入後はエネルギーが縮退するので、共通因子をファクターアウトできます。その結果、密度行列ρは次のように表されます:
ρ ∝ |ψ
o><ψ
o| + |ψ
e><ψ
e| = |L><L| + |R><R|
(等号が成り立つことは、|L> と |R> の定義式を代入すれば確かめられます)
気体だけ考えている限り、分子が左右どちらかに閉じ込められた状態に移行したとしても、エントロピーや情報量に変化がありません。変化が生じるのは、気体分子がボックスの左右どちらにあるかという情報を読み出し、それに応じて状態変化を起こすような“観測装置”がカップルしているときです。例えば、気体分子が左側にあるときには何も起きないが、右側にあるときには青酸ガスの入った瓶のふたが開くような装置を用意すれば、良く知られたシュレディンガーの猫の実験を行うことができます。具体的な相互作用の形は記しませんが、気体分子の状態(|L> または |R> )は変化させないが、“観測装置”の状態は、気体分子の状態に応じて純粋状態 |D> から変化させるものを考えることにします(具体的な相互作用ハミルトニアンの形は、例えば、W.H.Zurek, arXiv:quant-ph/0301076V1 などを参照してください)。この相互作用によって、気体分子と“観測装置”を併せた系の波動関数は、次のように変化します:
|L> |D> → |L> |D
L>
|R> |D> → |R> |D
R>
興味深いのは、たとえシュレディンガー方程式に従って状態変化が生じたとしても、“観測装置”だけに着目すると、エントロピーの増加が起きているように見えることです。システム全体の密度行列のうち、気体分子に関する部分は( |L><L| + |R><R| のままで)変化しないので、そのトレースを取ることによって“観測装置”に関する密度行列の変化が求められます。共通因子を除外すると、この変化は、
|D><D| → (|D
L><D
L| + |D
R><D
R|)/2
と表されます。気体分子の密度行列は、はじめから混合状態の形になっていますが、“観測装置”の密度行列は純粋状態から混合状態に変化しているので、状態数が1つから2つに増えたことに対応してエントロピーが1ビット分(= k log2)だけ増加するわけです。
ところで、気体分子と“観測装置”を併せたシステム全体はシュレディンガー方程式に従っており、エントロピーと情報量が一定に保たれているはずです。したがって、“観測装置”で生じたエントロピーの増加は、どこかで打ち消されなければなりません。この打ち消しの効果をもたらすのが、“被観測系”である気体分子と“観測装置”の間の相互エントロピーの変化であり、気体分子が左右どちらのボックスにあるかという1ビット分の情報を読み出したことと結びつけられます。
このように、量子論的なシステムのエントロピーと情報量について議論するためには、サブシステムごとの状態変化というかなり細かな分析が必要になります。さらに、シュレディンガー方程式に基づくさまざまな状態への分岐と、実際に実現される状態との関係については、多世界解釈を含むいろいろな解釈が提案されていて、議論が紛糾しています。とても簡単に解説できるような状況にはありません(し、私にも良くわかりません)。
20世紀における最大の技術革命は、情報通信の分野に見られました。良く言われますが、人類がいつか月に降り立つと予測した人は大勢いるけれども、その光景がテレビで実況中継されて全世界の人が見守ることになると想像した人は皆無でしょう。20世紀の情報通信技術の発展に匹敵する技術革命が21世紀に為し遂げられるとするならば、それはどの分野になるのか−−技術者でなくても気になるところです。
実生活を最も大きく変えるのは、おそらく、かなり地味な素材分野での進歩でしょう。20世紀の技術は「柔らかい素材」を扱うのが苦手でしたが、ナノテクやバイオの発展に伴って、人間にフィットする素材がごく普通に使われるようになるはずです。生体と同じ素材を利用して、欠損しても修復液に浸けておけば自然と元に戻る食器や、人肌の温もりを持つソファ(ちょっと不気味か?)などが作られるかもしれません。
こうした生活密着型の技術はさておき、人類のステータスを変革するようなブレイクスルーがあるとすれば、やはりバイオ−−特に遺伝子工学−−ではないでしょうか。現在の遺伝子操作技術はいかにも未熟で、染色体に挿入された外来遺伝子がどのようにして発現するかほとんどわかっていませんが、これからの知識の集積によっては、特定の機能を実現するために必要な塩基配列(エクソンだけではなくイントロンも含めて)と細胞内相互作用の全容が解明され、ある役割を担った生体組織を合成することも可能になるはずです。例えば、ベンゼンなどによる土壌汚染が発生したとき、地中で増殖して汚染物質を分解した後にアポトーシスによって消滅する人工バクテリアを作ることもできるでしょう(消滅せずに環境破壊をもたらすリスクもありそうですが)。基板上に生体組織を増殖させて高分子の被覆を施すといったバイオ加工や、動植物体の一部を人工培養して食物や医薬品を作り出すバイオ生産も考えられます。培養組織による再生医療も普及するでしょう。もっとも、人類はどこまで生命を操作することが許されるかという倫理的な議論も沸き上がるでしょうが。
人工知能に関しては、私はあまり期待していません。人工知能研究は1980年代頃から世界各国(特にアメリカ)で活発に行われてきましたが、それから四半世紀経った今でも、知識データベース内の類縁関係に基づく粗雑な情報処理しか実現されていません。あと100年以内に人間並みの思考能力を持つ人工知能が作られることは、ちょっと考えにくい状況です。
ただし、脳科学の方はかなりの進展を示すはずです。現在、fMRIなどによって脳の活動をリアルタイムで測定する技術が開発されていますが、まだまだ解像度が低く、どのニューロンが興奮すると何が実現されるかを特定するには至っていません。しかし、将来的には、ニューロンの活動と思考内容を結びつけるだけのデータが集まってくるので、これを利用して、ニューロンの活動を検知することによって(食べ物のことか数学のことかといった程度なら)何を考えているのかを推測することも可能になると期待されます。究極的には、脳と外部情報端末の間で直接データのやりとりを行う「電脳化」のアイデアもありますが、21世紀中にはそこまではいかないでしょう(永久に無理かもしれません)。実現可能なのは、せいぜい特定のイメージを強く念じることで義手・義足にプリセットされた動作を行わせるといったラフな遠隔操作くらいだと思います。
奥行きに関する情報は、食物の捕獲や外敵からの逃避などに際してきわめて重要な役割を果たすため、高等動物では、これを得るためのさまざまなストラテジーが発達しています。人間(およびサルやネコなど多くの動物)の場合は、頭部の前面に2つの眼が並んでいるので、両眼視差(視点が異なることに起因する両眼網膜像の差異)が特に有効です。また、近距離の物体を見る際に両眼の視線方向に差が生じる(ごく近いときには両眼を内向きに寄せるようになる)こと(輻輳)も利用されています。しかし、両眼視によらずに奥行き情報を得る方法もいろいろとあります。
近くにある物体に関しては、水晶体の厚さ調節によるピント合わせ機能を利用して距離を推測することが可能です。われわれは、それと意識しないまま頻繁に視線を動かしながら水晶体の厚さを変えており、その際の眼の感覚や焦点の合い加減を通じて遠近を把握しています。これなら、片目でも可能です。
さらに重要なのが、経験を通じて習得された奥行き情報の認知法です。動かない物体に関しては、大きさ・重なり・陰影・きめなどをもとに、距離の推測がなされています。CGで3D画像を作成する場合、影の付け方によって立体感が大きく変わることが知られています。これに動きの情報が加わると、より詳細な分析が可能になります。多くの鳥類は、眼が頭部の両脇に付いているために両眼視ができませんが、飛びながら下界を鳥瞰することで、より速く動いて見える物が近くにあるといった推測を行っているはずです(枝に留まって餌を探す鳥の中には、フクロウのように並んだ眼による両眼視が可能なものもいます)。人間でも、距離感がつかみにくいときには、首を傾げるなどして視点を動かし、視覚像の変化から位置関係を割り出すことがあります。
通常は意識されませんが、われわれは、こうして得られた奥行き情報や既存の知識に基づいて周囲の物体を空間的に定位し、心理的なマップを作り上げているのです。視覚的な光景とは、単なる2次元画像ではなく、こうしたマップによって重要拠点の距離や方位が与えられた複雑な情報の塊なのです(心理的なマップに関しては、
別の回答に解説があります)。例えば、携帯電話の小さなワンセグの画面を近くで見る場合と、大型テレビの画面を離れて見る場合とでは、たとえ網膜に映じる像が同じ大きさであったとしても、大型テレビの画面の方が大きく感じられるはずです。これは、大型テレビの視覚像の中に「より遠くにある」という位置情報が含まれており、大きさに関する認知を補正しているからです。実際、周囲を真っ暗にして画面を片目で見ると、携帯電話も大型テレビも同じ大きさに見えます(見え方には個人差がありますが)。
両眼視差だけを利用した3D映像がひどく不自然に感じられるのは、他の情報に基づいて作られた心理的なマップ(あるいは輻輳に基づく距離の推測)と3D映像の距離感が整合しないからでしょう。ヘッドマウントディスプレイを使って3D映像を見続けた場合、2D映像に較べて被験者の疲労感が大きく、時にめまいや吐き気などの症状が現れるという報告もあります。自然な3D映像が実現されるまでには、もう少し研究が必要なようです。
探査機を打ち上げる場合、いちばん厄介なのは、大気圏を通り抜けて、衛星軌道を周回運動できる地上数百kmの高度まで到達させることであり、現在では、膨大な量の燃料を化学反応させるロケット噴射を利用しています。そこから先は、空気の抵抗がなくなり、強力な推進力がなくても地上に落下する心配がないため、小型のエンジンなどを使ってゆっくりと地球の引力を振り切り、他の惑星へと向かっていきます。
惑星間航行のためのエンジンとしては、これまで化学燃料を用いた小型ロケットが使われることが多かったのですが、最近では、イオンエンジンが利用されるようになってきています。イオンエンジンとは、イオン化された推進剤(キセノンなど)を電圧によって加速し、これを宇宙空間に放出したときの反作用で推進力を得るというものです。推進力はあまり大きくありませんが、少ない推進剤で長時間にわたって推進力を生み出すことができます。電圧を加えるためのエネルギー源としては、太陽電池か放射性物質が利用されます。小惑星イトカワの探査を行った日本の探査機「はやぶさ」(2003年打ち上げ)も、イオンエンジンを搭載していました。これ以外には、核反応によって推進力を得る原子力ロケットや、太陽からのエネルギー粒子の流れ(太陽風)を巨大な帆に受けて進む宇宙帆船の構想がありますが、実用化はしていません。
惑星間航行において、他の天体からの引力はきわめて大きな影響を及ぼします。科学者たちは、打ち上げ前に惑星の位置などを詳しく計算して、最適の打ち上げ時期やコースを求めています。惑星と探査機の位置関係をうまく調整できれば、「スイングバイ」という方法を利用して探査機を加速させることができます。スイングバイについては
別の回答で解説しているので、そちらを参照してください。
この質問が来たのをきっかけに、東京都内にあるコニカミノルタプラネタリウム社直営のプラネタリウム「満天」を見に行きました。ここには、プラネタリウム投影機のインフィニウムSと全天周ビデオ投影システムのスカイマックスがあり、後者を利用したCG映像を見ることができます。私が訪れた時には、アメリカ自然史博物館が制作した「COSMIC COLLISIONS 〜接近!宇宙大衝突〜」という番組が上映されていました。客席からはシステムの詳細はわかりませんが、半球状ドームの赤道上、客席より少し高い位置に配置された5台の3管プロジェクタが向かい側に映像を投影する一方、天頂方向に投影するプロジェクタが別に1台設置されていました。投影技術は予想以上に高度で、かなり注意して探したにもかかわらず、画面のつなぎ目を見つけることができませんでした。
質問は2つありますが、どちらのケースでも、投影前のデジタルデータを変換する技術が使われています。
3D映像の制作に当たっては、ベクトルデータ(相対的な位置座標などのデータ)で表された物体を仮想的な3次元空間に配置し、物体表面を構成する点が特定の視点から見てどの方向に位置するかを計算することで、ある方向を向いたときに何が見えるかを求めています(リアルな映像にするためには、表面で光がどのように反射されるかも計算してレンダリングする必要があります)。こうした作業を水平面より上の全ての方向について行えば、全天周にわたる画像データが得られます。
1つ目の質問に関してですが、話を簡単にするために、まず、観客がプロジェクタと同じ位置にいる場合を考えましょう。このとき、プロジェクタからある方向に投影される画素は、そのまま観客がその方向で目にする画素になります。上映が暗闇の中で行われ、スクリーンまでの距離感がなくなるため、スクリーンの形は問題になりません。したがって、3D映像の計算で求められたデータを元に、各方向に見えるはずの画素を全天周にわたって投影していけば、プロジェクタと同じ位置にいる観客は、スクリーンがどのような形であっても、計算で求めた「特定の視点からの映像」を目にすることになります。
上映に際しては、複数のプロジェクタ用として、特定の方向に視線を向けたときに見える部分的な映像に分割したものが用意されます。このデータは平面に投影された映像として表すことが可能であり、平面ディスプレイに映し出して映像の出来具合をチェックすることもできます。こうした部分的な平面映像データを平面スクリーンに投影するのと同じ要領でそれぞれのプロジェクタに投影させ、全ての映像によって全天周をカバーすることで、特定の視点からの3D映像を半球状のスクリーン全面に映し出しているわけです。
もっとも、実際の上映システムでは、プロジェクタは観客と同じ位置にはありません。スカイマックスの場合、5台のプロジェクタは観客の周囲にほぼ等間隔に、天頂方向に投影する1台はそれらとは別に配置されています。観客もドーム内に散らばって見ているので、目にする映像はCG制作者が計算した通りのものではなくなります。プロジェクタの設置場所に応じた映像の補正がどこまで行われているかは知りませんが、おそらく、客席内のどこかをベストポジションとし、そこから設置場所がずれたことを調整するための比較的単純な歪み補正を行っているのだと思います。平面スクリーンに斜めに投影された映像が台形になるのを長方形に直すような補正ですが、プラネタリウムではスクリーンが曲面なので、平面スクリーンの場合とは異なって(直線を直線に変換するような線形の補正ではなく)非線形の補正をしなければなりません。推測になりますが、適当な補正関数がプリセットされたグラフィックボードを利用し、上映会場に合わせてベストフィットする補正パラメータを決めているのでしょう。このようにして補正された画像データをプロジェクタに送ることで、歪みの小さい映像を投影することが可能になるはずです。
数学的には、スクリーンの形状とプロジェクタおよび観客の位置が与えられれば、歪みを完全に相殺するのに必要な補正を求めることもできます。しかし、上映会場ごとにかなり面倒な計算を行わなければならない上、ベストポジションにいる観客にしか歪みのない映像を見せられないので、特別に正確さが要求されるケース以外では、そこまで手を掛けないでしょう。実際、私が鑑賞した作品では、見やすいとされる座席だったにもかかわらず、注意して見ると、地球の画像が真円ではなく多少歪んでいることがわかりました。人間の視覚には、こう見えるはずだと予測できる物体に関しては網膜像を適当に補正して認知する機能がある−−例えば、壁に掛かった丸い時計盤を斜めから見ても、楕円ではなく丸い時計に見える−−ので、少々の歪みがあっても気にならず見過ごしてしまいます。
2つ目の質問で指摘されている点は、私にとっても不思議なものです。6台のプロジェクタを使って分割上映していながら、目で見ただけではつなぎ目がわからないほどシームレスな映像になっているのです。技術情報のプレスリリースを読むと、つなぎ目周辺をCCDカメラで撮影し、そのデータを専用プロセッサにフィードバックして、元のデジタルデータにピクセル単位での位置ずれの補正や輝度調整を行うことにより、つなぎ目をわからなくしているとのことです。特に、投影の重なった部分が周囲に比べて明るくならないように、輝度を落として重なりを目立たなくする技術(エッジブレンディングと呼ばれています)が重要な役割を果たしているようです。ただし、この補正が汎用のグラフィックボードでできるのかといった技術の詳細は不明です。
この方面の技術は、ここ数年の間に急速に進歩しているので、私としてもなかなか把握しきれないものがあります。