前ページへ 次ページへ 概要へ 表紙へ



第I部.研究室からの技術革新


 こんにちの日本のように高度に工業化された社会において、新たな技術が導入される契機とはどのようなものだろうか。昔の非工業的な時代ならば、誰かが思いついたアイディアをもとにして道具を工作するという形で、それまでになかった技術が使われるようになることも有り得ただろう。しかし、緊密な依存関係を確立したシステムとして機能している社会では、事態はそれほど単純ではないはずである。
 現代的な意味での技術革新は、2つのタイプに分類することができる。一つは、企業や大学の研究室で新しい法則なりメカニズムなりが考案され、これが(ハードないしソフトの)製品として市場に送り出されるというもの。もう一つは、市場の側からこれまでになかった製品への要求が生まれ、それに即して新しい技術が誕生するというものである。前者は研究室のシーズが開花する「サイエンス・プッシュ型」、後者は市場のニーズがコントロールする「マーケット・プル型」の技術革新と呼ぶことができるだろう。
 サイエンス・プッシュ型革新の例としては、高温超伝導物質の発見が記憶に新しい。IBMのチューリッヒ研でベドノルツとミュラーによって発見されたセラミックス系の超伝導物質は、その存在がほとんど予見されていなかったものであり、市場の側からも、(そのような物質があると便利だという潜在的なニーズはありながら)研究現場への開発要求はあまり高くなかった。しかし、ひとたびこうした物質が発見されると、産業面への応用がさまざまに模索され、SQUIDのような量子力学的デバイスや高速演算を可能にするジョゼフソン素子などが実用化されつつある。
 一方、マーケット・プル型の場合は、必ずしも全く新しい技術を必要とせず、既存の技術を組み合わせることによって“革新”を実現することがある。例えば、ソニーが発売した携帯用の再生専用テープレコーダー「ウォークマン」が、一つの典型である。当時の若者の間では、大型のラジカセを行楽地に持ち歩き、あたりかまわずボリュームを上げて音楽を鳴らすことが流行していた。したがって、屋外にいながら一人でヘッドフォンで音楽を聞くというスタイルが若者に受け入れられるとは、マーケティングの専門家にもなかなか信じられなかったはずである。ところが、ソニーのデザイン部門では、試作品による調査で確かな手ごたえを得たことから、技術部門などの反対を押し切ってあえてウォークマンの販売に踏み切り、結果として大成功を収めたのである。このケースでは、大型のスピーカーや強力なアンプなどの既存の技術をむしろ切り捨てていくことによって、新しい製品を作り上げた訳である。
 ただし、ここで注意しなければならないのは、サイエンス・プッシュ型にせよマーケット・プル型にせよ、研究室と市場の間で繰り返される複雑な相互作用を経て、はじめて技術革新が可能になるという点である。実際、現代においては、有能な研究者の頭の中だけで新発見がなされることは稀であり、相当の予算を使う研究開発が必要となる。となると、その際の予算配分において、当然、市場の側からの要求が大きな影響力を持ってくるはずである。また、研究室から出てきた新発見も、直ちに製品化されるとは限らず、規格の決定の段階で市場戦略に基づくさまざまな思惑が渦巻いているのが現状だろう。こうした問題について目を向けることは、現代技術を理解する上で重要な役割を果たすものである。以下では、この観点から、技術革新の契機となる研究室と市場の活動の実態を、順を追って考えていきたい。

§1 技術革新のシーズ


 こんにち、新製品として売り出されるものに使われている技術は、必ずしも革新的ではなく、以前からある技術に若干の改良を加えたというケースが多い。特に、成熟商品と呼ばれている家電製品などは、ほとんど改良の余地がなく、せいぜい「ファジー制御」などといったイメージを利用して新鮮さをアピールしなければならない。しかし、社会の流れを変えるような重大な製品には、それまでには存在しなかった全く新しい技術が用いられているのが一般的である。こうした革新的技術を生み出す基盤になるのが、商品化を指向していない基礎研究である。
 もっとも、「基礎研究」という言葉は耳にする機会が多いが、これが何を意味するかという点では、必ずしもコンセンサスが得られている訳ではない。実際、多くの企業が社内に研究所を設置するときに「基礎」の一語を含んだ名称を与えるが、だからと言って誰もが基礎研究と認める内容を実践しているかというと、ほとんど商品開発に近い作業を行っているケースがある。また、「基礎研究」に相当する英語は何かについても、意見は一致しておらず、fundamental research や basic researc、あるいは scientific research から単なる research に到るまで、さまざまな訳語がある。ここでは、比較的一般的な意見に基づいて、製品を作成するための準備段階のうち、具体的な設計や工程を煮つめる過程を「開発(development )」、それ以前の作業を「研究(research)」と呼び、さらに後者を、応用を念頭に置かないで科学的な原理や法則を明らかにする「基礎研究(basic research)」と、その結果を利用して個々の部品の試作や工程の検討を行う「応用研究(applied reseach)」に分類する。
 具体的に、基礎研究と応用研究の違いを示そう。、CD(コンパクト・ディスク)プレーヤーの蓋を開けてみると、そこには、実に数多くの部品が使われていることがわかる。プレーヤーの頭脳とも言うべきICやLSIがボード上に配列されている一方、CD面に接するように光学読み取り装置が取り付けられており、CD表面に刻み込まれているディジタル信号を解読する役割を果たしている。こうした部品については、日本製品の性能の良さは折り紙付きであり、特に、回路の集積化や光学系の小型化を進める技術などでは、日本は他の追随を許さない。しかし、この種の技術は、既に知られている作動原理の上に立脚して部品を組み立てる過程に適用されるものであり、あくまで応用研究の所産と言わねばなるまい。これに対して、基礎研究とは、作動原理そのものを対象としており、ICやLSIを開発する前段階の半導体の研究や、光を利用した信号の交換を可能にするためのレーザー発振の研究がこれに当たる。このほかにも、CDにおいてディジタル信号処理を可能にした数学的な符号理論のように、“物”を相手にしない基礎研究すらある。
 このように、基礎研究は、その成果が部品として目に見えないことが多く、応用研究ほどの華やかさがないかもしれない。しかし、そもそも新しい製品が世に送り出されるために必要不可欠な作業であり、技術革新のシーズと呼ぶべきものであることがわかる。

§2 基礎研究の実力比較


 それでは、基礎研究の実力という点で、日本はどの程度の地位を占めるのだろうか。基礎研究の定義一つとってもコンセンサスが得られていない現状では、この問いに対して厳密な解答を与えるのは困難である。しかし、いくつかの証拠に基づけば、日本の基礎研究は、ヨーロッパ諸国と比較すると必ずしも見劣りしないものの、アメリカ(合衆国)に比べるとかなり立ち後れていると結論せざるを得ないだろう。
 ゲルマン報告 基礎研究の実力を比較するときにしばしば引き合いに出されるのが、NSFの委託によってゲルマン調査研究会社が提出した報告書である。これは、1953年から73年までの21年間に考案された新しい技術 500課題を、国別および革新度によって分類したものである。この中で、圧倒的に高く評価されているのは、当然のことながらアメリカで、実に 237件の新技術を生み出している。これに対して、日本は僅か26件を数えるにすぎない。さらに、革新度で見るとその差はいっそう際だっており、「革新的」と評価される技術がアメリカの65件に対して、日本は 2件にとどまっている。「改良」技術に関しては日本も10件とやや貢献しているが、それでもアメリカの98件に較べると、いかにも見劣りする。興味深いのはイギリスの結果で、新技術45件のうち「革新的」と評されるのが25件に達する一方、「改良」はただの 2件に過ぎず、ニュートンやマクスウェルを生んだお国柄を感じさせる。こうした数字は、日本の基礎技術が、アメリカやイギリスに較べて相当に低水準にとどまっていることを示唆する。ただし、この報告書は、あくまで1973年以前のかなり古いデータを使用しているため、現時点の技術水準とは必ずしも一致しないことに注意すべきである。
 通産省アンケート 通産省が企業に対して行ったアンケート調査では、日本人自身が基礎研究の非力さを認めているという結果が出ている。この調査では、欧米と比較した場合、日本の技術水準が優位/同等/劣位のいずれであるかを質問している。驚くべきことに、基礎技術に関して欧米より優位にあるとする回答は僅かに 0.8%しかなく、86.8%の回答者が日本の方が劣っていると考えている。逆に、開発・商品化技術に関しては、63.5%が日本が優っていると考えており、劣位を認める者は 0.8%にすぎない。もっとも、基礎技術/応用技術/開発・商品化技術の3つに関して優劣をつけよという質問をした場合、こうした傾向が現れるのは、回答者の人情の上からもむしろ当然であり、技術の実態を反映しているとは限らない。
 ノーベル賞授賞者数 ノーベル賞の自然科学部門(物理/化学/医学・生理学)は基礎科学の業績に対して授与されるものであり、その選定がきわめて厳格に行われることから、授賞数の多寡が基礎研究の水準をかなり忠実に反映していると考えられる。1901年から90年までの授賞者数を調べると、アメリカが××人と圧倒的であり、以下、イギリス−ドイツ−フランスと続いている。その中で、日本はたった5人の授賞者しか生み出しておらず、先進国中では最低ランクである。この数字だけでもアメリカが群を抜いているが、授賞対象となった研究が遂行された国で分類すると、この格差はさらに拡がると言われている。もちろん、「科学研究においては英語による発表が主流になっているため、日本人には語学上のハンディがある」とか、「ノーベル賞は業績を上げてから授賞が決定するまで10〜20年のタイムラグがあるため、日本人の授賞者が増えるのはこれからだ」とか言い訳をすることもできるが、虚心に数字を見つめれば、日本が基礎科学で劣っていることは認めざるを得ない。ただし、ノーベル賞の対象になる基礎科学の中には、素粒子論や宇宙論など技術的な応用に使いようのないものも多く、「そうした面で業績を上げることが何の自慢になるのか」といった反論は可能かもしれない。
 論文引用回数 科学の分野では、ある研究が学界でどれほど評価されているかを判定する基準として、その論文の引用回数を採用することが多い。実際、すぐれた業績と認められた場合は、異なった条件下で追試験をしたり他の分野に応用してみるなど、多くの追随者が現れて研究を進展させるため、はじめに発表した人の論文がたびたび引用されることになる。したがって、引用回数が多いほど、多くの後継者を持つパイオニア的な研究であると認められる訳であり、アメリカでは、大学教授の資格を判定するための基準としても用いられている。科学技術白書によると、アメリカの代表的な科学雑誌であるScience で引用された論文数において、日本はアメリカに大幅な遅れをとっている。1976年のケースでは、引用された論文のうち、アメリカ人の手になるものが41.9%を占めているのに対して、日本人の論文は 5.3%にとどまっている。ただし、この数字は、調査を行ったのがアメリカの雑誌であるという点で、幾分かは割り引いて解釈すべきである。なぜなら、どの雑誌でも国内からの投稿数が相対的に多くなるため、学会やシンポジウムを通じて近隣の研究者と交流した成果を論文にした場合は、必然的に同国人の論文の引用数が増すからである。実際、日本の 5.3%というシェアは、西ドイツの 5.9%よりはやや低いが、フランスの 5.1%を上回っており、少なくとも、アメリカを追う2位グループにつけていることは確かである。
 技術貿易収支 技術貿易の収支決算は、科学・技術の水準を指し示す重要な指標である。特に、基礎研究の水準が高い国は、多方面に応用できる基本特許を押さえることができるので、応用研究に片寄っている国に較べて、特許収入などの面で有利になり、収支決算が黒字になりやすい。OECD15ヶ国の技術貿易収支(表)を見ると、アメリカが大幅な黒字であるのに対して日本はかなりの赤字になっており、ここでも日本の基礎研究の弱体ぶりを見せつけられる。1982年の数字では、アメリカの技術貿易黒字は実に 6,678百万ドル に上っているが、日本は逆に 439百万ドル の輸入超過になっている。ヨーロッパでは、西ドイツをはじめとしてイギリスやフランスが黒字を出しており、基礎部門の底力を示している。日本の技術輸入先としては、60%以上を占めるアメリカを筆頭に、これらのヨーロッパ諸国が名を連ねている(このほか、貿易収支では赤字国のオランダが日本に高額の技術輸出を行っているが、これはCDの基本特許によるところが大きい)。ただし、輸出額/輸入額という収支の比率で見ると、ここ数年間にわたって、アメリカの地位は徐々に低下している反面、日本は微増傾向にある。
 以上の結果をまとめると、日本の基礎研究の水準は、少なくともアメリカと較べて劣っていることは疑い得ない。

§3 日本の基礎研究


 日本が基礎研究においてアメリカに遅れをとっているという前節の結論は、1970年の時点でならばそれほど驚くべきことではない。当時の日本は、欧米の水準に追いつこうとして技術の移植に躍起になっており、独創的な基礎研究を行う体制は整えられていなかったからである。ところが、1980年代に入ると、国際競争に勝利するためには知的所有権が決定的な重要性を持っているとの認識から、各企業とも基礎研究に力を注ぐようになる。そうした中で、なお基礎研究の実力がアメリカに劣っているとなると、事は重大であろう。本節では、日本の基礎研究の現状を体制と人材の両面から考察し、この劣位の原因が主として人材活用のあり方に根ざしていることを示す。

 基礎研究の体制
 80年代において基礎研究を重視する機運の高まりは、目に見える形ではっきりとに現れている。例えば、85年から88年にかけて、日立製作所、日本電気、東芝などの有力メーカーが次々に「基礎研究所」を開設し、一つのブームを形成したと言える。こうした姿勢は、学生の製造業離れを食い止めるためのイメージアップ作戦とも取れなくはないが、好意的に解釈すれば、国際競争力を身につけるために基礎をおろそかにできないという意識の現れだろう。
 以下では、日本の研究体制が、少なくともハードウェアにおいては、決して欧米に引けをとらない水準に達していることを、2つの面から論じていく。ただし、本来は基礎を応用・開発から切り離して論じるべきなのだが、何を基礎研究と呼ぶかについてコンセンサスが得られていないこともあって、基礎研究の体制を示す数値的データが得られないため、研究・開発を含めた数字で我慢していただきたい。
 はじめに、研究・開発の投資額を見ていこう(表)。アメリカ/日本ほか計5ヶ国の研究・開発費を比較すると、やはりアメリカが断然トップであり、日本はその3分の1程度にすぎない。西ドイツは日本の半分程度で、基礎研究に力を注いでいると思われるイギリスやフランスはそれよりさらに少ないように見える。しかし、投資額の絶対値は経済規模に左右される数値で、そのままでは研究の実力を現すものではない。実際、GNPが巨大になると、それに応じて同一種の企業間での開発競争がさかんになって費用が嵩むことになる。したがって、GNPに対する研究・開発投資額の比率が、研究体制の充実ぶりを示す指標となる。これで見ると、アメリカと日本および西ドイツが 2.8%前後で拮抗しており、日本が特に劣っているとは考えられない。さらに、アメリカの場合は、国防関連の研究・開発費の割合が多く、これを除くと対GNP比 1.9%となって、日本よりはるかに少ない値になる。もっとも、アメリカでは、軍事研究に役立つと言えば予算を獲得しやすいという事情があるため、実態以上に軍事費が水増しされていることも考えられるが、それにしても、軍事関連の研究が民生の領域を圧迫していることは間違いない。軍事研究の成果が民間の産業に恩恵を与える可能性はあるものの、戦闘用に特殊化された技術であり、しかも重要部分が軍事機密となるため、一般に民生への転用は難しい。こうしたことから、少なくとも研究・開発投資という点からみると、日本はアメリカを凌駕するほどになっていると言える。
 続いて、研究・開発に携わる技術者の数で比較してみよう。これも、絶対数では、アメリカが日本を2倍以上引き離しており、圧倒的に優位に見える。しかし、人口規模の差を較正して従業者1万人当たりの技術者数で比べると、日本とアメリカは数字的にほとんど差がない。1965年時点での数値は、アメリカ64.5人に対して日本24.6人なので、ここ四半世紀の間にアメリカが横ばいを続けるうちに、日本が急増して事実上アメリカに追いついてしまったことになる。
 もちろん、日本とアメリカの差として、こうした資金や技術者が応用や開発に集中的に投入されて、基礎研究の分野での恩恵が少ないのではないかという考え方がある。ところが、この推測を否定するような調査結果が提出されている。日本とアメリカの同業種50社ずつをピックアップして、研究・開発支出の内訳を調べたところ、基礎/応用研究への支出が、日本では10%/27%だったのに対して、アメリカでは 8%/23%を占めていたという。この数字を信頼すると、日本の方がむしろ基礎研究に重きを置いていることになる。さらに驚くべきことに、成功率が50%以下のかなり“危険な”プロジェクトに支出する割合が、アメリカの28%に対して日本は26%に上り、ほぼ互角である。また、5年以上継続すると予想される研究への投資は、日米とも全く五分の38%になっている。こうした数値は、「日本が欧米で開発された技術を改良するだけで、長期計画の下で危険な研究には手を出そうとしていない」という非難が当たっていないことを示している。
 このように、少なくとも、投資額および技術者数という体制面において、日本の研究・開発の水準は、アメリカと完全に肩を並べている。それでは、何が日本の基礎研究の問題点なのだろうか。次に、人材活用について見てみよう。

 基礎研究における人材活用
 日本とアメリカで電子技術者を対象にしたアンケート調査が行われているが、多くの点で対照的な結果が得られていて興味深い(表)。例えば、「技術者は充分に活用されていると思うか」という問いに対して、イエスと答えた者の割合は、アメリカが89.8%と圧倒的多数なのに、日本では僅か16.8%にすぎない。この落差はどこから来るのだろうか。
 謎を解く鍵の一つは、同じアンケートで「上司は最新技術を理解している」と思う人の割合が、アメリカでは63.6%に上るのに対して、日本では37.1%と3人に1人強しかいない点である。この数字は、単純に日本のトップが技術の進歩から遅れがちなことを現すと解釈すべきではないだろう。むしろ、自分のやりたい研究をさせてくれない上司への不満が背景になっていると考えた方が、理解しやすい。実際、大手メーカーの研究トップに対して行ったインタビュー記事を読むと、多くの人が、市場を重視する研究態度の必要性を訴えている。いくつか引用してみると、「(わが社が)行う研究は、基礎研究であっても市場をにらんだマーケット・ドリブンなものでなくてはならない」「たとえ基礎レベルの研究でも 「目的基礎研究」 といった姿勢が望まれる。この物質はマイクロエレクトロニクスに使えないだろうか、ディスプレイにはどうかといった、常に目的というかイメージを意識した基礎研究が必要である」「 「基礎技術の研究」 とは、 「うまくいったら製品に結び付くような研究を指している。うまくいっても使えるかどうかわからない基礎研究は、させないようにしている」などなど。このように、常に市場を睨んだ研究をさせられるのでは、特に基礎分野の技術者は、やりたいことが思うようにできないという不満を募らせる可能性が高い。
 さらに、人材を組織する手法でも、アメリカは一日の長があるように思われる。先のアンケート結果を見ると、「技術者は不足していると思うか」と問われて肯定したのが、アメリカでは21.5%だけなのに対して、日本では何と91.9%にも達している。既に述べたように、従業員1万人当たりの技術者数では日本はアメリカと肩を並べているので、この結果は異常ですらある。彼我の差が生じた原因を推測すると、技術者を横並びにして研究にとりかからせる日本流の組織づくりに問題があるように思われる。日本では、技術者の分業体制が進んでおらず、技術者一人当たりのアシスタント数も不足しているので、欧米では補助研究員が分担するのが一般的な図面引きやデータ整理といった雑務まで、専門技術者がこなしているケースが多い。また、30〜40人の大部屋に技術者を押し込め、同じフロアに座っている上司に見張られているという職場環境は、技術者を管理された仕事に縛り付ける仕組みとして機能している。こうしたことも、自由に発想する時間が必要な基礎研究にとって足枷となるのである。
 もう一つ指摘しておかなければならないのが、日本の技術者に見られる給与面での不満である。現在の給与が大いに不満だと答えた人の割合を調べると、研究・開発以外の技術者では23.5%なのに対して、製品開発では33.3%、応用研究では46.7%、基礎研究では実に62.7%に上る*1。こうした不満は、勤続年数が等しい同僚と比べて給料が低いからではなく、研究・開発という重要な仕事に従事していながら給料が同程度であることに起因している。欧米では、学歴が高いほど給与が高くなるのが通常で、博士号取得者の初任給は、一般の大卒社員に比べて2倍程度になる。また、すぐれた業績を挙げた技術者には、高給を得ている上級あるいは主任技術者へと出世する道が拓けている。それに較べると、日本の場合は、一般に学位に対する敬意が乏しく、業績に対する給与面での配慮も足りない。これは、アメリカのように、高額の報酬によって有能な技術者を引き抜くシステムが確立していないことにも起因する。技術者といえども、やはり成功報酬が乏しければ研究意欲が減退するのはいかんともしがたいだろう。
 以上を総合すると、日本の基礎研究がアメリカの域に達していない最大の原因は、企業内で充分に人材が活用されていないためだと推察される。おそらく、そのためだろうが、日本人の技術者は、58.2%と過半数がアメリカの技術者より自分の方がすぐれていると答えているが、にもかかわらず、56.5%とやはり過半数が、アメリカの技術者をうらやましいと思っているのである。ちなみに、アメリカの技術者で、日本の方がうらやましいと回答したのは、僅かに 7.7%である。
 なお、日本の基礎研究を遅滞させている重要な原因の一つに大学の研究/教育の問題があるが、これは後に論じる予定である。

§4 ケーススタディ−−高温超伝導の発見


 基礎研究の実態を調べるケーススタディとして、この節では、数年前にマスコミを賑わせた高温超伝導物質の発見にスポットを当てることにしたい。断っておくが、この「世紀の大発見」に到る過程が、基礎研究のあり方の典型だという訳ではない。むしろ、基礎研究の場合は、「ものにならない」場合が圧倒的大多数なのである。しかし、この節では、例外的に成功したケースを取り上げることによって、基礎研究の理想的な姿が具体的にどのようなものかを明らかにする方針である。

 はじめに、超伝導とは何かを大まかに説明しておく。
 超伝導現象は、1911年にカマリン・オンネスによって発見された。彼の報告によると、水銀を極低温に冷却していったとき、絶対温度4Kで電気抵抗が突然ゼロになるのが観察されたという。古典的な熱力学によれば、低温になるにつれて電気抵抗が減少することは予想されるが、超伝導の場合は、絶対零度に達する前に突如として抵抗が急減して完全になくなるため、古典物理の範囲では全く理解できない現象である。さらに、1933年には、超伝導が磁気的な現象を伴っていることが、マイスナーとオクセンフェルトによって確認された。こんにちマイスナー効果と呼ばれているこの現象は、超伝導体に外部から磁場を加えると、磁力線を超伝導体の外に排除するもので、ゼロ抵抗を仮定してマクスウェル方程式を解いても必ずしも導くことができない非古典的効果である。このゼロ抵抗とマイスナー効果が、現象論的に超伝導を特徴づける2つの要素である。
 こうした奇妙な現象を量子力学を援用して理論的に説明する試みは、数多くの研究者によって精力的に実行されてきたが、その決定版となったのが、1957年にバーディーン/クーパー/シュリーファーによって提唱されたBCS理論である。3人にノーベル賞をもたらしたこの研究は、今世紀における固体物性の領域での白眉と呼ぶにふさわしい優れた業績である。この理論の要点は、伝導電子間にイオン格子の振動に由来する相互作用が働くことである。一般に導体内部では電子どうしのクーロン斥力はスクリーンされるが、超伝導体では、さらにイオン振動の効果によって、ちょうど反対の運動量を持つ2つの電子の間に微弱な引力が働くことになる。この引力によって形成された電子のペアが、互いに協力しあうことによって、電気抵抗をもたらすイオンの熱振動による散乱を回避し、ゼロ抵抗を実現するのである。BCS理論は近似的な摂動論計算を援用しているので、必ずしも完璧なものではないが、超伝導に関する多くの謎を実に鮮やかに解明したため、物理学者の間で深い信頼を獲得することになる。
 BCS理論によれば、超伝導現象は、電子が微弱な引力によってペアを作れるほどの低温でなければ実現できないはずである。常伝導状態から超伝導状態へと相転移する温度は臨界温度(Tc と表される)と呼ばれるが、BCS理論によれば、Tc の上限は(物質によって若干異なるものの)およそ30〜40K程度になる。この値はしばしば「BCSの壁」と呼ばれ、これを越える高温で超伝導になる物質が見つかれば、物理学者にとっては理論的にきわめて興味ある対象となる。一方、実用面からすると、液体窒素の温度である77K以上で超伝導を起こすことが望ましい。なぜなら、それ以下の温度に冷却するためには高価な液体ヘリウムを使用しなければならず、たとえ超伝導によってジュール熱損失が防げたとしても、経済的に折り合わないからである。この2つの壁−−もちろん、望むらくは液体窒素温度の壁−−を突破して「高温超伝導」物質を手にすることが、超伝導研究者の長年の夢であった。
 学問的および実用的関心から、高温超伝導の研究は絶え間なく続けられてきたが、労多くして益少ない地味な研究だった。1986年以前に確認された最高のTc は、BCSの壁すら破れない23Kでしかない。実は、高温超伝導を発見したという報告はかなりの数に上るのだが、いずれも追試に成功しておらず、何らかの実験ミスがあったと考えられる。超伝導が起きていることを実証するためには、ゼロ抵抗とマイスナー効果の2つを確認しなければならないが、マイスナー効果については大がかりな装置による精密な実験が必要なので、電気抵抗の測定だけが実施されがちである。ところが、抵抗の測定の際にうっかりプローブをショートさせると、途端に抵抗がゼロという結果が得られてしまい、幻の超伝導を観測することになる。あまりに誤報が相次いだため、UFO(未確認飛行物体)になぞらえて、USO(Unidentified Superconducting Object ;未確認超伝導物体)なる言葉まで生まれた程である(ウソと読めるのが愛敬である)。こうして、1986年以前の段階では、大半の物理学者が、液体窒素温度はおろか、BCSの壁の突破も夢物語だと考えるようになっていた。これが高温超伝導発見前夜の状況である。

 高温超伝導を発見する決定的な突破口を開いたのは、IBMチューリッヒ研究所に在籍していたミュラーとベドノルツの二人である。年長格のミュラーは、長年にわたるチューリッヒ研での業績が認められ、研究テーマをかなり自由に選べる特別研究員の地位に就いていた。一方、ベドノルツは中堅の研究者として、ペロブスカイト構造を含めた固体物性を専門にしていた。二人が超伝導の研究を始めるに当たって採用した方針は、いささか突飛なものであった。ミュラーはもともと結晶に自発的な歪を起こさせるヤーン=テラー効果の研究で第一人者であったが、この効果が超伝導に何らかの寄与をするのではないかと考え、ヤーン=テラー効果の大きい金属酸化物をターゲットにしたのである。1983年から始められた一連の研究では、はじめ、Ni系の酸化物の導電性を調べていたが、超伝導を示すどころか、半導体になってしまう始末であった。何度も失敗を繰り返しているうちに、彼らの目に止まったのは、フランスの化学者が Ba-La-Cu-O という組成を持つ物質を使って触媒の実験を行ったという論文である。この物質はペロブスカイト構造をしており、しかも、BaとLaの割合を変えることで、ヤーン=テラー効果を増強することが可能だと予想された。こうして実験を積み重ね、遂に1986年1月、超伝導を示す金属酸化物が発見されたのである。Tc は13Kと「高温」ではなかったが、すぐれた知性によってのみもたらされ得る人類の偉大な前進であった。
 ここで注目して頂きたいのは、この一大革新が、大学や公的研究所ではなく、IBMという私企業の研究室から生まれたという点である。アメリカでは、IBMやAT&Tのような大企業が、経営面でメリットに乏しい基礎研究に力を注ぐことは珍しくないが、それにしても、常識的には成功すると思われない酸化物超伝導の研究を、大した成果のないまま3年近くにわたって続けさせた姿勢は、生半可なものではない。これに対して、日本の企業は、たとえ「基礎研究所」という名前は付けても、実際にはマーケットを睨んだ応用研究が主眼になっている場合が多い。この差が、ロイヤリティが高額になる基本特許の面で、日本に対するアメリカの優位を生む土台になっている(もっとも、今回の高温超伝導では、IBMは広範な基本特許を取得できず、必ずしも莫大な利益を得ることにはならなかったようだが)。
 ミュラーとベドノルツによる酸化物超伝導の発見は、実は、直ちに学界に波紋を起こした訳ではなかった。その原因としては、(1)ゼロ抵抗の実験だけでマイスナー効果を確認していなかったため、またUSOの一種ではないかと疑われた;(2)いくつかの相が混在する中でどれが超伝導になったかを決定していないなど、実験自体に不備な面があった;(3)学界での権威が(Physical Review などと較べて)やや落ちる Zeitschrift fur Physik に論文を発表した−−などが指摘されるが、やはり最大の理由は、「金属酸化物などで超伝導現象が起きるはずがない」という思い込みが支配的だったためだろう。

 ミュラー/ベドノルツの発見に注目した数少ないグループの一つに、東京大学の田中昭二研究室がある。田中らは早くから酸化物超伝導の可能性に着目しており、他のグループに先駆けてチューリッヒ研の結果を再確認したばかりか、超伝導相の分離精製を行って当時としては世界最高のTc の値を得るのに成功している。もっとも、本当のところは、論文が出版された時点で直ちにその重要性を認識した訳ではなく、1ヶ月ほど放置した後で学生の研究テーマに使えないかと試してみたのが出発点だったという。ともかく、この時点で東大グループが世界のトップを走っていたことは間違いない。
 残念ながら、高温超伝導物質の発見という点では、東大グループは一番乗りを果たすことができなかった。理由の一つは、あらゆる先陣争いにつきものの「一時のツキが裏目に出た」ことにある。チューリッヒ研が発見した La-Ba系に代わる物質を求めて、適当に元素を置換して超伝導を示さないか調べているうちに、BaをSrに置換すると「BCSの壁」をも破る超伝導物質が得られることを発見したのである。これに気を良くして、Sr系を中心に研究を進めた結果、Y系の高温超伝導に物質に到達できなかったと想像される。しかし、田中らの業績は、遅れていると言われる日本の基礎研究の中で、例外的に成果を収めたケースとして高く評価して良いだろう。

 世界で最初に液体窒素温度を越える文字どおりの高温超伝導物質を手にしたのは、ポール・チューに率いられたヒューストン大学のグループである。
 中国では、西洋的な近代科学を否定した文化大革命の影響で、30歳代の働き盛りの年代にすぐれた科学者が少ない。アメリカで大学教育を受けたチューは、文化大革命以前の世代に属する学者として後進の指導にも熱心であり、その人柄を慕って彼の回りには中国系を中心に有能な学者が集まっていた。チュー自身は、以前から超伝導の研究を続けていたが、必ずしも所期の結果は得られず、行き詰まりを感じていたようである。そうした中でミュラー/ベドノルツの論文を目にした彼は、直ちに他の実験を中止して金属酸化物による超伝導の研究に乗り出すことにした。
 チューの研究は、豊かな直観力に導かれてはいるが、決して(一部の人がやっかみ半分に評するように)偶然に頼るものではなく、しっかりとした科学的知見に裏付けられている。彼がチューリッヒ研の結果を追試した後で採用した戦略は、高い圧力を加えると超伝導の性質がどのように変化するかを見ることだった。これは技術的にかなり難しくなるものの、実用的には何の役にも立たない全くの“基礎研究”である。しかし、そこで得られた「高圧を加えるとTc が上昇する」というデータは、次のステップに進むのにきわめて本質的な役割を果たした。すなわち、このデータをもとに「結晶原子がよりコンパクトに詰め込まれたとき超伝導になりやすい」と推測したチューは、ミュラーとベドノルツが発見した La-Ba系酸化物の中の元素を、化学的性質が類似してイオン半径の小さいものに置換する方向に進むことになる。ここで、なぜチューが(BaをSrで置換した東大グループとは異なり)LaをY(イットリウム)で置き換えてみたのかは、必ずしも明らかではない。しかし、彼の直観はまんまと的中し、今世紀最大の発見の一つと言われる(液体窒素温度を越す)高温超伝導を実現することになる。
 チューの研究が最終段階に入る頃になると、酸化物超伝導のブームは世界中に飛び火しており、いくつかの研究所が熾烈な争いを始めていた。そんな中で、充分な実験施設も完備していない“田舎”の大学であるヒューストン大のグループは、業績を横取りされる不安を抱くようになる。特に、超伝導研究の大御所であるAT&Tベル研究所の動向は不気味であった。たとえ産業スパイを使わなくても、超伝導の専門家ならば、チューのグループがイットリウムを使って実験を重ねていると小耳にはさんだだけで、次に何をすべきかがわかってしまう。そうなると、ベル研のような組織力のあるグループなら、あっという間にヒューストン大の研究を追い抜いていくことは目に見えている。内輪の研究チームだけなら箝口令を敷くこともできるが、雑誌に原稿を投稿してから印刷されるまでの間は、外部の人が介入するだけに心配も大きい。しかも、自然科学系の学術雑誌では、投稿された論文が掲載するに値するかを専門家が審査するレフェリー制度が採用されているため、論文がライバルの研究者に審査された場合は、公に発表される以前にその内容が漏れる可能性がある(もちろん、そうした不祥事が起きないように、レフェリーの選定には万全が期されているが)。そこで、チューは(科学者のモラルという点からは決して褒められたことではないが)あるトリックを使って情報の漏洩を防いだ。すなわち、原稿中に現れる化学記号のうち、イットリウムを現すYを全てYb(イッテルビウム)に置き換えたのである(さらに、反応式の係数の値も一部改変している)。これでは、たとえ原稿を目にしたとしても、高温超伝導を再現することはできない。そうしておいて、原稿が出版される直前に、YbはYのタイプミスなので全て訂正するようにと出版社に申し入れたという。それほど、高温超伝導の情報は、多くの利害が絡んだ深刻なものなのである。面白いことに、高温超伝導の鍵はイッテルビウムだという誤った情報が実際にリークしたらしく、いくつかの研究室ではYbを使って超伝導の実験を行っている。YbはYよりもはるかに高価なので、後で憤慨した研究者もいたそうだが、これは自業自得だろう。

 高温超伝導物質は、多くの方面で応用することができる。最初に実用化されるのは、超伝導ジョセフソン素子を利用した高速コンピュータなど、主としてエレクトロニクス関係の製品となるだろう。また、微小磁場を測定するSQUIDなどの量子力学的なデバイスにも利用できる。より大型の応用技術としては、産業用の超伝導磁石や磁気冷却装置などが考案されており、超伝導コイルによる電力貯蔵も夢ではない。しかし、一部のマスコミが騒いだような送電線や磁気浮上列車への応用は、経済的メリットが小さいために実現の可能性はあまり高くない。自家用車が浮上して走る超伝導ハイウェイも、いまだ夢の技術である。とは言え、西暦2000年には超伝導ビジネスはアメリカで50億ドル産業に成長すると予想されており、この領域で技術的優位に立つことのメリットは巨大である。そうした中で、酸化物超伝導に関する特許を取得しているIBMやヒューストン大学の動きが、市場の動向を左右する要因になることは疑いない。こうした革新的な技術が、チューリッヒ研での地道な研究に端を発し、地方大学にすぎないヒューストン大において中国系科学者のリーダーシップの下に花開いたという事実は、必ずしも華やかさのない基礎研究が、現実の社会でいかに重要な役割を果たしているか、如実に物語っているのではなかろうか。

§5 軍事研究の重荷に喘ぐアメリカ


 これまで技術革新のシーズとなるは基礎研究に焦点を絞って議論してきたが、ここでは、逆に「役に立たない」研究の例として軍事研究を取り上げることにする。
 アメリカ学術振興協会の会長である物理学者のレーダーマンは、アメリカの科学水準の相対的低下を嘆いて、次のように記している:「かつて、アメリカの科学は、アインシュタインを庇護し、月に到達し、人類にレーザーやコンピュータやナイロンやテレビや小児麻痺の治療薬や膨張する宇宙の中で地球がどこにいるかを決定する観測データを与えてきた。こんにちでは、知らず知らずのうちに、この指導的な立場から退きつつある」。レーダーマンの指摘によれば、こうした事態をもたらした主たる原因は、科学への財政的援助がEC諸国や日本に較べて充分に増額されていない点にある。実際、既に示した数値によれば、GNPに対する研究・開発費の割合は日本とアメリカはいずれも 2.8%となっているが、非軍事研究・開発費に限定すると、日本の数字が(軍事研究を行っていないので)変化しないのに対して、アメリカは 1.9%にまで減少する。つまり、アメリカにおいては、総研究・開発費の3分の1近くが軍事研究に充当されているのである。これでは、国内産業を活性化させる民生技術の研究が圧迫されても致し方あるまい。
 歴史的に見ると、つい最近まで戦争が技術革新の契機となった時代が続いてきた。例えば、マンハッタン計画では多くの科学者を動員して核エネルギーの解放に成功したが、そこで得られた原子物理の知識は、そのまま原子力発電の建設へと受け継がれていった。また、コンピュータの開発も、もともとは軍事的な弾道計算の必要性から押し進められたものである。このように、かつては潤沢な予算と豊富な人材に恵まれた軍事研究こそが革新的な技術の源泉であり、そこから民生市場へと「おこぼれ」が落ちていったのである。こうした背景があるためか、軍事研究が国にとってマイナスになるという認識は、欧米では必ずしも高まっていない。しかし、現代にあっては、軍事研究はもはや大国の財政を圧迫する「お荷物」に成り下がっている。
 現在の軍事研究に見られる最大の問題は、それが一般産業用の技術として転用されにくい点にある。その理由としては、次の3つが考えられる。
 第一に、軍事機密の壁がある。これは、重要な技術情報や有用な施設を、軍部が独占して他に使用させないというものである。最近では、次のようなケースが見られた。アメリカ国防省が開発した軍事施設の一つに、人工衛星を利用したナヴィゲーション・システムがある。これは、軌道上を周回する衛星から正確な時刻の情報を含んだ電波信号を送信することにより、地球上で受信するまでに要した時間をもとに衛星までの距離を割り出せるようにした施設で、3つ以上の人工衛星までの距離が判明すれば、三角法を応用して自分の位置が決定できることになる。この施設は、1990年初頭に勃発した湾岸戦争において、目印となる地形や建造物のない砂漠を侵攻するアメリカ軍が、いまどの地点にいるかを確認するために実際に用いられた。ただし、衛星からの信号を完全にオープンにすると、敵側兵士にもこの情報を利用されてしまう。これを恐れて、国防省当局は、信号を適当に暗号化することにより、正確な情報はアメリカ軍だけに伝えられるようにし、一般人が手にできるレシーバーでは情報の一部しか受信できないような工夫を凝らした。この結果、軍隊は十数メートルの誤差で位置決定ができるのに対して、それ以外の企業や研究者はせいぜい百メートル内外の精度しか持たない情報で満足せざるを得ない。ところが、この種のナヴィゲーション施設は、一般の交通機関が位置を決定するのに役立つほか、鉱物資源の探査や地震の予知に際してもきわめて有用なはずである。それだけの施設を、単に軍事的な面で利用するにとどめるのは、まさに宝の持ち腐れであり、膨大な開発費のムダ遣いでしかない。
 第二の理由として、軍事技術がきわめて特殊化されているため、民生への応用領域が乏しいことを指摘しておかなければならない。湾岸戦争のときは、轟音を上げて砂漠を突き進む戦車の姿が家庭のTV画面にも映し出され、勇壮に感じた人もいたかもしれないが、こうした兵器類は、出力をアップするために燃費を犠牲にしており、膨大な量の排気ガスによって環境破壊の一因になっていることを忘れてはならない。このように、燃費は悪く、けたたましい騒音を立て、排気ガスをまき散らしてもかまわないから、力だけはやたらに強くするように−−というコンセプトで設計されたエンジンなど、戦車以外の何に使えるだろうか。後で述べるSDIの兵器類の多くも、まさに軍事のためだけに使える技術を満載しているものである。
 軍事技術を民生に転用することを阻む第三の理由は、いささか意外に聞こえるかもしれないが、これが技術的に陳腐化しているという点である。現代においては、マーケットが技術の錬成場である。同じジャンルに限れば、機密のベールに包まれた施設でひっそりと進められる軍事技術よりも、顧客のわがままに晒されながら改良を余儀なくされている民生技術に軍配が上がることは稀ではない。例えば、VTRの技術改良において、ベータとVHS陣営のシェア争いが果たした役割は決定的である。営業戦略の失敗がもとで市場で劣勢に立たされるたびに、ソニーを盟主とするベータ側は、すかさず(ハイファイ、ハイバンドなどの)新しい技術を投入してシェアの回復を図った。当然、VHSも直ちに追随することになる。両者がしのぎを削る過程で、技術はみるみるうちに磨き上げられ、結果的に、ソニーのカメラ一体型8ミリビデオに搭載されているICは最新ミサイルのものよりも高度な水準に達することになったのである。
 一般の人は、しばしば軍事技術を民生技術よりはるかに進んだものと誤解しがちである。例えば、あるニュースキャスターは、大まじめな顔で「現在の偵察衛星は地上で広げた新聞の見出しが読めるほどの観測精度を持っている」と解説していたが、そんなことは常識的に考えても有り得ないだろう。天体観測用の最高度の施設ですら、解像度は10のマイナス6乗程度が限界であるから、衛星軌道上から見出しを読むのに必要な10のマイナス7乗の精度に遠く及ばない。偵察衛星を使ってできるのは、ある程度の長さのあるエッジをコンピュータ解析によって割り出すことであり、これなら十cm程度の誤差で決定することも可能だろう。また、「SDIで使われるようなレーザー兵器が宇宙空間に配備されると、上空から都市を攻撃できるようになる」と述べたキャスターもいたが、レーザーの予想される出力と大気による散乱の割合を比較すれば、これも見当はずれの意見であることは明らかである。こんにちでは、軍事技術が圧倒的な高水準を保ち、その一部が民生市場を潤すという構図は、完全に崩れてしまったのである。
 にもかかわらず、特にアメリカにおいて、民生に転用できない軍事技術を開発するために、資金面でも人材面でも他の研究以上に優遇する措置がとられているのは、人類にとっての不幸と言わざるを得ない。もっとも、国防上の有用性を主張すれば予算が下りることもあって、賢い研究者の中には、あまり関係のない内容のものを軍事研究風に粉飾するケースもあるから、報告された数字を全て額面通り受け取る訳にもいかないが、それでも、アメリカの研究・開発の資源を軍事研究が圧迫していることは確実な事実として指摘することができる。
 以下では、こうした「役立たず」の軍事研究の例として、多くの論争を引き起こしたSDIを取り上げてみたい。

 SDIの概要と問題点
 SDI(戦略防衛構想)とは、1983年に当時のレーガン米大統領が提唱したもので、核兵器を「無力で時代遅れ(impotent and obsolete )」にすることを目的としている。
 それまでの世界は、米ソ二大国が人類を何度も絶滅させるに足る膨大な量の核兵器を保有して睨みあったまま、一時的な安定を得ていた。この状態では、第一撃で相手の戦闘能力を完全に破壊しない限り、必ず核兵器で報復されて、味方も壊滅的な被害を受けることになるため、うかつに戦端を開く訳にはいかない。言い換えれば、双方が少々の攻撃を受けてもなお確実に相手を破壊するだけの兵力を準備する「相互確証破壊」の戦略をとることによって、核戦争を回避してきたのである。まさに、「恐怖の均衡」である。レーガン大統領の意図は、こうした状況の下で、いつ飛来するかもしれないソ連からの核ミサイルがアメリカ国民に与えている恐怖を取り除くことにあった。
 SDIの基本的なアイディアは、ソ連が打ち上げた大陸間弾道ミサイル(ICBM)をアメリカ本土に到達する以前に撃ち落としてしまうというものである。しかし、これは口で言うほど容易ではない。ICBMは、打ち上げ後十数分で高度1000kmにも達し、高速の弾道軌道に入る。このいわゆる「ミッドコース段階」になると、速度もきわめて速く、また対ミサイル防御網を突破するさまざまな手だてを講じることができるので、撃墜するのは困難である。したがって、ICBMを撃ち落とそうとするならば、打ち上げ直後にブースターロケットを噴射しながら加速する3〜5分間の「ブースト段階」、あるいは少なくともその後に続く「ポストブースト段階」までには、照準を定めて狙い撃ちしなければならない。この段階では、ミサイルのスピードが遅い上に、ロケット噴射の熱を感知することによってターゲットを捕捉するのが比較的容易だからである。
 ただし、これだけの作業を実際に遂行するためには、僅か数分でミサイルに狙いをつけられる意志決定システムと、狙い通りに撃墜する指向性兵器を開発する必要がある。SDIの当初計画が行き詰まったのも、この開発目標があまりに現実離れしていたからであった。こうした無謀な計画が、大統領によるトップダウン式の命令によって動き出したところに、この計画の最大の弱点があったと言えよう。

 SDIにおける技術的な困難は、ハードとソフトの両面にわたる。これらを、簡単に見ていくことにしよう。
 ハード面での主たる問題は、ミサイルを撃墜するのに充分な出力と精度を持った指向性兵器を開発するのが難しいことにある。例えば、化学レーザーを利用する場合、大気での散乱によって著しく減衰するため、出力レベルを少なくとも現在の20倍にしなければならないと言われる。しかも、レーザーはコヒーレントな電磁波を発生するものなので、ただ大型化すれば良いという訳でもない。また、粒子を電磁場で高速に加速して打ち出す粒子ビーム兵器も、地磁気によってビームが曲げられるなどの問題があり、実用化するためには出力/精度とも数桁アップする必要がある。
 SDI兵器の切り札と目されたのが、X線レーザーである。実は、SDIの計画全体が、もともとレーガン大統領が物理学者のテラーからこのアイディアを耳打ちされたことから始まったとも言われている。テラーは、原子爆弾が製作される以前から、原爆を起爆材として水素に核融合を起こさせるという水素爆弾の構想を練っていたほどの「天才的な」頭脳の持ち主である。X線レーザーも、核爆発に伴って発生する電磁波を、回りを取り囲んだ金網で集めてビームとして発射するというテラー好みの「斬新な」兵器と言える。ところが、現実問題として、X線レーザーを実戦用に配備するのは不可能に近い。その理由は次のようなものである。X線は大気を透過しないため、レーザー基地を地上に設営し、軌道上の中継ステーションを介してICBMを撃破するという戦法は採用できない。そればかりか、X線を発生させるのに核兵器を利用するので、宇宙空間に多量に配備してソ連全土に睨みをきかせる訳にはいかず、結局、ICBMの発射を確認してはじめて近海を航行している原潜からポップアップ方式で打ち上げることになる。しかも、一回の核爆発で本体が壊れてしまう使い捨て兵器なので、ICBMを確実に撃墜するためには、次々に打ち上げてはX線を発生させなければならない。こうして、ブースト/ポストブースト段階の十分ほどの間に、ICBMの確認〜原潜への連絡〜X線レーザー装置の打ち上げ〜数次の核爆発によるX線の発射と立て続けに作業を行う必要がある。それでも、確実にICBMが撃ち落とせるという保証はない。これが、ほとんど現実味のないシナリオであることは言うまでもないだろう。
 これに加えて、ソフトの面でも多くの困難が控えている。
 SDIは上に述べたように、X線レーザーのような「核兵器」の発射も含めて、きわめて短時間に多くの作業を行わなければならない。したがって、人間がいちいち判断を下していたのでは間に合わず、当然のことながら、コンピュータに支援された意志決定システムを採用する必要がある。こうした状況を、「(映画『スター・ウォーズ』に登場するロボットの)R2D2が核戦争のボタンに指を掛けている」と評する人もいる。そんな中で、もしコンピュータが故障したらどうなるのか。これは、突飛な仮定ではない。実際、1980年6月には、アメリカにミサイル攻撃が開始されたという通報がなされて北米の航空宇宙防衛司令部が騒然としたこともある。結局のところ、コンピュータ回路の欠陥による誤作動と判明して大事に到らなかったが、「もしも…」と考えると恐ろしくなる。
 また、膨大なプログラムは仕様の変更が容易でないため、事態が急変した場合に対応できないことも充分に想像される。例えば、核戦争が始まってアメリカがICBMを発射した直後、急転直下に停戦が合意された場合、アメリカの防衛システムは友軍による誤射が生じないようにプログラムされているため、自分が打ち上げたICBMを途中で破壊することができないと予想されるのである。これも、勝手な空想ではない。先のフォークランド紛争の折に、イギリス軍は、自分が保有しているエグゾゼミサイルを誤って撃ち落とさないように、「エグゾゼは味方と判断せよ」とプログラムしていた。このため、敵側が発射したエグゾゼからわが身を守ることができずに、一発で駆逐艦シェフィールドを撃沈されてしまったのである。SDIを実行するのに必要なプログラムは、これまでとは較べものにならないほど膨大になるので、刻々と移り変わる世界情勢に追随していけるかどうか、きわめて疑わしい。

 このように、ハード/ソフト両面で多くの問題を抱えながらも、大統領からの指示の下にSDIは始動した。そのために費やされた資金や人材は半端ではない。例えば、83-4年度にボーイング社1社だけではペンタゴンからSDI関連の研究で3億6000万ドル受注している。しかも、そこで得られた技術的な成果は、(X線レーザーの機構からもわかるように)民生に転用することが一般的に難しい。ここまでくると、さすがにアメリカ国内でSDIに対する批判が高まって、議会が関連予算を削減するなど、無謀な軍事研究には歯止めをかける傾向も見られるようになった。

 “新生”SDIの動き
 ところが、湾岸戦争以後、再びSDI注目されるようになってきている。もともと、レーザーや粒子ビームによるICBMの撃破が困難であることがわかってから、SDIの計画をよりスリムなものに見直す動きは始まっていたが、それが湾岸戦争を契機に一気に加速される様相である。
 “新生”SDIの中心になるのは、「輝く小石」と呼ばれる小型コンピュータを搭載したミサイル迎撃兵器で、これを宇宙空間に大量に配備しておき、飛来するミサイルに体当たり攻撃をかけるものである。この構想が脚光を浴びたのは、湾岸戦争におけるパトリオットの活躍とイメージが重なるからである。湾岸戦争では、イラクからイスラエルやサウジアラビアに向けて発射されたスカッドミサイルを、アメリカが供給したパトリオットミサイルで撃墜することにたびたび成功した。この光景が、一般家庭向けにTVで放映されたこともあって、本土をミサイル攻撃から防ぐのにミサイルが有効であるという認識が生まれるに到った。特に、ブッシュ大統領がこの構想に積極的な姿勢を示しており、GPALS(限定ミサイル防衛システム)の名の下に新たな開発を押し進めようとしている。その背景に、米ソの緊張緩和の流れの中で、ソ連のICBMよりも第三世界からの攻撃を恐れなければならない状況があることも、忘れてはならないだろう。
 ただし、新生SDIもまた多くの問題をはらんでいる。何よりも、その実現可能性に疑義がある。実際、爆破した破片によって市街地が受けた被害額はパトリオット導入前からみて必ずしも改善されていないことからもわかるように、パトリオットによる対スカッド防衛は必ずしも成功した訳ではない。また、アメリカ本土に飛来するミサイルは、スカッドよりもはるかに高速なので、パトリオットほどの撃墜精度を確保できるかも疑わしい。さらに、こうした技術は、民生市場を潤すことがほとんどないため、実際に攻撃をしかけられるという不測の事態が生じない限りは無用の長物にすぎないだろう。こうした事情を勘案すれば、この種の研究に膨大な資金を費やすのは、旧来のSDIと同様にバカげたことと思われる。アメリカ議会でも、いざお金の話が絡むと湾岸戦争の熱も冷めてくるのか、この新生SDIに対しては決して好意的ではなく、現時点(1991年6月)では、予算を承認しない方向に動いているが、大統領がどのような巻き返しを図るか予断を許さない。この問題は、アメリカにおける軍事研究の将来を占う意味で、今後とも注視していなければならないだろう。

§6 産と学の正しい関係を目指して


 日本の基礎研究は多くの面でアメリカの後塵を拝しているが、その理由の一つに、大学における研究体制の弱さが指摘できる。アメリカが“産”と“学”(場合によっては、さらに“軍”も加えて)の協同によって研究を押し進めているのに対して、日本の場合は、行政指導による“産”と“官”の結びつきが強く、“学”は産業技術の面では蚊帳の外に置かれていると言って良いだろう。こうした研究体制の相違が、基礎研究におけるアメリカの優位を生み出している。

 産学協同の得失
 産学協同による研究がどのようなメリット/デメリットをもたらすかについては、既に多くの機関によってさまざまの角度から調査が行われているが、ここでは、1984年にハーバード大学のグループによって行われた実態調査を参考にしたい(D.Blumenthal et al.,Science vol.231(1986)242-)。この調査は、アメリカのバイオテクノロジー関連の業界における産学協同の頻度と帰結を明らかにする目的で行われたもので、バイオテクノロジーの研究を実践ないし支援していると思われる企業をリストアップし、インタビューを通じて大学への出資の有無や出資額などに関するデータを入手している。調査結果は、フォーチュン誌に掲載された大企業 500社に含まれる会社とそれ以外の会社に分類してまとめられているため、企業規模と産学協同の関連についての貴重なデータとなった(表)。
 はじめに指摘したいのは、アメリカに見られる産学の密接な関係である。調査した範囲では、(フォーチュン 500社に含まれる)大企業の実に8割以上が何らかの形で大学の研究を支援している。これは、企業規模の拡大とともにさまざまな方面へ経営を多角化させていく戦略の一環でもあるが、出資額の巨大さを見れば、単に大学との接点を保とうという形式的なものではなく、実質的な研究成果を期待していると想定される。
 特に注目されるのは、大学における研究の生産性である。研究の成果が上がったかどうかを示す目安としては、しばしば特許の取得数が使われるが、歴史が浅いジャンルのため審査中のものも少なくないと見られることから、ここでは特許出願数で代用している。機関別に特許出願の絶対数を見ると、(企業内研究所など)大学以外からの出願の方が圧倒的に多い。しかし、これを投資された金額当たりの数に直してみると、大学から出願された特許が有意に多く、大学の方がコスト当たりの生産性が高いことがわかる。もちろん、このデータはあくまで出願数にすぎず、「下手な鉄砲も…」式に数多くの出願を行っているケースも含まれているが、こうした“特許戦略”は主として基本特許を取得できなかった企業が防衛のために行うものであるため、大学と大学以外での相対的な出願数の差にはあまり影響を及ぼしていないと想定される。
 産学協同の研究が成果を上げていることを示すデータは、トレードシークレットの存在にも見いだされる。トレードシークレットは特許と異なって公開義務がないため、専門的なノウハウを要する最先端の技術開発においては、重要な役割を果たす。ハーバード・グループの調査では、産学協同研究を行っている企業の41%が過去に少なくとも一つ以上のトレード・シークレットを獲得しているという。この結果も、こうした研究が実を結んでいる証拠である。
 大学において研究の生産性が高くなるのは、ある意味で当然の結果である。すぐれた大学は、専門分野の基礎に精通した有能な研究者を抱えており、それなりの研究施設も備えている。また、企業に勤務している研究者と違って、高額な報酬を必要としない。こうしたことから、少なくとも基礎的な面においては大学の方が効率の良い研究を実践できると予想されるが、上のデータは、この考えを実証するものである。
 ハーバード・グループは、このほかにも、産学協同研究の得失をアンケート形式で調べている(表)。これによると、特に、最先端の研究で流行に遅れないために、大学との協力が重要な役割を果たしていることがわかる。また、経営上の利潤として投資を回収できるかという点では、研究・開発コストの低減が図れるという面でプラスになる一方、研究はしたものの“うまみ”のある商品に結びつかない危険性を指摘する声もあり、一概には言えない。しかし、全般的には、産学協同のメリットを指摘する意見が多いようである。

 もっとも、産学協同の得失は、企業側の声を聞いているばかりでは判定できない。大学関係者の中には、産業界からの資金流入を許すことによるマイナス面を強調する人も少なくない。特に深刻な問題として、次の3つが指摘できる。
 第一に、企業との協力を続けていく過程で、研究の方向が商業主義に左右されることになり、基礎研究本来の自由な発想が失われる懸念がある。既に見たように、酸化物系の超伝導の発見は、ミュラーとベドノルツが大した業績を上げないまま3年近くにわたって地道な研究を続けてきた結果として、最終的に射止められた金的である。気短な経営戦略に従っている企業ならば、1年も待たずにさっさと研究を打ち切らせていただろう。短期的な利得を志向する経営者の発想は、地道な基礎研究の方向とは違背するものである。
 第二の問題としては、企業から奨学金などを受けた学生が、将来の進路を束縛される危険性を指摘しなければならない。学生の育成はあくまで教育機関たる大学が責任を負うべきであり、研究者としての適性に応じて教官が進路を指導するのが望ましい。ところが、奨学金を与えた以上は、企業としては、その学生が特定の研究に従事し、または、卒業後に当の企業に就職することを期待しており、結果的に教育の自由に介入してくることも予想される。
 第三に、研究成果が自由に発表できなくなるケースが生まれることが心配される。基礎研究の長所は、学会や学術雑誌を通じて結果が公表され、他の研究者がそれを自由に利用できるところにある。しかし、企業との協力関係の下で行われた研究の場合、企業がこれをトレードシークレットにすることを希望して、公表を拒むことがある。こうなると、人類の共有財産であるべき学問が、一部の権利者に独占されることになりかねない。

 それでは、上に述べたようなメリット/デメリットを秤に載せた場合、針はどちらに振れるのだろうか。個人的な考えになるが、多くの不安材料はあるものの、私は少なくとも日本においては、産学協同を押し進める方を支持する。確かに、企業の資金を受け入れることによって、大学の自治が損なわれる危険があるかもしれない。しかし、大学の自治とは、あくまで支配権力によって研究や教育が曲げられないための基盤であり、これを主張する前提として、すぐれた研究や教育を行っていることが要請される。残念ながら、日本の大学はその要件を満たしているとは認められない。現在の沈滞した大学の状況を改めるためには、企業の力を利用して研究の活性化を図るのが、ベストだと思われる。

 日本の産学協同
 それでは、日本の産学協同の実態はどうなっているのだろうか。
 政府の方針としては、1970年代の後半以降、石油ショックに起因する構造的な危機を打開するために、いわゆる「技術立国」の観点から、さかんに産官および学の協力が重視されるようになる。例えば、1977年の科学技術会議第11号答申では、人材/資金面での協力や協同研究の推進を含む「研究開発における官・学・民(=産)の有機的連携の強化」が唱えられている。しかし、現状を見ると、以前からの産官の協力体制は維持されているものの、大学との関係が密接になったことを示すデータはほとんどない。
 日本において企業が大学との協力関係を築こうとしない最大の理由は、大学が研究機関として充分に機能していないためである。実際、企業研究者の約4割が、「大学からはほとんど得るものがない」と答えている。日本の大学における研究水準の低さを物語る証拠は、枚挙に暇がない。例えば、『ゴーマン・リポート』に載せられたアメリカを除く(!)世界の大学ランキングでは、東京大学が67位に顔を出しているだけである。もっとも、理論物理学者のC.N.ヤンが来日した折に、東大を見て「アメリカの三流大学以下の施設だ」と感想を述べていたのだから、二流大学並の研究でも誉めてやるべきだのだろうか。アンケートによれば、研究機関として日本の大学がアメリカに較べて劣っていると考えている人は、実に87.6%に上る(日経エレクトロニクス、1990.1.8.号、P.89 )。しかも、80年代を通じて研究・開発費の伸びが世界のトップだとされる日本にあって、大学の研究環境が過去と較べて悪化していると考えている人が43.3%にもなる。それどころか、52.5%(!!)の人が今後も悪化すると思っている。こうした状況では、アメリカほど産学協同の研究が進まないのも当たり前かもしれない。
 しかし、最近では風向きに多少は変化が感じられる。国立大学等と民間の協同研究の件数は、1988年度の時点で5年前の10倍に急増している。また、国立大学では公務員法の規定によってさまざまな規制があるものの、一部の私立大学では、慶應大学の助教授がソニーコンピュータサイエンス研究所の副所長を兼任するなど、人材面でも企業との交流が活発化する動きが見られる。こうした流れの中で、日本でも少しずつ産学の間の壁が取り払われつつあることは事実だろう。


(1997.3.14執筆)

©Nobuo YOSHIDA