前ページへ 概要へ 表紙へ


21世紀へ向けて



 20世紀も終わろうとする現在、技術におけるキーワードは「ソフト化」である。 アルビン・トフラーが予言した「第3の波」は、今まさに世界を席巻しつつある。 かつて一国の経済を支えた重厚長大産業は、きわめて効率の悪いお荷物的存在になりさがり、ソフトウェアを活用する情報通信分野が 経済の消長を左右する鍵となっている。
 アメリカは、早くから「ソフト化」への布石を敷いていたため、90年代に入ってから、この分野で世界のリーダーとして君臨している。 一方、80年代に「ハイテク大国」と浮かれていた日本はと見ると、ソフトウェアの重要性についての認識が乏しかったこともあって、 ソフト技術の面でアメリカに大きく水をあけられてしまった。
 これから21世紀に向けて、日本が高度技術社会を維持し発展させていく上で、いかにしてソフト化の波に対応していくかが、 重要な課題となる。以下では、 この課題を実行するために欠かせない知識として、ソフトウェアの知的財産権とグローバル・スタンダードについて解説する。
○知的財産としてのソフトウェア

 コンピュータ・プログラムやLSIアーキテクチャのようなソフトウェア資産は、かつてはハードウェアの「おまけ」として 軽視されていた。 実際、IBMの初期のコンピュータには、IBMが自社マシン用に開発したプログラムを無料で添付するのが当たり前だった。 ソフトの重要性が認識されるのは、1970年代に入ってからであり、この頃から、簡単にコピーされてしまうソフト資産を どのようにして保護するかが、真剣に議論されるようになる。
 ソフト資産を保護する知的財産権として議論の対象になったのは、特許権、著作権、および新規の財産権である。 予想を超える勢いでのコンピュータの普及は、従来の法理で対応できないような新たな局面を生み出しており、 新規立法によって新しい財産権を導入するのが最も理にかなった方法とも言えるが、多くの国では、 事態の急速な展開に立法府が追随できないこともあって、古典的な特許権と著作権がソフト資産に適用されている。
 最大のソフト大国であり、また、ソフトの保護に最も熱心だったアメリカでは、1972年に、特許はソフト保護に不適当であるとの 判例が出されてから、著作権によってソフトを保護することが一般的になっている。 しかし、もともと文化的な作品を保護するための著作権法をコンピュータ・プログラムなどに適用するためには、 旧来の条文を拡大解釈したり、著作権法そのものを改正しなければならず、その過程で、法律家の間にもかなりの混乱が見られる。 このため、90年代にはいると、著作権の適用範囲を制限する動きが顕著になり、その一方で、特許権も必要に応じて ソフトに適用すべきだという考えも生まれてきた。 現在は、いまだ過渡期ではあるものの、特許権と著作権を使い分けながらソフトを保護していくべきだという認識が拡がっている。
 ここでは、コンピュータ・プログラムに議論の対象を絞って、アメリカにおけるソフト保護の変遷を辿ってみたい。
〜1980 ソフト保護の混乱期
 1970年代には、ソフトの重要性は認められつつあったが、どの法律を適用すべきかについては混乱が見られた。 この混乱に拍車をかけたのが、有名なベンソン判決(米連邦最高裁、1972)判決である。
 ベンソンがアメリカと日本の特許庁に出願した発明は、 「2進化10進数を2進数に変換する方法とこれを実行するシフトレジスタ式装置」に関するもので、 日本では特許が成立したが、アメリカでは認められなかった。 10進数とは「1、2、・・・9、10、11・・・」という普通の数、2進数は「1、10、11、100・・・」というように、 0と1だけで表した数で、コンピュータ内部で用いられる数の表現法である。 2進化10進数とは、10進数のそれぞれの桁を2進数で表したもの−−例えば、「25」は「10の位が10、1の位が101」となる−− で、電卓などのボタンを押したときの機械内部での表現に対応する。 ベンソンの発明は、2進化10進数から2進数への変換を、より少ないステップで実行する方法を与えており、 表面上は計算装置の形をとっているものの、実際には、計算のアルゴリズムを述べたものである。
 この発明に特許を与えるべきか否かを巡って訴訟が行われたが、連邦最高裁は、最終的に、ベンソン発明は特許不適格であると結論を下した。 特に重要なのは、その判決文に現れるいくつかの文言−−例えば、「アイデア自体は特許不適格である」、「抽象的に表現された原理は、 基本的真理であり…思考の源泉である。これらは特許たり得ない」といったものである。 この判決は、プログラムの基礎となるアルゴリズムやフローチャートは特許で保護できないことを意味するものと解釈された。 このため、特許に代わる保護手段を模索する必要が生じた。
1980〜 著作権によるソフトの保護
 プログラムは、コンピュータに対するさまざまな指令を組み合わせたもので、特定の機能を実現する仮想的な「装置」と見なすこともできるが、 物理的には、磁気テープやフロッピーディスクに書き込まれたコードとして存在する。 こうしたコードは、音楽における楽譜や小説における文字列と同様に、作品の「表現」と考えることができる。 「表現」を保護するための権利としては以前から著作権が制定されており、著作者に無断で複製することが禁止されていた。 したがって、プログラムに関しても、著作権を適用することにより、法的にコピーを禁止することは可能である。 多くのソフト資産は、音楽や小説以上に複製が容易なので、著作権によるコピーの禁止は、きわめて有効である。
 著作権は、権利の継続期間が長い(法人の場合は50年)、申請しなくても自動的に権利が発生する−−などの点で、 特許よりも権利保持者に有利になっている。 当時は、ソフト資産を保有する企業が急速に力を付けてきた時期に当たり、著作権によるソフトの保護を歓迎する声が多かった。
 しかし、著作権をプログラムに適用することには、大きな問題があった。 文化的な作品を保護することを目的とした著作権は、「表現」は保護しても「アイデア」は保護しないという点で、 基本的なコンセンサスができあがっていたからだ。
 芸術作品の場合、小説でも音楽でも、無断で印刷物をゼロックス・コピーするのは著作権侵害にはなるが、 ストーリーや旋律が良く似た作品を新たに作っても、道義的にはともかく法律上は咎められない。 むしろ、そうした模倣行為は、しばしば偉大な傑作を生み出す苗床となる(シェークスピアやベートーヴェンがいかに先行作品を 真似したかを思い起こしていただきたい)。
 表現のわずかな違いが思想や感情の微妙な揺らぎを呼び覚ます芸術作品とは異なって、プログラムは、 限定された機能を機械的に実現するものであり、コードそのものよりも、より抽象的な処理手順やサブルーティン構成の方が 本質的な役割を果たしている。 従来の著作権についての考え方では、こうした機能を模倣したプログラムを規制対象とすることはできない。 著作権によるプログラムの保護を実効的なものにするためには、著作権の概念を拡張する必要がある。
 良きにつけ悪しきにつけ、こうした著作権概念の拡張におけるメルクマールとなったのが、 ウェラン判決(米、1986)である。
 ウェラン社がジャスロウ社を著作権侵害で訴えた事件の判決は、プログラムに著作権を適用することの難しさを浮き彫りにした。
 訴訟の対象になったのは、ジャスロウが発売した歯科顧客管理ソフト「DentcomPC」。このプログラムが、ウェランの「Dentalab」と ほぼ同一の機能を持ちながらはるかに廉価であったため、ウェランが販売差し止めと損害賠償を請求した。 調査したところ、ジャスロウ社のプログラマーは、自力で顧客管理ソフトを開発する能力はなく、市販されていた「Dentalab」を 解析して、そっくりのソフトを作り上げたことがわかった。
   ここで議論を複雑にしたのは、2つのソフトでは用いられたプログラム言語が異なること、 すなわち、コードのレベルでは「表現」が違うという点である。 この点を克服するため、判決では、ソフトの著作権はコードだけでなく「構造(structure)、手順(sequence)、構成(organization)」 にまで及ぶと主張された。 ジャスロウ側の違法性は明らかだが、それを法理論的に明確にするために、いささか大風呂敷を広げた判例になってしまった感がある。
 ウェラン判決に従って、単なる「表現」だけではなく、その「構造、手順、構成」も著作権で保護されるということになれば、 すでにソフト資産を保有している者は、きわめて有利な立場に置かれる。 実際、この判例を額面通りに受け取れば、先行ソフトにアクセスした上で類似した機能を実現するソフトを作ると、 ほとんどのケースで著作権侵害とされてしまう。 これは、それまで新製品が出ると中身を調べて、より高機能・高品質の製品を作り上げてきた二番手商法の企業にとっては、 厳しい状況になることを意味する。
 ソフトの重要性を訴える声が高まる中で、アメリカでは、80年代を通じて著作権の拡大解釈が続けられる。 その流れは、アプリケーション・プログラムだけではなく、OS(コンピュータを動かすための基本ソフト)、 マイクロコード(マイクロチップの制御用命令セット)、インターフェース、データベースなどにも及んだ。
 日本では、1972年以来、通産省が小委員会を設置して、ソフトの登録・保護(権利期間15年程度)を行う新規立法を提言していた。 だが、より強力なソフト保護政策を求めるアメリカの圧力に屈し、新規立法を見送る代わりに、1986年に 著作権法を改正してプログラムに対応するというアメリカ的な体制を整えることにした。 これに伴い、ソフト保護は(通産省ではなく)文化庁の所管事項となった。
1990〜 過保護な著作権の見直し
 1990年代に入ると、著作権法を過度に拡大解釈してソフト保護を図ることに批判的な声が高まってくる。 消長・交代の激しいソフトウェアの世界で、保護期間50年という著作権は「半永久的な」足かせとなり、 ソフト開発力をかえって阻害することになりかねないからである。
 ウェラン判決に見直しを迫るものとしては、アルタイ判決(米、1991)が重要である。 これは、著作権の範囲を「構造、手順、構成」のようなきわめて抽象的な段階にまで無定見に拡張せず、 抽象化の程度に応じて類似性を定量的に判定すべきだと主張するものである。
 さらに、著作権が適用される対象を限定する動きも現れる。
 もともと、ヨーロッパでは、著作権の野放図な適用は行っていなかった。例えば、 構造技術プログラム判決(西独フランクフルト地方控訴院、1985)では、 著作権で保護されるプログラムとは、「単純に既存のソフトウェアを発展させただけではなく、 平均的な能力のプログラマが開発したソフトウェアに較べて、データやコマンドの選び方、データの入力方法、 データやメニューの配置などについて、プログラマの創作能力が発揮されている」ことが必要とされている。
 アメリカで、著作権拡大の動きが止まったことを示す象徴的な裁判が、Look & Feel裁判とも呼ばれた インターフェースを巡るアップル 対 マイクロソフトの争いである。
 もともとパソコンのジャンルでは、機能とデザインの面で先進的なアップルのMacintoshが、長らく市場をリードしていた。 マイクロソフトがパソコン用OS(基本ソフト)として開発したMS-DOSが、キーボードから1行ずつコマンドを入力しなければ 機能しないのと比べて、Macintoshでは、マウスを操作してアイコン上でクリックするだけで多くの作業が実行できる。 また、画面上に開かれたウィンドウを切り替えることにより複数の作業を平行して進められるので、効率的でもある。
 マイクロソフトは、1985年、こうしたMacintoshの長所を露骨に模倣した新OSWindowsを発表する。 激しい講義を受けたマイクロソフトは、アップルからライセンス供与を得たという形で契約を結んでとりあえず事態を収拾する。
 しかし、1988年になると、マイクロソフトは、アップルに無断でWindowsの改良版を発表する。 多くの点でさらにMacintoshと似たものになっていたこのバージョンに対し、アップルは、著作権を侵害するものとして提訴した。 その後、ゼロックスがアップルをGUI(graphical user interface)の著作権侵害で訴えた (実際、Macintoshは、アップルがゼロックスにいた技術者を引き抜いて開発させたものである)ため、 アメリカを代表する企業の三つ巴の争いとして、内外から注目された。
 この事件の最初の判決は、1992年、カリフォルニア州連邦地裁で出された。 この判決では、アイコンなどのインターフェースは著作権の対象外とされ、マイクロソフトに対するアップの訴えを退けた。 これに不服を唱えたアップルは控訴したものの、1995年の控訴裁判所で再び敗訴の憂き目を見る。 このころからアップルは業績悪化が表面化し、パソコン市場は完全にマイクロソフトに牛耳られるようになる。
 裁判所がアップル敗訴の判決を出した背景には、著作権の拡大解釈に歯止めをかけようとする一連の動きがあった。 実際、この裁判では、著作権侵害の要件として、80年代に一般的に採用されていた「実質的な類似性(substantial similarity)」ではなく、 「事実上の同一性(virtual identity)」を要求している。 要求水準が上がったため、Windowsが著作権侵害に当たるとは認められなかったのである。
 この裁判で特に重要なのは、基本的にインターフェースが著作権の適用外とされたことである。 裁判所は、アップル社のGUIが備えている特徴のうち、デスクトップのメタファ、ウィンドウの利用、身近な事象のアイコンによる表現、 アイコンの操作法、メニューの使用、対象のファイルを開いたり閉じたりすることによる情報の検索/転送/保存の操作の表現が、 著作権保護の対象とならないアイデアだと認定した。 例えば、アイコンを“ゴミ箱”に移動することでファイルの消去になるという操作法は、著作権で保護されないのである。
 確かに、インターフェースが著作権の対象になると、多くの不都合が生じる。 例えば、自動車のブレーキの操作法が著作権で保護された場合、下手をすると、メーカーごとにブレーキの扱いが異なることになり、 ドライバーに無用の負担を強いる結果を生む。 ユーザーから見た利便性を考えれば、インターフェースは自由に(無償で)使えることが望ましい。 こうした観点からすると、著作権を制限する判決は、一定の見識を示したものとして評価することはできる。 ただし、Macintosh開発に要したアップルの投資を考えると、必ずしも、諸手をあげて賛成できるものではない。
1990〜 特許権もソフト保護に活用へ
 著作権によるソフト保護の動きに揺り戻しが生じたことから、一時は、プログラムには適用できないと考えられていた特許を 見直す動きも現れた。
 特許商標局(米)は、「コンピュータに組み込まれた発明に関するガイドライン」(1995)で、「コンピュータで実行するプロセス」 「ソフトウェアに制御されるコンピュータ」「一定のデータ構造を持つ媒体」にも特許が与えられることを認めた。 ただし、無審査で権利が発生する著作権とは異なり、当該プログラムが、新規(novel)で非自明(non-obvious)かどうかを審査する。
 また、日本でも、特許庁が「ソフトウェア関連発明に関する審査基準」(1993)を発表、自然法則を利用していなければ特許にならないと した従来の方針を改め、「対象の技術的性質に基づいて情報処理を行うソフトウェア」も特許の対象にすることが決められた。
 特許をソフトウェアに適用する場合、プログラムのコードではなく、そこに使われているアルゴリズムが保護の対象となる。 きわめて複雑なアルゴリズムを開発するためには、莫大な費用と優秀な人材をつぎ込まなければならないので、こうした措置は、 経済学的な妥当性がある。 しかし、適用範囲をあまりに拡大しすぎると、逆に、自由な研究や教育を妨げる恐れもでてくる。 そのことを如実に示しているのが、カーマーカー法特許の問題である。
 カーマーカー法とは、カーマーカー(AT&T)が開発した線型計画法の計算法の一種で、 有限な資源の最適な配分法を高速に求めることができる。 カーマーカーは、このアルゴリズムを実行する装置に関して、日米で特許を出願した。 これはまさにベンソン発明の現代版であり、数学的な計算法が特許になるかどうかを見る試金石となる。
 アメリカでは、1972年の判例を覆す形で、1988年に3件の特許が成立した。 日本では、いったんは91年に特許庁が拒絶査定をしたが、AT&Tが不服審判を請求、クレームを若干書き直したこともあって、 96年に特許が認められた。
 特許が認められたことを受けて、AT&Tは、カーマーカー法に基づく計算を行う専用マシンKORBXを開発、1台890万ドルという 法外な価格で売り出した。 これまで、アメリカ空軍はデルタ航空などが購入している。 その後、東工大の研究者がカーマーカー法より高速のアルゴリズムを開発、これを組み込んだパッケージソフトを、アメリカの ソフトウェア会社が5万ドルで販売したため、KORBXは全く売れなくなったが、AT&Tは、特許侵害があったと提訴、 結局、売り上げの5%を取得することに成功している。
 きわめて複雑なものとはいえ、数学的な計算法に特許が与えられたことは、憂慮すべき事態である。 コンピュータを用いた計算法といえば、モンテカルロ法や高速フーリエ変換法が有名だが、 いずれも研究や教育の現場で自由に使われている。 ところが、カーマーカー法の場合、AT&Tに使用料を支払わなければこれを使って計算することができない。 「思考の源泉」としてのアルゴリズムの意義を、もう一度考え直さなければならない段階にきていると意って良いだろう。

○「グローバル・スタンダード」を巡る争い

 ソフト化時代においては、物作りのうまさだけでは世界中で使われる製品を世に送ることはできない。 ソフトウェアは、一般に複数の装置で共有されることを前提にしているので、ハードウェアの側に規格の共通化が要求されることになり、 規格の統一と普及という作業が、決定的な重要性を持つようになるからである。
 結果的に普及することになった規格は、必ずしも最良の選択ではい。 例えば、わが国の鉄道の線路は、間隔の狭い狭軌が一般的だが、これは、明治初期に、 イギリス人技師が、拓けた平地の少ない国土と体格の貧弱な国民にあわせて最初の線路を狭軌にしてしまったため、 これと接続するすべての路線を同一規格にしなければならなかったことの結果である。 どのような規格を採用するかによって、その後の産業の発展にも影響が及ぶことになるため、 規格を巡るさまざまな駆け引きは、しばしば、政治的な様相を呈し、ときには、国際的な摩擦をも引き起こす。 こうした中で、こんにち、アメリカ企業の提案した規格が、多くの分野で、着々とグローバル・スタンダードの地位を 獲得しつつあることは注目に値する。
 ここでは、次世代テレビと携帯電話の事例をもとに、日本企業がなぜグローバル・スタンダードと縁遠いかを見ていきたい。
次世代テレビ
 現行のテレビは、NTSC、PAL、SECAMの3つの規格が併存しており、画質も、フィルム映画と比べると見劣りする。 こうしたことから、次世代のテレビは、世界的に規格を統一し、同時に画質の向上も図ろうという計画が早くから進められていた。
 この分野で、80年代の終わりまでトップを独走していたのが、NHKである。 すでに60年代から次世代テレビについての研究を進めていたNHKは、
  走査線数倍増(1000本強)
  ワイド化
  衛星放送
を骨子とする高品位テレビの開発を行い、最終的に、ハイビジョン規格を決定した。
 1980年代には、実用化の域に達していた規格がハイビジョンだけだったこともあり、これが世界統一規格に採用される可能性も高かった。 アメリカでは、1987年に全米テレビ映画技術者協会がハイビジョンを推す動きを見せており、日米が足並みをそろえれば、 ヨーロッパもこれに従うことが予想された。
 事態が急転するのは、1990年のことである。
 80年代には、アメリカの技術者は、すでに最先端技術とは言えなくなったテレビにあまり関心を示さなくなっており、生産国も、 中国、韓国、日本、およびアセアン諸国にシフトしていた。 アメリカ企業でテレビ受像器を製造していたのはゼニス1社という有様である。 ところが、パソコンが急速に普及し、ネットワーク化が進められるにつれて、テレビに対する新しい興味が芽生えてきた。 テレビがパソコンと融合し、単なる一方的な番組の受像器ではなく、画像を含んだ情報通信の要の役割を果たすようになる可能性が、 認識されたからである。 こうなると、その技術を日本に独占されることは、国家的に見てゆゆしき事態である。 それまで、テレビ産業にあまり関心を示さなかったアメリカ政府が、この問題に積極的にくちばしをつっこむようになる。
 1990年の国際通信諮問委員会(CCIR) では、欧米各国がそれぞれの国益を優先したため、日本が推すハイビジョンは支持を 集められず、このまま日米欧がばらばらの規格を採用することになるのでは、との懸念も生まれた。
 こうした中で、急速に注目を集めるようになったのが、デジタル方式のテレビである。
 デジタル伝送技術の研究は1980年代からアメリカを中心に積極的に進められていたが、大量の画像情報をリアルタイムで 送信しなければならないテレビのデジタル化は困難との見方が一般的であった。 ところが、1990年に、GI(General Instrument)が、全デジタル方式のテレビ送信技術を開発したことにより、風向きが変わる。 デジタルによるテレビ放送が可能になれば、パソコンにテレビの画像情報を取り込んで処理することがきわめて容易になる。 また、画像以外にも各種の情報を重ねて送信することもできる。 全く新しい技術の地平が拓けたことにより、世界中の技術者が、デジタル方式のテレビに関心を寄せるようになった。
 1993年の米連邦通信委員会(FCC)では、次世代テレビの規格候補からハイビジョンをはずすことが正式に決定された。 「(NHK方式は)完全に時代遅れになった」(ニューヨークタイムズ)という日本人にとってほろ苦いコメントも登場する。 完全に後手に回った日本は、まもなくアメリカが提出するであろうデジタル方式テレビの規格を横目に、10年そこそこの 中継ぎ規格にすぎないことが明らかになっているハイビジョン放送のために、放送施設の新説や衛星の打ち上げを実施しなければならない。 郵政省内部には、すでにハイビジョンへの支援体制を早いうちにうち切って、デジタル方式への転換を画策すべきではないかという 動きが現れている。
 80年代には世界をリードしていたNHK(およびそれに追随していたエレクトロニクスメーカー)は、どこで失敗したのか。 もともと、日本企業は、体質的に、独自技術を開発しようという意欲に乏しい。 他が開発した技術を短期間で身につけ、より高性能の製品を製造するという二番手商法を実践してきた。 これまでのように、それ1台で役に立つスタンドアローン製品の場合は、そうしたやり方で充分に利益を上げることができた。 しかし、「ソフト化」が進み、規格の決定が本質的な重要性を帯びている分野では、二番手ねらいは、常に後塵を拝する目にあう。 一方、NHKは、法律で放送事業に縛り付けられており、デジタル方式を軸にコンピュータとテレビを融合させるという発想は 抱き得ない立場にあった。 NHKが目指したのは、何よりも画質の改善であり、そのためには何をすればよいかという観点から技術を開発していった。 現時点でも、画質の点ではハイビジョンは、実用段階にある他のどの方式よりもすぐれている。 ハイビジョンは、まさにNHK技術陣の努力の結晶であると同時に、日本的な視野の狭さの証でもある。
携帯電話
 こんにち、携帯電話は若者の必須アイテムとされており、90年代に最も普及した電化製品である。 東アジア諸国の中には、香港やシンガポールなど、日本以上に携帯電話の普及が進んでいるところもある。 ところが、多くの電化製品で圧倒的なシェアを誇ってきた日本企業が、こと携帯電話となると、きわめて脆弱な輸出力しか持っていない。 こうした状況に陥った背景には、規格決定に政府が容喙する日本流のシステムがあった。
 NTTの独占事業だった移動通信市場が開放されたのは、1987年のことである。 当時は、自動車電話を中心とする比較的小さなマーケットだったにもかかわらず、ここにモトローラが参入しようとして 郵政省の抵抗に会い、日米の政府間交渉のテーマとなるほどの摩擦を引き起こした。
 モトローラが日本の移動電話を主要ターゲットに据えたのは、標準規格の乗っ取りが見込めたからである。 世界的にモトローラ方式が標準になりつつある中で、日本だけは、郵政省のバックアップによってNTT方式というローカル規格が ほぼ100%のシェアを占めていた。 モトローラからすると、郵政省による政策的な非関税障壁さえなくなれば、機能と価格の両面でNTTに勝るモトローラ方式が 急速に普及し、標準的な規格になるのは当然のことに思えた訳だ。
 しかし、郵政省は、あくまでNTTを優遇する方針にこだわった。 まず、通信事業者を1地域2社に限定、そのうち1社はNTT(後のNTTドコモ)と定め、その上で、 新規参入する事業者のうち、NTT方式の日本高速通信(後のIDO)を首都圏と中部圏に、 モトローラ方式のセルラー電話会社グループ(第二電電系)をその他の地域に割り振った。
 モトローラは、こうしたNTT優遇策に反発、アメリカ政府に働きかけ、89年の政府間交渉で IDOがモトローラ方式を一部採用するという成果を得た。 しかし、サービス開始の時期がNTT方式のものに比べて3年ほど遅れた上に、 通信に使う周波数の帯域も、NTT方式の8MHzに対してモトローラ方式には5MHzしか割り当てられなかったため、 事業の立ち上げの段階から不利な立場に置かれ、94年の時点で、IDOへの加入電話に占めるモトローラ方式のシェアは3%にとどまる。 モトローラは再度政府を突き上げ、94年の民間交渉でIDOに159局の基地局増設を約束させたほか、 割り当て周波数もNTTと等しくなるように変更させた。 IDOは、基地局増設と周波数変更には500億円以上の投資が必要となり、経営にも影響が出た。
 モトローラのごり押しは、ユーザーには多くのメリットをもたらした。 すでに世界標準の座を獲得していたモトローラ方式のサービスが日本全国で受けられるようになったため、 高機能の外国製品が大量に輸入され低価格で販売された。 この結果、携帯電話が爆発的に普及し、それに伴って、サービス価格も欧米並に値下げされた。
 現在、日本国内では、アナログのNTT方式とモトローラ方式が併存しているほか、ヨーロッパ規格のデジタル携帯電話も普及している。 しかし、国内メーカーは、長く外国では通用しないNTT方式にこだわり続けたため、海外マーケットでは苦戦を強いられている。 国内産業を保護するはずの郵政省の方針が、結果的に、日本企業の国際競争力を弱めてしまったのである。


©Nobuo YOSHIDA