情報社会(情報法)の主体
『情報法のリーガル・マインド』を出版し、幸いにも大川出版賞をいただいたことも手伝って、あちこちの会合に招かれるようになりました。6月30日(土)には、慶応三田キャンパスで開催される、情報通信学会の「国際コミュニケーション・フォーラム」の基調講演を依頼され、「お題は自由」ということだったので、連載に合わせて「情報社会(情報法)の主体と客体」とさせていただきました。講演では広く情報社会の特徴を述べる予定ですが、本連載ではやや狭く「情報法の主体」に絞って議論しましょう。
・ロボットや自動運転車も主体に
この連載は、情報法の対象(客体)である「情報」には、「物(有体物)」にはない性質があり、それが「情報法」という独立の領域を形成する根拠になる、という認識からスタートしました。それは物事を簡素化する作戦として効果的でしたが、法学では「主体と客体」が一対として用いられることからも分かる通り、両者は連動しています。つまり、もう1つの重要な要素である「主体」の側にも、情報法に特有な性格があるのです。
法学者が「主体」と言えば、存命中の人(自然人)と法人を示すのが普通で、有体物が中心の世界では、その両者以外に「主体」を観念することができません。自然人のうち未成年者や成年被後見人などは、自ら行使できる権利が制限されることがありますが、誰でも基本的人権の享受を妨げられることはありません。
法人は法の定めに従って設立され登記されなければ、権利の主体になり得ないため、現実に存在していても法的な資格がない、いわゆる「権利能力無き社団」という鵺(ぬえ)的な存在が残ります。例えば、あなたが「釣り仲間の会」を作り規約通り運営していても、NPO法人などとして登記していない限り契約の当事者にはなり得ないので、その会が銀行から借り入れをしようとすれば、あなた個人が借りるしかありません。
ところが「情報法」においては、自然人と法人に加え、センサー・ロボット・自動運転車やAI(Artificial Intelligence)など、幅広い主体が登場する可能性があります。もちろん自然人と法人だけが「主体」であり、それらはすべて「客体」でしかないと割り切ることもできなくはありません。しかし科学者が「シンギュラリティ」(AIの知的能力が人間を上回る特異点)と呼ぶ事象が起これば、人間よりも判断能力に優れたAI が登場することになる訳ですから、その「法的主体性」を否定しているだけでは済まないでしょう。
・自動運転車の場合
具体例として、自動運転車が事故を起こした場合を考えてみましょう。「自動運転」と一言で言っても0~5までレベルがあり、レベル0は自動運転に関する装備が全くない通常の乗用車、レベル5になると乗用車がシステムによって自律的に走行するものという、アメリカのSAEインターナショナルが定めた「SAE J3016」が使われています(次表参照)。
表 自動運転車の自動化レベル
レベル |
自動化の機能 |
具体的内容 |
レベル0 |
運転自動化なし |
自動運転の機能がついていない乗用車(一般的な車) |
レベル1 |
運転支援 |
ハンドル操作や加速・減速などの運転のいずれかを車が支援 |
レベル2 |
部分運転自動化 |
ハンドル操作と加速・減速などの複数の運転を車が支援。ACC(アダプティブ・クルーズ・コントロール)が進化したものだが、ドライバーは周囲の状況を確認する必要 |
レベル3 |
条件付き自動運転 |
このレベル以上が、本格的な自動運転になる。レベル3は、周りの状況を確認しながら運転をしてくれるが、緊急時はドライバーの判断が必要 |
レベル4 |
高度自動運転 |
レベル4になると、ドライバーが乗らなくてもOK。ただし、交通量が少ない、天候や視界がよいなど運転しやすい環境が整っているという条件が必要 |
レベル5 |
完全自動運転 |
どのような条件下でも、自律的に自動走行してくれる |
上記の分類で、レベル0からレベル2までは従来の交通事故の対応と変わりません。運転の主体は自然人ですから、運転者に注意義務違反があれば、過失責任を問われます(被害者にも過失があれば、過失相殺されます)。希に自動車の構造に欠陥があれば、自動車メーカーが製造物責任を負うことになるでしょう。
しかし、レベル3以上では様相を異にします。運転している自然人がいる場合でも、彼(または彼女)は監視しているだけで、真の運転者は「自動運転ソフト」というソフトウェアです。ましてや運転席に誰も座っていない「完全自動運転」の場合には、法的責任を負う「主体」は、まぎれもなく「自然人以外」ということになるでしょう。
・ソフトウェア自体は製造物ではない
それでは「自動運転ソフト」に責任を負わせることができるでしょうか? 現在の「製造物責任法」(Product Liability=PL法)では、「製造物」とは「製造又は加工された動産をいう」(2条1項)と定義されています。ここで「動産」とは有体物のことで、データやプログラムといった「無形物」は「製造物」とはみなされない、という理解が一般的です。受託開発したシステムの不具合でユーザー企業が被害を被っても、PL法の対象外となり、コンピュータにプリインストールされたOSやアプリケーション・ソフトも、PL法の対象とはならない。ただし組み込みソフトについては、機器に組み込まれた「部品」ととみなされるためPL法の対象となる、と理解されています。
自動運転車の場合、この点の解釈が結論に直結するので、十分な検討を加える必要があります。まず、ソフトウェアにはバグが付き物ですから、製造物の品質保証のレベルに達していないし、近い将来にそのレベルに追い付く保証もありません。この面を強調すれば、ソフトを製造物責任の対象に加えることは、「不可能を求める」結果となって、産業の発展を阻害するおそれがあります。しかし他方で、完全自動運転車が事故を起こしても、誰も責任を負わなくてよい、という結論は常識的ではありません。
ここで確認しておきたいことは、① 誰が運転するのであれ、事故をゼロにすることはできないこと、② 自動運転と人間の運転を比較すれば、前者の方が優位(たぶん桁違い)に安全であり、その差は今後拡大していくと見込まれること、の2点です。この2点の合意があれば、英知を絞って「事故の責任分配のあり方」として冷静な議論が可能ではないか、と私は考えますが、読者の皆さんはいかがでしょうか?
[ちょっと道草]
この連載が掲載されているサイトは、矢野さんが主宰する「サイバー灯台」の「プロジェクト」の欄です。本日現在、名和小太郎さん・小林龍生さん・森治郎さんと私が執筆者として登録されています。そのうち矢野さん・小林さんと私が名和さん宅を訪問して歓談するという珍しい機会がありました。その時の話題を、小林さんが紹介してくれています(同氏の連載第6回「シャノンとウィーナー」から)が、そこでは今回のテーマに関して、次のような「緩やかな合意」に至っています。
(林コメント:本連載の号外「大川出版賞を受賞して」から)
私が通信ビジネスに長く携わっていたので、シャノンとウィーナーは大先輩でもあるから、という理由だけではありません。一旦「意味」を捨象して「構文」に特化したことから情報科学が飛躍的な発展を遂げたのはシャノンのおかげですが、AI まで含めた新しい「法主体」(ある研究会では Legal Being と呼んでいます)を考えるには、ウィーナーのように「意味」を再度取り込む必要があるからです。
(小林さんのコメント)
一旦「意味」を捨象して「構文」に特化した情報科学は、今こそ再度「意味」を取り込む必要がある、ということ。この必要性は、何も法学に限ったことではない。情報に関わる全ての分野において、そして情報に関わるすべての人が、真摯に考えなければならない問題なのだ。矢野さんがサイバーリテラシーを提唱する根幹の理由もここにある。
連載が進むにつれて、執筆者間の交流が、もっと増えるかもしれません。