薩摩和菓子の考察記録

薩摩和菓子(@satsumawagashi)が考察したことを置いておく場所です。

AIの出した被害に対する、理想的な法対応を考えてみた

原題
「自律型人工エージェントの出した被害に対する厳格な無過失責任主義の適用と保険の利用」

前置き
 本論考で想定するAIのレベルは、「人間と同等な汎用性を獲得するまで」とする。人間と同等な汎用性を獲得した場合、かつての女性や黒人のように、経済的合理性からAIに法人格が与えられる可能性が高いからである。



 AIやロボット工学の発展が著しいが、その恩恵を社会が享受するためには、自律的人工エージェントが法を犯したり危害を与えたりする状況に対処する必要がある。たとえば自動ドローンや自動運転車、他のアプリケーションの操作のように、AIやロボットを、人間の監視なく、インターネットや物理世界で巡回、行動させたいならば、個人や所有物へ与えるかもしれない危害についての責任を管理できなければならない。

 しかし、ある損害行為が故意か過失かどうかは、行為主体が人間であっても判別困難である。
 たとえばNHKの勧誘員に「あなたには契約義務がある」と言われて契約し、後日契約義務がなかったことが判明しても、契約義務がないことをその勧誘員が知っているかどうかを立証することはほぼ不可能である。
また、未成年者が責任無能力者であるかどうかの判断も、線引きが個々の事例ごとに決まる。
 さらに、AIは設計段階で制御不可能性や不透明性をもち、近因(危険の予見可能性)があったことを証明することが困難である。
はたして人間とはまったく異なった方法で発生したAIについて、人間が故意、過失、責任を恣意性なく判断できるのだろうか?

 そもそもの話として、AIやロボットは法的主体たり得るのだろうか。たとえば、不良なソフトウェアを開発者が消去しても開発者は批判されないが、「開発者とソフトウェア」を「親と子」や「雇用者と被雇用者」に置き換えたら批判されるだろう。つまり、ソフトウェアには生存権は社会的に認められない。
 また、子や被雇用者においてさえ、それが第三者に与えた損害を賠償するのは親や雇用者である。少なくともAIやロボットが私的所有物であるかぎりは、その監督責任は人間にある。複雑性や自律性に関係なく、所有物によって発生したものは利益も損失も所有者のものなのである。

 よしんば、AIやロボットが所有物であるとするならば、所有権を移転可能な財ということでもあり、製造物と使用者が異なるケースを想定しなければならない。
 高度な技術によって構成された財の生産については、現行法において、いくつかの規制方法がある。ここでは製造物責任法医薬品医療機器等法を挙げる。製造物責任については飛行機の設計図にも適用されたことがあり、すべての無体物に適用されうるものである。
 製造物責任法は、無過失責任(行為者が違法な結果を認識・予見できたことを被害者が証明する必要がない)ではある。しかし、開発危険の抗弁(製造物をその製造業者等が引き渡した時における最高水準の科学・技術の知見では欠陥を発見できなかった場合は免責される)を認めている。たとえば「自動運転車がカンガルーを避けられない」といったような、「間違いなくAIの誤判断であるが、その誤判断を起こさないよう修正することは困難」という事例は免責対象になってしまう。
 医薬品医療機器等法において、製造物は国から承認される必要があり、承認されるまでの過程で平均9年2か月、9億円弱を治験に費やすことになる。
 開発危険の抗弁を認めて免責事例を許容するか、国家による承認を得るための時間と費用を開発者が負担するか、というジレンマがあると言えるだろう。

 これを解決する方法としては、「契約した水準を満たさなかった場合は必ず賠償する」という厳格な無過失責任主義の適用が考えられる。
 実は現行法でも厳格に無過失責任の規定がある。動物占有者の責任(民法第718条)である。

 こう提案すると、「たしかに、道徳的判断力か有感性のいずれかを欠いているという点で、動物とAIは似ている。しかし、道徳的判断力を欠くことと、有感性を欠くことは質的にことなるのではないか?」という反論が考えられるだろう。

 しかし、技術発展の帰結としては、ニューラルネットワークが人間の判断力の構造的模倣であるように、人間の情動や意識も構造的に模倣することで、AIを道徳的判断力と有感性を兼ね備えた存在にすることが可能である。たとえば、原始的な脳の判断による身体反応をレジスタすることで外的対象との中核的関係主題を表象したり(ダマシオ「身体化された評価理論」)、中間的な表象をワーキングメモリに飛ばしたり(プリンツAIR理論」)といったことは、「ニューラルネットワークにおけるユニットの配置」として再現することが可能である。

「もし有感性についてちがいはなくせるとしても、複製可能であったり、その道徳的判断力から多大な財の管理を委託可能であったりすることについては、AIと動物は異なるのではないか? 厳格な無過失責任主義にしたら、責任者が賠償金を負担できないケースが多発するのではないか?」という反論にはこう答えたい。

「多大な損害が稀に起こる」というリスクは保険によって分散することができる。実際、保険会社は「ペット賠償責任特約」や「国内PL保険」などの商品をすでに販売している。よって、厳格な無過失責任主義化によるリスクや、AIの誤作動によるリスクにも対応できる保険商品が販売されない理由がない。

 そして、自律型人工エージェントに厳格な無過失責任主義を適用し、損害賠償リスクを保険で分散することは社会に様々な利益をもたらす。
 まず、保険会社は厳格な尺度で安全性を測定し保険料を算出するため、開発会社にはAIの安全性を高めるインセンティブ、保険会社にはAIの安全性の測定技術を開発するインセンティブが生まれる。
 また、国家による規制を最小化できるため、国家や市場ごとにかかっていた規制対策の時間と費用も減少し、開発・リリースのサイクルの加速や、小規模な企業による参入の促進が期待できる。
 そしてなによりも、「AIの引き起こした損害について賠償されないのではないか」という顧客や第三者の不安の軽減される。

 さらに喜ばしいことに、厳格な無過失責任主義の適用と保険の利用は、複雑性を持ち、移転可能なすべての財に応用することができる。
 たとえば医薬品においては、高価な保険料を負担できる顧客に迅速に新薬を提供できるし、適切な量の治験を行うインセンティブは保険料減少を目的として維持される。
 また、保険に加入する主体が誰であろうとも、消費税と同じで、サービスの受け手が保険料を最終的に負担することに変わりない。よって、法解釈が製造物責任になろうと使用者責任になろうと、対応することができる。

参考文献
平野晋(2017)『ロボット法-AIとヒトの共生に向けて』弘文堂

戸田山和久(2016)『恐怖の哲学』NHK出版