AI(人工知能)ニュース

知っておくべき!法律問題にAI(人工知能)が関わった際の注意点

法律のイメージ

AI(人工知能)のお蔭でバラ色の未来を思い描いている皆さん、もしAI(人工知能)が法律問題に関わった場合、避けられない幾つかの注意点があると聞いたら驚きますよね。

AI(人工知能)は、過去の大量のデータを自動的に解析し、人間の知性を計画的に再現することが出来ます。更に新しい情報量にも逐一対応し、自動的に解析結果を更新していくことも可能。

こうしたAI(人工知能)の技術は医療や自動車運転、労働管理などに使用され、より公正で効率的な働きが期待されているのです。また自動的に機能することから、人口減を迎える社会の中核を担うテクノロジーといえるでしょう。

ここまでのことを踏まえると、AI(人工知能)は良いところ尽くしのように捉えることができます。けれども、果たして難点は何もないのでしょうか。

実はそれがあるのです。もしAI(人工知能)が他者に危害を加えた時、どのような法律問題として対応すべきであるかは議論があるところでしょう。もちろん現行の法律はAI(人工知能)を想定していません。そこで今回はAI(人工知能)が法律問題に関わる時の注意点を、具体的な例を挙げつつ説明いたします。

AI(人工知能)と法律問題

AIのイメージ

まずAI(人工知能)と法律問題の関わりからお話しいたしましょう。

なんとなくAI(人工知能)をロボットとして捉え、AI(人工知能)が暴走して人間を滅ぼそうとした映画のような場合を想像すると、問題の本質に辿りつきません。

例えば、AI(人工知能)が利用される場合として、自動運転技術を挙げましょう。

自動運転技術はAI(人工知能)を用いて、現在の車の状態や周辺状況など様々な要因を自動で分析して、人間の代わりに効率よく自動車を運転する技術です。

こうした技術の意義は、高齢者による事故やわき見運転での事故などを考えると分かりやすいでしょう。確かにAI(人工知能)による自動運転技術は、社会をより安全にする上で必要なものに違いありません。

けれども、もしそのAI(人工知能)による自働運転で何かにぶつかり破損させた場合、又は人を引いてしまった場合を考えてみてください。

そんな時、

AI(人工知能)に任していたから知りません

と言って、利用者や製造者の責任はないのでしょうか。

ここにAI(人工知能)と法律問題の接点があります。AI(人工知能)という技術の核心にのみ注目すれば、そこから様々な現在の問題を解決する可能性が分かり、得てして、私たち人間はその実現に勇み足になりがちです。

そこにはもちろん正義心もありますが、他者より早く開発し、その分野を独占しようとする商魂もあるでしょう。しかしその技術を実現した場所は、様々な法律問題が張り巡らされている社会であり、そこでの注意点は技術だけみていては分からないのです。

先程の自動運転技術の例に戻って説明しますと、

AI(人工知能)は自動で作動しているからといって、利用者や製造者はしらを切り、AI(人工知能)が代わりに賠償金を払ったり、牢屋の中に入ってくれたりするわけではありません。

つまり特定のケースでは、たとえAI(人工知能)が勝手にやったからといって、利用者や製造者は法律上の責任を免れることが出来ないのです。こう考えてみると、ちょっとドキッとしますよね。

けれどもAI(人工知能)はこれからの社会に必要とされる技術ですから、萎縮していてはいけません。そこで具体的にAI(人工知能)と法律問題に関して、どのような責任を利用者や製造者が負い得るのかをお話しいたしましょう。

AI(人工知能)の利用者の責任問題

緊迫したイメージ

先程の自働運転技術を念頭に置きましょう。もちろん現在の法律体系でAI(人工知能)自体に責任を問うことはできません。

それではAI(人工知能)がかかわる法律問題で誰が責任を負うのでしょうか。

考えられるのはAI(人工知能)の利用者と製造者。

まずAI(人工知能)の利用者の責任からお話しいたしましょう。AI(人工知能)の作動により他者に危害を加えた場合、AI(人工知能)の利用者に求められる可能性のある責任は、不法行為に基づく損害賠償責任です。

この場合ではAI(人工知能)の行動を利用者自身の行動と見做して責任が負わされます。つまりAI(人工知能)による自働運転であって、その運転で危害を加えた場合も、AI(人工知能)技術を利用していることの責任が発生するということ。

但しそれには故意にしたか、もしくは過失でしたという条件があります。

故意とは、わざとすることです。つまりAI(人工知能)の利用者が他者に危害を加えるよう、意図的にAIを仕向けたケースに当たります。

この故意のケースは、責任があるかどうかが明確です。でも次の過失の場合は、なかなか複雑でしょう。

過失とは一言でいえば、うっかりミスなのですが、厳密にいうと予見可能かが問題となります。すなわち利用者は、AI(人工知能)がそのように危害を加えると予め予想することが出来たか否かが問われるのです。

例えばそのAI(人工知能)が初めから他人に危害を加えるようにプログラミングされていたケースは簡単ですよね。何かの拍子にそのAI(人工知能)が行動に及んでも、利用者が予測できることは明らか。

難しいのは、そのようにAI(人工知能)がプログラミングされていない時に、他者に危害を加えた場合です。自動運転技術を利用する人は、それが安全だから選ぶのであって、その時点で危害の可能性など考えていないでしょう。

更にAI(人工知能)はディープラーニングによって自動的に、どんどん新しい情報を得て判断を変更していきます。つまり一定の行動を自動的に繰り返すような技術ではないのです。

こうした進化し続けるAI(人工知能)の行動を誰が予想することが出来るのでしょうか。ましてや利用者はAI(人工知能)のプログラミングなど専門技術を知らない人である方が一般的ですから、AI(人工知能)の行動に対する予見可能性は無いと考えるのが普通です。

つまりAI(人工知能)による行為が他者に危害を加えた場合、それが故意でなければ、過失による不法行為責任をAI(人工知能)利用者が負う可能性は高くない

と結論づけられます。

AIの製造者の責任問題

製造者の責任問題のイメージ

次に、AI(人工知能)と法律問題に関して、他に責任を負う可能性がある者は、そのAI(人工知能)の技術を製造した企業やプログラマーです。

この場合、AI(人工知能)の技術を開発した製造物責任を負う可能性があります。

製造物責任は、製品の欠陥によって他人に危害を加えた時に適応されるでしょう。

そしてこの製造責任には、前にお話しした不法行為責任と違って、製造者の過失が考慮されません。

つまりAI(人工知能)の製造者は、うっかりミスがあったか無いかに関係なく責任を負います。

その責任が成立するかどうかの焦点となるのは、製品に欠陥があるか否か。簡単な例で説明しますと、遊んでいるオモチャが突然爆発すれば、それは欠陥があったと見做されるでしょう。

しかしAI(人工知能)の技術の場合、この欠陥の有無の判断が難しいのです。先程もいいましたが、AI(人工知能)は自動的に学習し続けるので、AI(人工知能)の製造者にもその判断を予測することが困難なのです。

従って事件が現実に起こった際、AI(人工知能)の製造者はうっかりミスを言い訳に出来ませんから、欠陥が無いと証明しないといけないのに、その作業がとても大変。

そこでAI(人工知能)の製造者は、開発時又は販売時のAI(人工知能)に関する技術水準では予見できなかったこと証明しなければなりません。
他にも、その原因となる技術には他の部品製造者がいて、寧ろそちらに責任があると明らかにすることも策の一つです。

いずれにせよAI製造者が責任を免れるには多くの労を要することになります。

 

AIを利用する街のイメージ

今回は、AI(人工知能)と法律問題に関して、もしAI(人工知能)による行為が他者に危害を加えた場合の注意点についてお話しいたしました。

このように事故が起こった場合、AI(人工知能)は賠償金を払ってくれるわけではなく、また牢屋に入ることもありません。そこで責任が発生するのは、AI(人工知能)の利用者かAI(人工知能)の製造者。

AI(人工知能)の利用者の場合は、故意である時を除いてAI(人工知能)の行動を予見することが難しいので、AIの利用者に対する不法行為責任は成立しにくいでしょう。
それに対してAI(人工知能)製造者が負う製造責任に関しては、うっかりミスは考慮されず、AI(人工知能)製造者が積極的に、AI(人工知能)の行動が予測できないという困難な証明をしない限り、責任を免れにくいのです。

つまり現時点の法律体系では、AI(人工知能)が法律問題に関わった場合、注意すべきは製造者の責任ということになります。しかし過度にAI(人工知能)を開発した製造者に責任を負わせ過ぎると、企業も委縮し、技術の進歩に歯止めがかかるでしょう。

このようにAI(人工知能)の技術は私たちの生活をより快適にしてくれますが、その実現には法律問題が避けて通れないのです。この点を企業だけでなく、利用者である私たち一人一人も考えないと、AI(人工知能)が実現してくれる未来社会は遠のくでしょう。私たち一個人が、AI(人工知能)を利用する法的責任を十分に自覚し、他者に危害を加えない便利な社会を築いていきましょう。

トップへ戻る
タイトルとURLをコピーしました