AI(人工知能)のお蔭でバラ色の未来を思い描いている皆さん、もしAI(人工知能)が法律問題に関わった場合、避けられない幾つかの注意点があると聞いたら驚きますよね。
AI(人工知能)は、過去の大量のデータを自動的に解析し、人間の知性を計画的に再現することが出来ます。更に新しい情報量にも逐一対応し、自動的に解析結果を更新していくことも可能。
こうしたAI(人工知能)の技術は医療や自動車運転、労働管理などに使用され、より公正で効率的な働きが期待されているのです。また自動的に機能することから、人口減を迎える社会の中核を担うテクノロジーといえるでしょう。
ここまでのことを踏まえると、AI(人工知能)は良いところ尽くしのように捉えることができます。けれども、果たして難点は何もないのでしょうか。
実はそれがあるのです。もしAI(人工知能)が他者に危害を加えた時、どのような法律問題として対応すべきであるかは議論があるところでしょう。もちろん現行の法律はAI(人工知能)を想定していません。そこで今回はAI(人工知能)が法律問題に関わる時の注意点を、具体的な例を挙げつつ説明いたします。
AI(人工知能)と法律問題
まずAI(人工知能)と法律問題の関わりからお話しいたしましょう。
なんとなくAI(人工知能)をロボットとして捉え、AI(人工知能)が暴走して人間を滅ぼそうとした映画のような場合を想像すると、問題の本質に辿りつきません。
例えば、AI(人工知能)が利用される場合として、自動運転技術を挙げましょう。
こうした技術の意義は、高齢者による事故やわき見運転での事故などを考えると分かりやすいでしょう。確かにAI(人工知能)による自動運転技術は、社会をより安全にする上で必要なものに違いありません。
そんな時、
AI(人工知能)に任していたから知りません
と言って、利用者や製造者の責任はないのでしょうか。
ここにAI(人工知能)と法律問題の接点があります。AI(人工知能)という技術の核心にのみ注目すれば、そこから様々な現在の問題を解決する可能性が分かり、得てして、私たち人間はその実現に勇み足になりがちです。
そこにはもちろん正義心もありますが、他者より早く開発し、その分野を独占しようとする商魂もあるでしょう。しかしその技術を実現した場所は、様々な法律問題が張り巡らされている社会であり、そこでの注意点は技術だけみていては分からないのです。
先程の自動運転技術の例に戻って説明しますと、
つまり特定のケースでは、たとえAI(人工知能)が勝手にやったからといって、利用者や製造者は法律上の責任を免れることが出来ないのです。こう考えてみると、ちょっとドキッとしますよね。
けれどもAI(人工知能)はこれからの社会に必要とされる技術ですから、萎縮していてはいけません。そこで具体的にAI(人工知能)と法律問題に関して、どのような責任を利用者や製造者が負い得るのかをお話しいたしましょう。
AI(人工知能)の利用者の責任問題
先程の自働運転技術を念頭に置きましょう。もちろん現在の法律体系でAI(人工知能)自体に責任を問うことはできません。
それではAI(人工知能)がかかわる法律問題で誰が責任を負うのでしょうか。
まずAI(人工知能)の利用者の責任からお話しいたしましょう。AI(人工知能)の作動により他者に危害を加えた場合、AI(人工知能)の利用者に求められる可能性のある責任は、不法行為に基づく損害賠償責任です。
但しそれには故意にしたか、もしくは過失でしたという条件があります。
この故意のケースは、責任があるかどうかが明確です。でも次の過失の場合は、なかなか複雑でしょう。
例えばそのAI(人工知能)が初めから他人に危害を加えるようにプログラミングされていたケースは簡単ですよね。何かの拍子にそのAI(人工知能)が行動に及んでも、利用者が予測できることは明らか。
難しいのは、そのようにAI(人工知能)がプログラミングされていない時に、他者に危害を加えた場合です。自動運転技術を利用する人は、それが安全だから選ぶのであって、その時点で危害の可能性など考えていないでしょう。
更にAI(人工知能)はディープラーニングによって自動的に、どんどん新しい情報を得て判断を変更していきます。つまり一定の行動を自動的に繰り返すような技術ではないのです。
こうした進化し続けるAI(人工知能)の行動を誰が予想することが出来るのでしょうか。ましてや利用者はAI(人工知能)のプログラミングなど専門技術を知らない人である方が一般的ですから、AI(人工知能)の行動に対する予見可能性は無いと考えるのが普通です。
と結論づけられます。
AIの製造者の責任問題
次に、AI(人工知能)と法律問題に関して、他に責任を負う可能性がある者は、そのAI(人工知能)の技術を製造した企業やプログラマーです。
製造物責任は、製品の欠陥によって他人に危害を加えた時に適応されるでしょう。
そしてこの製造責任には、前にお話しした不法行為責任と違って、製造者の過失が考慮されません。
その責任が成立するかどうかの焦点となるのは、製品に欠陥があるか否か。簡単な例で説明しますと、遊んでいるオモチャが突然爆発すれば、それは欠陥があったと見做されるでしょう。
しかしAI(人工知能)の技術の場合、この欠陥の有無の判断が難しいのです。先程もいいましたが、AI(人工知能)は自動的に学習し続けるので、AI(人工知能)の製造者にもその判断を予測することが困難なのです。
従って事件が現実に起こった際、AI(人工知能)の製造者はうっかりミスを言い訳に出来ませんから、欠陥が無いと証明しないといけないのに、その作業がとても大変。
いずれにせよAI製造者が責任を免れるには多くの労を要することになります。
今回は、AI(人工知能)と法律問題に関して、もしAI(人工知能)による行為が他者に危害を加えた場合の注意点についてお話しいたしました。
このように事故が起こった場合、AI(人工知能)は賠償金を払ってくれるわけではなく、また牢屋に入ることもありません。そこで責任が発生するのは、AI(人工知能)の利用者かAI(人工知能)の製造者。
つまり現時点の法律体系では、AI(人工知能)が法律問題に関わった場合、注意すべきは製造者の責任ということになります。しかし過度にAI(人工知能)を開発した製造者に責任を負わせ過ぎると、企業も委縮し、技術の進歩に歯止めがかかるでしょう。
このようにAI(人工知能)の技術は私たちの生活をより快適にしてくれますが、その実現には法律問題が避けて通れないのです。この点を企業だけでなく、利用者である私たち一人一人も考えないと、AI(人工知能)が実現してくれる未来社会は遠のくでしょう。私たち一個人が、AI(人工知能)を利用する法的責任を十分に自覚し、他者に危害を加えない便利な社会を築いていきましょう。
【お知らせ】
当メディア(AIZINE)を運営しているAI(人工知能)/DX(デジタルトランスフォーメーション)開発会社お多福ラボでは「福をふりまく」をミッションに、スピード、提案内容、価格、全てにおいて期待を上回り、徹底的な顧客志向で小規模から大規模ソリューションまで幅広く対応しています。
御社の悩みを強みに変える仕組みづくりのお手伝いを致しますので、ぜひご相談ください。