ヘッドマウントディスプレイを装着することにより、迫力ある映像が楽しめるVR(仮想現実)はゲームなどでも大人気ですよね。
最近はAI(人工知能)とVRとの組み合わせも進んでおり、例えばゲーム開発の3Dモデル作成にAI(人工知能)を活用したVRゲームや、心理療法における患者リハビリ状況分析にAI(人工知能)を活用したVR医療サービスなども提供されています。今後は、高い画像認識機能を持つAI(人工知能)とVRとの組み合わせにより様々なサービスが提供されるでしょう。
一方で、ヘッドマウントディスプレイも高解像度、軽量化、装着感の軽減などの改善が進められており、特に軽量化によって、いずれ将来はメガネタイプあるいはコンタクトレンズタイプのモデルも登場するのでは、と今後のVRのさらなる進化を期待してしまいますよね。
ところで、VRの進化といえば、あのシンギュラリティを主張しているレイ・カーツワイルによる未来のVR予想は以下のとおりです。(以下、Wikipediaより)
※シンギュラリティについて詳しく知りたい方はこちら
2030年というと、そう遠くない未来ですが「外部機器を必要とせずに」の「外部機器」とはヘッドマウントディスプレイのことを指しているのかもしれませんが、本当にヘッドマウントディスプレイなしでもVRが実現できるのか、とても気になりますよね。
ということで、今回はAI(人工知能)とVRの進化により、未来のVRが一体どうなるのかについて一緒に考えてみましょう。
目で見たものが脳内でどのように処理されるのか
実は私たちが肉眼で見えている世界も実はVRと言われています。私たちの目を通して入ってきた映像をもとに、私たちの脳が構築した映像世界を私たちは認識しているのです。つまり私たちが目で見て認識している世界と、現実世界が同じなのかどうかは私たちには分かりません。
そこで、VRの未来を考えるにあたって、まずは私たちの脳が映像世界をどのように構築しているのか見てみましょう。
ここでは、例えば、私たちが猫を見た場合、脳内でどのような処理がなされているのか見てみましょう。私たちの目のレンズを通して入ってきた猫の映像は、網膜において電気信号に変換され、後頭部にある「第一次視覚野」に送られます。「第一次視覚野」では送られてきた電気信号を2種類に分けて1つ目を「カタチを理解する回路」に、2つ目を「意味を理解する回路」に送ります。
「カタチを理解する回路」は顔や目、鼻などの形や色を判断する機能(映像の輪郭、色彩、奥行き、動きなどを抽出)を担当します。一方、「意味を理解する回路」は、「カタチを理解する回路」で判断された顔や目、鼻などが猫のものであることを判断する機能を担当しています。
私たちの目のレンズを通して入ってきた猫の映像に、この2つの回路を通して得られた情報が統合されることにより、私たちは猫の映像として認識することができるのです。
以上は私たちが猫を見た場合の脳内処理ですが、今度は、私たちが猫を想像した場合(猫の映像をイメージした場合)の脳内処理について見てみましょう。
想像により生成された映像は脳内でどのように処理されるのか
この場合、私たちが目で見た場合と同様な処理が脳内で行われていることが分かっています。ただし、この場合の元情報は、目で見た場合が「目のレンズを通して入ってきた猫の映像」であるのに対して、「私たちの記憶にある猫の映像」である点が異なりますが、同じように「第一次視覚野」に送られて処理されたうえで(この場合の「第一次視覚野」の活動性は、猫を目で見た場合とほぼ同じ)、私たちの頭(心?)にイメージされるのです。
なお、この想像により生成された猫の映像を私たちは目で見た映像のように見ることはできませんが、頭部損傷などが原因で、想像により生成された猫の映像が目で見た映像と同じように見えてしまう(区別がつかなくなる)場合があります。これをシャルル・ボネ症候群といいます。
シャルル・ボネ症候群
私たちの脳には、想像により生成された映像が、目で見える映像と「ごちゃ混ぜに見える」ことにならないよう制御する仕組みがあります。
私たちの目の網膜からは、例え目を閉じていても基準となる信号が常に出力されており、想像により生成された映像との混合が起きないようになっていますが、シャルル・ボネ症候群の場合、この基準となる信号が出力されなくなってしまうため、想像により生成された映像が幻覚として見えてしまいます。(シャルル・ボネ症候群の発症のきっかけとしては、頭部損傷あるいは高齢による視覚障害があるようです)
ただし、シャルル・ボネ症候群は想像により生成された映像が常に幻覚として見えるのではなく、記憶されている映像が本人の意思とは無関係、ランダムに幻覚として見えてしまいます。なお、この幻覚は目で見た映像と全く区別がつかないようで、むしろ目で見た映像よりも鮮やかな色彩で見えると主張する患者もいるようです。
V.S.ラマチャンドラン著「脳のなかの幽霊」には、交通事故による頭部損傷がきっかけとなりシャルル・ボネ症候群を発症した患者についての記述があります。
- 事故後の昏睡状態から意識を取り戻した時、そこらじゅう幻覚だらけでどれが本物なのか区別がつかない。例えば病室に医師と看護師がいるとき、まわりにフットボール選手やハワイアンダンサーなどもいて、一体誰が喋っているのか分からない。
- 医師の診察を受けているとき、医師の膝の上に座っている猿が見える。膝の上に猿をのせた医師は考えにくいので、患者はこの猿を幻覚と判断する。
- 靴を履こうとすると部屋中の床が靴だらけになり、本物を見つけるのが大変。
高齢による視覚障害としては加齢黄斑変性症、緑内障、白内障などによる視力障害のある患者が多いようですが、本人が周りに症状を言わない(例えば膝の上に猿が、とはとても言えない)ことから、ほとんど知られていません。
ところで、一見関係のないように見える今まで見て来た脳の働きや仕組みは、未来のAI(人工知能)とVRを考えるヒントになるかもしれません。
次に、未来のAI(人工知能)とVRについて考えてみましょう。
未来のAI(人工知能)とVRについて考えてみましょう!
以下、何ら技術的根拠もないアイディアレベルではありますが、まあ、ここは自由な発想で考えてみましょう。
今まで見てきた脳の機能によると、目により生成された映像でなくても、私たちは現実映像のように「見る」ことができそうです。仮に以下の2点が実現できれば、現在使用しているヘッドマウントディスプレイがなくても、AI(人工知能)により現実の映像と区別できないレベルのVRが実現できるかもしれません。
- 想像したイメージと目で見える映像をごちゃ混ぜにしない仕組みをAI(人工知能)で制御できる
- 脳内を流れる映像の電気信号をAI(人工知能)で作成できる
この場合、映像の電気信号は映画「マトリックス」のように、後頭部よりプラグを差し込んで脳内に直接挿入する方法が考えられます。
同じような映像の電気信号を複数人で共有し、各自の動作意思に対応してAI(人工知能)がVR映像を逐次更新のうえ電気信号として提供することにより、冒頭でご紹介した、レイ・カーツワイルが主張するシンギュラリティにおける仮想現実(2030年代:ナノマシンを脳内に直接挿入することにより、真の仮想現実が外部機器を使用することなく実現できる)に近いような世界が(視覚だけで2030年代はさすがに早すぎますが)将来に現実のものとなるかもしれません。
以上、今回はAI(人工知能)とVRの進化ということで、未来のVRが一体どうなるのかについて一緒に考えてみました。
●私たちの目のレンズを通して入ってきた猫の映像が「カタチを理解する回路」および「意味を理解する回路」を通して生成された映像を、私たちは猫の映像として認識します。また、私たちは猫を想像することにより脳内で猫の映像を作成することもできます。
●私たちの脳には、想像などにより脳内で生成された映像と、目で見ることにより生成された映像を混在して認識しないよう制御する仕組みがありますが、本制御のコントロールが可能となり、また脳内における映像の電気信号を作成することができれば、ヘッドマウントディスプレイがなくてもVRが実現できるかもしれません。
これら視覚に関するVRでしたが、触覚についても同様に遠い将来にはVRの対象範囲になるかもしれません。
先のシャルル・ボネ症候群の例で紹介したV.S.ラマチャンドラン著「脳のなかの幽霊」には、病気で左腕を失った患者の診察において、この患者の顔に失った左腕の指の触覚マップの存在を見つける記述があります。
例えば、患者の上唇を綿棒で触れると、失った左腕の人差し指が触られていると感じるのです。これは、左腕を失った際の触覚神経の混線によるもののようですが、上唇から脳内の左手の人差し指の触覚を担当している領域へ電気信号が送信されていると思われます。つまり、左手の人差し指が存在しなくても(実際に左手の人差し指に触れなくても)電気信号により、左手の人差し指が触れられていると認識させることができるようです。
もちろん実現のためには脳内における電気信号の中身を解明する必要がありますが、視覚や触覚だけでなく、聴覚、嗅覚、味覚の五覚の全てが同様に電気信号により認識させる必要があります。もしそれが解析されたら、新しい未来が見えて来るかもしれませんよね!
コメントをどうぞ