03
03
人が生きていくためには、感覚すなわち「感じる」力が必要です。
『カホちゃんのギモンシリーズ』では、感覚には個人差のあることから始まり、
五感の概要、感覚と脳の関係、さらに老化に伴う感覚の衰えなどを見ていきました。
『カガクマスターシリーズ』では、感覚の対象、感覚のメカニズムから感覚の衰えを
カバーする未来技術、そして健康長寿を保つための感覚の鍛え方などを紹介します。

未来のマシンは気持ちも
   伝えられるか

感じるとは、つまり外から受けた刺激を脳で解釈すること。これを突き詰めて考えれば、外にあると思っている世界は、実際には1人ひとりの脳の中だけにあるのかもしれない。そんな話の中で、人は感覚によって感情を持ち、その感情が人と人との関わりに影響を及ぼすことが明らかになりました。では、感覚を進化させると、世界は変わるのでしょうか。視覚については、さまざまな機器の開発が進み、すでに人の視覚を超える超高感度・超高速度センサーが実用化されています。これに続いて今後、人間の五感を超える感度を持つセンサー類が開発されたとき、それらを装着したロボット(AI)は、人を超えた存在となるのでしょうか。

眼に見えないものが見える

この間、ちょっとびっくりするような映像を見たんです。毎秒1500コマの超高速撮像された鳥の映像で、羽ばたく様子がとてもクリアに見える。これって人間の視覚を完全に超えてますよね。

(※https://www.youtube.com/watch?v=-lOl45ZO060)

毎秒1500コマはすごいな。普通のテレビ映像のコマ送りが、1秒に60回程度だから、その25倍か。五感の中でも最もマシン化の進んでいるのが視覚だから、そんなことが現実になっているんだね。

超高感度のCMOSセンサーを使ったカメラなら、0.1ルクス、つまり月明かり程度の明るさでも、色合いまで鮮明に撮影できるようだ。その明るさだと人間なら何かがあるぐらいしかわからないわけで、その色を見極めるなんて到底不可能だ。人間の視覚をはるかに超える画像センサーは、監視用カメラなどに使われているらしい。

CMOSセンサーついて

たしかにモノを見ること、つまり視覚については、いろいろなマシンが人間の限界をかなり超えていますよね。ミクロの世界に目を向ければ、クライオ電子顕微鏡によってタンパク質の構造解析ができるようになったし。

クライオ電子顕微鏡ついて

これまでにない視覚という意味では、ドローンで撮影した映像などもすごいよね。以前、テレビでやっていた奈良の吉野山の桜をドローンを飛ばして撮影した映像、低空から見た山いっぱいの桜は、しびれるぐらいに美しかった。

画像センサーはおそらく、これからもどんどん高性能化していくだろう。ただし、センサーがどれだけ高精細に画像をセンシングできたとしても、それを見る人間の視覚には限界がある。だから限界を超えた映像を認識、理解するためにはAIの力を借りなければならない。

 

センサーが五感を超える近未来

視覚以外の感覚はどうなんでしょう。

おそらく視覚に次いで人工的に発達しているのが聴覚領域だろう。人間の可聴域は20Hzから2万Hz程度だ。この可聴域内の音のセンシングは当然できるうえに、可聴域外の音もセンサーなら捉えることができる。

ただし、これもセンサーがどれだけ高精度になったとしても、人間は人間の可聴域を超えた音を感知できないわけですよね。

とはいえ、監視用などには使えるだろう、人間なら聞き逃してしまうような微かな音でも感知してくれるのだから。あるいはイルカやコウモリなど20万Hzぐらいの音でコミュニケーションしている動物の研究にも使えるかもしれない。

視覚、聴覚がいずれも物理的な刺激であることを踏まえるなら、これらに続きそうなのは同じく物理的な感覚の触覚だろうね。

触覚については、産業用ロボットの分野で開発が進んでいるようだ。要は工場などで細かなパーツをロボットアームで的確に掴むためには、触覚がポイントになるわけだから。

ロボットアームの場合はおそらく、触覚に加えて視覚による対象物の位置解析技術なども活用するんだろうね。

ロボットアームで実用化されているのが近接覚センサーだ。これはロボットアームが対象物に近接した際に、その対象とアームの距離や角度などを検出するセンサーだ。センシングに使われるのは、光や音、あるいは空気圧などだな。

近接覚センサーについて

 

なんだかセンサーの進化ってすごいですよね。ほとんど人間のレベルを超えそうになっているじゃないですか。でも、味覚と嗅覚については、私はまだまだセンサーには負けない自信があるけれど。

とはいえ味覚については、味蕾の味細胞にある化学物質の受容体がわかってきているから、いずれ味覚センサーの感度が人間を超える可能性は高いんじゃないか。

ニオイセンサーについては、金属酸化物半導体を使ったものが開発されている。ただし、これは人間がニオイを嗅ぎ分けるシステムとは、根本的なメカニズムが違う。ニオイは五感の中でも最も原始的な感覚であり、意外に機械化するのが難しいのかもしれない。

 

ハヤモンの心の中にわいた疑問

嗅覚についても、半導体とは異なる仕組みのセンサーが開発されれば、人間の感度を超える可能性があるのだろうか?

 

ロボットは人間を超えるのか

ニオイセンサーはともかく、視覚を筆頭として聴覚、触覚さらに味覚などのセンサーが、今や人間の能力を超えつつあるわけですね。

視覚については、眼内コンタクトレンズが開発されている。文字通り眼内、具体的には虹彩と水晶体の間にある毛様溝に手術で挿入するコンタクトレンズだ。これを入れれば重度の近視の人でも視力は一気に2.0ぐらいまで復活する。

コンタクトレンズについては、次世代のウエアラブル端末として使う話もある。いわゆる「スマートコンタクトレンズ」で、レンズの一部に画像やテキストなどを表示できるらしい。当面は弱視などの人を対象に、拡張現実(Augmented Reality=AR)技術を使って、視覚内のモノの輪郭を強調して見せる計画があるようだ。

補聴器も、どんどん高性能化しているようだね。

補聴器は基本的なメカニズムがシンプルで、マイクで集音し、アンプで増幅しレシーバーで受けるだけだから、技術的に進化させるのは可能だろう。

五感をセンサーで代替できるようになるなら、それらを搭載したロボットをつくると、どうなるんでしょう。

視覚、聴覚、触覚などでは、人間を超える性能を持つロボットができるかもしれないね。だからといって、そのロボットが人間を超える可能性は、まだまだ遠いだろうけれど。なぜなら人間は単に五感で情報を得ているだけではなく、得た情報を脳で判断した結果としていろいろ行動しているわけでしょう。人間の脳と同じようなメカニズムを、はたしてAIが持てるようになるのだろうか。

ニューラルネットワークは、人間の脳を模した数理モデルだけれど、人間の脳そのものがまだよくわかっていないわけだから、それを完全に真似するのは原理的に不可能な話だ。しかも人間の脳といっても、大脳と小脳ではニューロンのネットワーク構造の複雑さには明らかな違いがある。その違いには当然意味があり、大脳と小脳の機能分担につながっていたりする。こうした脳の仕組みをAI、つまりコンピューターが完全に模倣するなんて不可能じゃないか。

ニューラルネットワークについて

さらに突っ込むなら、人のニューロンのネットワーク構造は、1人ひとり違う。まったく同じ構造をした人が、自分以外にいるとは考えられないだろう。

そうですよね。だから人間のようなロボット、あるいはサイボーグみたいなものが登場するのは、まだまだ先になるということですね。あれ、でも逆はどうなんでしょう?

逆って、どういうことかな?

例えば先ほど眼内コンタクトレンズの話があったじゃないですか。眼の中にコンタクトレンズを入れれば、衰えた視力が画期的に復活するんですよね。その延長線上で考えれば、衰えていない視力をより強化できる可能性もあるんじゃないですか?例えば超高感度のCMOSセンサーを使えば、真っ暗な闇の中でもくっきりとものを見られるようになったり、あるいは1キロぐらい先にあるものを見ることもできそうじゃないですか。

1キロ先が見えるといえば、アフリカにいる部族のなかには、視力11.0ぐらいの人たちもいると聞いたことがあるけれど。

視力11! そういえば、遠くを見る視力だけじゃなくて、例えば高速撮像できるセンサーがあったでしょう。あれも眼の中に入れてしまうこともスマートコンタクトレンズならできそうですね。

 

何かを感じて動く、だから人

それは拡張現実ではなく「人間拡張(Human Augmentation)」の考え方で、東京大学の暦本純一教授が提唱している。教授はIoTの先にはIoA(Internet of Ability)が続くといっている。例えば、脳の外側にバーチャルな電脳皮質を持てるようになると想定するわけだ。

視覚や聴覚がセンサーによって、もともとの人間の能力を超える領域まで感じ取れるようになるのなら、それを理解する脳の領域も新たに外部につくればいいということですか。そして新たな脳の領域は、インターネット上つまりクラウドにあると。私がスマートコンタクトレンズで超人的な視覚を得たとしても、残念ながら私の脳では理解可能な範囲が限られていて、見たものが何がなんだかわからない。そんなときにクラウド上にある、私のバーチャルな脳みそが、私の代わりに見えたものを理解して、リアルな私の脳でも理解できるように教えてくれる…。それってほとんど映画『マトリックス』の世界みたいですね。

マトリックスについて

オーグメンテーションの対象設定によっては、とんでもない能力を人が持てる可能性はたしかにありそうだ。

私も暦本教授の話は聞いたことがあるよ。VR、バーチャルリアリティについてはすでにそれほど高くないデバイスが売られているわけだし、それを一歩進めたARを活用したゲームが『Pokemon GO』でしょう。そして最近出てきたMR、Mixed Reality(複合現実)は、仮想世界と現実世界を融合させる技術で、これも人間拡張につながる話だと思うよ。

感覚の進化って、一体どこまで行くんでしょうね。ただ、進化した先で気になることが1つあります。人と人の気持ちを伝えるデバイスってできるのでしょうか。例えば、好きな人と手をつなぐだけで、何かうれしくなったりするじゃないですか。あるいは子どもの頃の思い出だけれど、病気で寝ているときに、お母さんが手を握ってくれると安心できた。あんな感覚ですよね。

それは名付けるなら「感情センサー」とでもいうべき装置だな。

顔の表情から感情を認識するAIソリューションはあるようだけれど、それはあくまでも感情評価であって、感情を伝えるデバイスじゃない。これも結局は脳の話につながっていて、要するに感情が生まれる脳内メカニズムが解明されない限り、マシン化はできないだろう。

でも進化したセンサーを装着すれば、脳そのものが変わっていく可能性もありますよね。未来の五感が一体どうなるのか、想像もつかないな。

 

用語集

CMOSセンサー

人間の眼と同じように、光を電気信号に変えることができる半導体センサーのこと。
デジタルカメラでよく使われるCCDセンサーよりも少ない電力で動けることが特徴。

クライオ電子顕微鏡

液体窒素によって冷却された空間内でタンパク質などの生体分子に対して電子線を照射し、試料を観察する。

近接覚センサー

ロボットハンドが対象物に近づいた際の、対象との間隔距離、相対傾き角度、物体の表面特性などを検出するセンサー

ニューラルネットワーク

ニューロンによって構成される人間の脳の仕組みを数理モデル化した組み合わせ。ニューロンの振る舞いを簡略化したモデル

『マトリックス』(映画)

仮想現実空間を舞台に、人間とコンピュータの闘いを描いたSFアクション映画

カガクマスター シリーズ