シンギュラリティは本当に起きるのか?
シンギュラリティ(技術的特異点)という言葉がある。
まず、シンギュラリティとは何かという点だが、Wikipediaによると・・・
技術的特異点は、汎用人工知能(en:artificial general intelligence AGI)[5]、あるいは「強い人工知能」や人間の知能増幅が可能となったときに起こるとされている出来事であり、ひとたび優れた知性が創造された後、再帰的に更に優れた知性が創造され、人間の想像力が及ばない超越的な知性が誕生するという仮説である。 フューチャリストらによれば、特異点の後では科学技術の進歩を支配するのは、人類ではなく強い人工知能やポストヒューマンであり、従ってこれまでの人類の傾向に基づいた人類技術の進歩予測は通用しなくなると考えられている。
小難しい書き方がされているが、ざっくり言うと、人工知能(AI)の発達・進化で、人工知能自身が、自分より僅かにでも高性能な人工知能を開発できるようになった時点で、信じられない速さで再帰的に高性能化が繰り返され、あっという間に人類が支配されてしまうのではないか、ということだ。
確かに、機械自体が自分より高性能なモノを作成できるようになれば、驚異的な速度で高性能化は進むと思われる。
しかし、私はシンギュラリティが起こったとしても、人類が機械に支配されるような日は来ないと思っている。
というのも、松尾先生の受け売りになるが、人間が人や資源、果てはお金を支配したいと考えるのは、「種の保存」のためである。
どういうことかというと、自分の種を残すため、より安定した環境にいたい。そのためには、資本主義である現代においてはたくさんお金があったほうが安全。
であれば、たくさん稼ごう。ということ。
価値観は多様で、様々な考え方があるが、基本的にはこういう原理で動いている。
これは動物も同じで、種を残したいために、メスにうまくアピールできるオスや、縄張りを確保できるオスの遺伝子が残っていく。
しかし、機械には、「種を残したい」という感情はない。
結果、どんなに機会が進化しようとも、人間を攻撃する理由がないし、人類を支配する意味も必要性もない。
・・・と私は思っているのだが、今、私が想像しているレベルの遥かに上を行く水準の、ほぼ人間並みの知能を持ち合わせたAIが出てきたら・・・シンギュラリティは起きるかもしれない。
ちなみに、人工知能学者の間でも意見が割れている。
最近、この 10MTVオピニオン という動画サイトで色々な学者の主張を聞いているが、
東大教授の松尾豊氏、同じく東大教授の柳川範之氏は起きないといっている。
一方、内閣府参与というなにやらすごそうな肩書きの齋藤ウィリアム浩幸氏は起きると言っている。
20年後くらいには、結果が出ているであろうから、今から楽しみにしている。