ヘタレ投資家ヘタレイヤンの読書録

個人投資家目線の読書録

脳・心・人工知能 <増補版>

甘利俊一 講談社 2025.6.1
読書日:2025.10.22

日本の人工知能をリードした甘利俊一が自分の成果を踏まえて解説した2016年のオリジナル版に、最新の大規模言語モデルなどについて述べた章を加えた増補版。

この本を読んでいると、なぜ甘利は2024年のAI関連のノーベル賞に加わらなかったのか不思議なくらいだ。甘利は現在のAIに関するアイディアをほとんど出しているのである。

たとえば多層のニューロンの重みを変更する「確率的勾配降下学習法」を発明したのは1966年のことだそうだ。ほとんど同じ技術である、現在主流の誤差逆伝播法(バックプロパゲーション)が開発される15年前のことである。

おそらくノーベル委員会としては、人工知能を基礎研究というよりは応用技術分野としてみたのだろう。だから、実際にブレークスルーを果たした技術にノーベル賞が与えられたということなのだろう。

そうなると、1990年代に研究の第一線からはずれ、インターネット時代に間に合わなかったことが残念だ。インターネットの膨大な情報データや、実際にAI需要がでてくる前に第一線ではなくなってしまった。

とはいえ、おそらく本人もインターネット時代の人工知能についての明確な方針はなかったのではないかと思う。大規模言語モデルについては、本人もその成功にただ驚いているだけである。

かつてはコンピュータの力が弱く、理論研究が応用技術に先行してAIの発展が行われてきた。しかし、コンピュータパワーが莫大になった現在では、応用が先行しており、どうして大言語モデルがうまくいっているのか理論的にきちんと分かっているわけではない。

そういうわけで、AIの実装ではアメリカや中国に遅れているものの、理論的な検討が進んで行く部分に今後の日本の科学者の活躍の余地があるのではないかという。

AIの今後について、甘利はどのように考えているのだろうか。

2045年に起こるとされるシンギュラリティについては、甘利さんは信じていないそうだ。AIは進化するだろうが、人間もそれに応じて賢くなり、人間の文明を発展させていくだろうという。

一方、AIに人間のような心を(持っているかのように)プログラミングすることは可能だと考えているようだ。しかしそのようなAIは自己を意識し、何らかの信念を持つようになるかもしれないという。さまざまな信念をもつAIが別々の異なった助言を人間にするようになるかもしれない。これは非常に危険だと甘利さんは考えていて、安易に心の実装は行うべきではないという。どのようにAIを規制するべきか、これも文明に関わる問題だそうだ。

AIが発展した文明はどのようになるのだろうか。甘利さんは、仕事はAIに任せて、人間は遊ぶことと働くことを一体化し、人生を楽しむ文明になればいいという。

そのような次の文明を人間は作れるのだろうか。

★★★★☆

 

にほんブログ村 投資ブログへ
にほんブログ村 本ブログ 書評・レビューへ