ユヴァル・ノア・ハラリ 訳・柴田裕之 河出書房新社 2025.3.20
読書日:2025.7.18
情報の技術革新が人類の秩序にどのような影響を与えたかを考察し、コンピューターによる情報は従来とまったく違うAI(エイリアン・インテリジェンス)であるとして、人類の未来について警鐘する本。
ハラリは「サピエンス全史」で、人類は他の種と異なり、物語を共有することで巨大な集団をまとめることができたと主張した。このまとめ方が素晴らしくよくて感心したのだが、今回の情報についてもまとめ方が素晴らしい。どうしてこんなにうまく表現できるのか、羨ましいくらいである。なにしろ、述べられているひとつひとつの歴史的事実は、そんなに特殊なことではなくて、普通の誰でも知っているような内容なのだから。
情報についてのまとめは、78ページに載っている情報についての図式に明確に示されている。
(情報の複雑な見方)
情報 → 真実 → 知恵
↘ ↘
秩序 → 力
ここで情報が客観的な事実を意味していることでないことに注意。情報は、物語などの虚構でも構わない。神話などのような物語から人々は真実をみつけ、知恵を得るだろうし、人々をまとめ社会の秩序を形成する。
この図式で重要なのは、ある情報により得られる真実と秩序が、お互いに相反する可能性があることだ。たとえば、地動説という真実は中世ヨーロッパの秩序を揺るがした。すなわち真実を追求すると、秩序が崩れる可能性がある。秩序は人々が生きていく上で必要があって生み出したものだから、重大な相反があった場合、人は秩序の維持を選ぶ傾向があるようだ。
しかし、真実の方が正しかった場合、時間がかかっても結局、秩序の方を柔軟に対応させる必要がある。この自己修正メカニズムを備えていると、社会が長続きする。結局、人間は間違える存在であり、間違いがあるということを認める社会を作る方がよい。
この図式には情報テクノロジーの発展が大きな影響を与えている。ハラリは単純に、民主的な秩序か、それとも全体主義的な秩序か、という2つの形態について述べている。
石器時代には情報の伝達は直接対話に限定されていた。だから情報の伝わる範囲は部族内に限られていて、その場合は全員参加の議論が可能だから、民主的な秩序だった。もし部族の中に権威主義的なリーダーがいて、それが不満だったら、だまって立ち去ればよかった。
次に筆記という情報テクノロジーが出てくると、もっと大きな人数をまとめることが可能になったが、それでもひとつの都市が限界だった。それ以上広がると、民主主義は多くの地域にいる市民が集まれなくなるし、中央集権的な全体主義国の場合でも、地方を監督しきれないから地方分権的にならざるを得なかった。情報の面から見ると、情報を1か所に置いておくしかないから、広い地域をまとめるための物語が十分機能しなかったということでもある。
ところが印刷技術という情報テクノロジーが出てくると、同じコピーを大量に作って、全国に届けることが可能になった。これにより、ほんとうの意味でばくだいな数の人間をまとめることができるようになったという。人々は新聞のような印刷物を通して議論ができるようになった。これに通信のテクノロジーが加わると、時間的な差もなくなる。こうしてほんとうの意味で民主主義国家が運営できるようになった。しかし、同時にこの情報テクノロジーは本当の意味で全体主義国家の運営も可能にしたのだ。ドイツのナチスやソ連のスターリンのような全体主義国家が誕生した。すべての情報が中央を通るようにすることによって。
現在、世界には民主主義国家と全体主義国家の両方が存在している状況なのだが、この状況で、これまでとまったく異なる情報テクノロジーが出現した。コンピューターだ。
これまで情報を作っていたのはすべて人間だった。本は自分でその内容を変えることは不可能だ。ところがコンピューターは知能を持っており、自分で情報を作ったり加工したりできる。そしてそのアルゴリズムが人間の社会にとんでもない影響を及ぼすことがあり得る。
このとき、よくあるSF映画のように、コンピューターが意識を持って人間を滅ぼすことを決断する、という話とは違うという。意識をもっているかどうかは関係なく、情報を加工して新しい情報を作り出せるアルゴリズムという知能を持っているだけで十分であるという。
この例としてハラリが出すのは、2017年にミャンマーで起こった少数民族ロヒンギャの虐殺の話だ。旧フェイスブックのアルゴリズムがユーザーエンゲージメントを高めるようになっており、ロヒンギャに対する憎しみを煽る動画を大量に自動再生した結果、起きてしまったという。
これは目標と違う結果を生むというアライメント(一致)問題と呼ばれている類の問題だそうだ。つまり、AIは間違いを犯す。
すでにAIがどのように考えて結論を得たのかはブラックボックスになっており、人間には理解できない状況である。なにを考えているか予測不能な点で、AIはアーティフィシャル・インテリジェンス(人工知能)ではなく、エイリアン・インテリジェンスになってしまっている。したがって、AIが間違えているとしても、どこが間違っているのか、人間には分からない。
このようなAIは、政治の世界を大きく変える可能性がある。これまでの情報テクノロジーと同じように、民主主義国家に対しても、全体主義国家に対しても、大きな影響を及ぼす。
民主主義国家に対しては、これは重大な危機になるという。常時ネットワークにオン状態である我々のプライバシー情報を膨大に集めている状況で、AIがわれわれのどの部分をつついて、社会を不安定な状況に追い込むかまったく予測がつかない。たとえば社会信用ポイントをAIが設定するようになってしまえば、そのAIの指図するままに行動しなくてはいけなくなるかもしれない。こうして民主主義国家が自己修正能力を失って、全体主義者国家になってしまう可能性があるのだ。
しかし、より危険なのは民主主義国家の方ではなくて、全体主義国家の方なのだという。なぜなら、AIは独裁者を取り込むだけで、国家全体を押さえることが可能だからだ。独裁者は部下を信頼していない事が多く、そういう独裁者が人間の部下よりもAIの方を信頼する可能性は高いという。
もう一つ、ハラリが気にかけているのは、AIが地球全体を一個の全体主義の世界にしてしまうのか、それともシリコンのカーテンで閉ざされた、分断した世界を作るのか、という問題である。すでに米中のネットワークは分断されつつあり、それぞれまったく行き来のない、分断された世界へと向かっているようだ。このような分断された世界が、情報だけでなく、本当の戦争に向かわないとは誰も保証できない。
このような最悪の世界が出現する、あるいは人類が滅亡するのを避けるためには、強力な自己修正メカニズムを組み込むようにするしかないという。そしてそれはこれからの年月をわれわれがどのように決断するかにかかっている、のだそうだ。
なお、NEXUSとは、情報のつながりを示す意味だそうです。
★★★★★

