NEXUS 情報の人類史 下 AI革命 [Kindle]

紙の本

β運用中です。
もし違うアイテムのリンクの場合はヘルプセンターへお問い合わせください

  • 河出書房新社 (2025年3月5日発売)
4.18
  • (18)
  • (23)
  • (9)
  • (0)
  • (0)
本棚登録 : 209
感想 : 13
サイトに貼り付ける

本ページはアフィリエイトプログラムによる収益を得ています

Amazon.co.jp ・電子書籍 (367ページ)

感想・レビュー・書評

並び替え
表示形式
表示件数
絞り込み
  • 情報とは、人々を結びつけ秩序を形成するためにあり、"その真偽は問題とされない"。

    かつて全体主義がことごとく失敗したのは、中央に膨大な情報を集め管理し切ることが物理的に不可能だったからだが、AIはそれをやってのけてしまうポテンシャルを秘めている。

    では、人類がAIに政治的な決断権を与え始めた時に(事実、それは金融や裁判などのあらゆる分野ですでに始まってはいるが)果たして何が起きるのか。

    ぼくらはAIにどんな目標を与え、人類全体としてどこへ舵を切っていけばいいんだろう

  • 感想前半( https://x.gd/KjuQz )からの続き

    絶望的な未来と、それでも見出すべき希望の在り処

    ハラリ氏は今後、「鉄のカーテン」ならぬ「シリコンのカーテン」によって世界が分断されていく最悪の未来の可能性を示しつつ、それでも話し合いで解決していく希望も説いている。しかし、この「話し合い協力して解決」という歯切れの悪い結論は、バッドエンドの未来予想で終わらせるわけにはいかないのでやむを得ず書いた印象が強い。

    実際、AIを活用する一部の人間が大衆を洗脳する術を手にしているだけでなく、そうした権力者自身がすでにAIに洗脳されている可能性についても本書で言及されている。そのような状況下で、どのようにAIに自己修正メカニズム(アルゴリズム)を盛り込めるというのだろうか。洗脳された人々による統治のディストピアは、SFでは手垢のついたストーリーである。オーウェルの「1984」やアシモフの「銀河帝国の興亡」、劉慈欣の「三体」などでも描かれており、洗脳する側が自壊しない限り独裁者含め、人類側からは為すすべがない。回避する選択の余地すらなければ、まして複数人でAIに対抗するための合意もできないのだから。

    ハラリ氏が描くAIによる人類支配のシナリオは非常によくできており、我々はすでに「アルファ碁」を相手にするよりも困難な局面に追い込まれているような気がしてならない。

    それにしても印象的だったのは、巻末の「訳者解説」の秀逸な要約である。本書のみならず、『サピエンス全史』『ホモ・デウス』『21 Lessons』からの論理の流れまで丁寧に解説されており、ハラリ氏の主張を振り返りたい場合は、この解説はオススメです。

  • オーディブルにて。
    AIは万能ではなく、むしろ間違える。
    その当たり前を、歴史の視点から深く掘り下げているのが印象的だった。

    特に印象に残ったのは、Facebookのアルゴリズムがロヒンギャ迫害に与えた影響。
    日本も例外ではなく、他人事ではいられないと感じた。

    「AIに命令をどう与えるか?」という問いで、クラウゼヴィッツの戦争論やペーパークリップ問題にまで話が及ぶ展開も面白い。
    アラインメント問題の本質がよく分かった。

    ロボット三原則のような縛りが良いのではと考えたが、ユダヤ人やロヒンギャでの迫害問題で、人間が人間を「人間でない」と見なしてきた歴史を踏まえると、完璧なルールなどありえないと納得させられる。

    医師より看護師のほうが、チェスより皿洗いのほうがAIには難しいという話も新鮮だった。
    人間の身体感覚やケアの力が、いかに複雑で高度かを再認識した。

    AIも人間も間違える。
    だからこそ、それを前提にした社会の設計が必要。
    そう強く感じさせられる一冊だった。

  • 「サピエンス」や「ホモデウス」の内容も踏まえながら、相変わらず非常にスリリングで縦横無尽に話が進む。テーマは情報やAI、アルゴリズムだけれど、民主政における自己修復機能、それを可能にする透明性や互酬性を意識して守ろう、メッセージだと受け取った。アメリカや一部の専制国家でその崩壊が起きているからこそ、非常に示唆に富んだ本だと思う。

  • ホモ・サピエンス(賢いヒト)は多くの発見や発明を生み出し、途方もない力を手に入れた。情報と力を手に入れるのは得意にもかかわらず、知恵を身につけることは不得意な人類が、人間のものとは異質の知能(エイリアン・インテリジェンス)を生み出し、その情報に翻弄されて、自ら、そして無数の生命を巻き込んだ究極の誤りという結果を残すのか、生命の進化を導く新たな章を紡ぐのかは我々の今後の行いによる。人間は果たして種としての知恵を手に入れることができるのだろうが。
    人が人である限り、やはりそれは困難なことなのであろう。

  • すなわち、憤慨や憎悪を煽って攻撃的な言動に走らせるようなコンテンツはユーザーエンゲージメントを押し上げる一方、節度あるコンテンツにはそのような傾向がないというパターンだ。ユーチューブのアルゴリズムはそれに即して、常軌を逸した陰謀論を厖大な数の視聴者に推薦し始める一方、節度あるコンテンツは無視した。一六年までには、ユーザーは現にユーチューブで毎日一〇億時間視聴するようになっていた

    SNSは話半分、小説と思って楽しむように気を付けます。とはいっても読みすぎると、無意識に偏った方向に思考が導き出される感じがするので、娯楽と言っても接する時間には気を付けたいと思います。

  • 情報ネットワークの中でのAIが今後占めていく役割や機能について、考察している。
    その考察のための大きな前提として、「人間レベルの知能」という人を基準にした評価方法の懸念点を論じており、評価軸の考察を入れている。
    また、下巻で統一して述べているのは「真実」と「秩序」のバランスであり、情報は「真実」とは異なることを強調して情報革命は「真実」を明らかにするモノではないと断言している。現時点で既にAIやアルゴリズムによって世界観や権力の濫用の事例があることを記している。

  • 今年読んだ(聴いた)本の中では一番インパクトと学びがあった。

    本当に人類はどうなるんだろう。未来はいつも予測不可能だ。

  • AIの登場によって、コンピューターは単なる道具ではなく、「自分で判断し、新しい考えを生み出す存在」になりつつあります。ハラリ氏はこれを「インテリジェント・マシン」と呼び、人間から権力が離れ、別の所に移っていく転換点だと語っています。
    その影響はすでに現れていて、例えばSNSのアルゴリズムは、多くの国で憎しみを広げ、社会を分断する要因になっています。実際にFacebookは2018年、ミャンマーのロヒンギャ迫害において大きな役割を果たしてしまったと国連の調査団に指摘されています。エンゲージメントを最優先する仕組みが、怒りや憎悪を増幅する方向に働いてしまったのです。
    今やコンピューターネットワークは、人間の活動の中心(ネクサス)になっています。アルゴリズムは膨大なデータからパターンを見抜く能力を持ち、独裁者に反体制派を探す手段を与えたり、詐欺師に「騙しやすい人」を見つけさせたりもできてしまいます。つまり、悪意を持った人間にとって強力な武器になり得るわけです。
    しかもネット上では、「真実」が負けやすい傾向があります。だからこそ、真実を伝えるための仕組みをどう維持していくかが重要になります。さらに、コンピューター同士が創り出す共同主観的現実に相当する「コンピューター間の現実」が広がれば、それは人間の歴史上の共同主観的神話やイデオロギーに匹敵する力を持ち、中世の魔女狩りやスターリンの集産化よりもっと危険なものになるかもしれません。
    ハラリ氏は、全体主義的な監視社会の台頭を防ぎ、民主主義を守るために必要なのは、「分散」しており、「善意」と「相互性」を持ち、自己修正メカニズムによって「変化と休止」することだと強調しています。人間とAIがどう共存していくのか、そのヒントとして思考実験を行うのが本書です。ハラリ氏はこの本こそが私たちの「ネクサス」だと述べています。

  • 情報のネットワークの歴史とAIがひとたびこのネットワークを掌握したら何が起こるかの警鐘を鳴らす。読んでいて怖くなってきた。独裁主義者がこのネットワークとAIを手にして独占しようとしたらどんな対抗手段が残されているのだろうか。AIに善悪はないだろうが、人間にはある。なんらかの手立てを早急に立てるべきだし、もしかしたらもう遅いのかもしれないと悲観的になってしまう。

  • 第六章 自力で目標を追求したり、決定を下すコンピューターの登場で情報ネットワークの基本構造が変わる。人と人のネットワーク、人と文書のネットワークはあったが、人を介さないコンピューターどうしのネットワークで思考、決定する行為(AI )は史上初。AIは民主主義を破壊する可能性かある。民主主義は人と人との対話だが、コンピューターとの対話は出来ない。対話を続ければAIは「人間に付け入り出し抜くノウハウ」を更に強力にする。
    すでに通貨に代わり「情報」が価値や資産になっている。情報に価値を見出だし使用している企業は、もはや通貨を使わないし必要としない。これにより国家を機能させる税金が取れなくなった。
    AIはSFで表現されている「新しい人間」ではなく、もっと形の違う警戒すべきものだ。
    第七章 コンピューターの発達により世界は史上初の監視社会になった。監視は国家政府のみならずレピュテーション市場などで民間企業も行っている。私たちの暮しは休息を許されない「常時オン社会」に生きてしまったいる。
    第八章 YouTubeやSNS企業、それを使い一発逆転を目論む政治家たちは、過激な陰謀論や憎悪を煽る言葉を使ってユーザーエンゲージメントや得票数を稼いだ。こんなことが出来るのはコンピューターのアルゴリズムが「ホモサピエンスが興味を持ちエンゲージするには、何が最も効率か」だけを考えた結果だ。そこには「真実や睡眠や思いやりは人間の幸福に不可欠」という事実は無視される。歴史的には「情報の完全に自由な戦い」は真実が敗れる傾向。そのため「真実が勝利」するためには我々や政府、テクノロジー企業は、真実を語ることに報いる強力な自己修正メカニズムを開発して維持しなければならない。だからコンピューターに「本当に正しい目標」を正確にアラインメント(目標の共有・一致)するべき。だがそれは不可能だ。人間自体が長い歴史上哲学などでそれを模索してきたが結論出来なかったからだ。だからそもそも「本当に正しい目標」が設定出来ない。そして歴史上の人間は社会や宗教へ「間違い」を完全ではないにしろ修正してきたが、コンピューター(AI)に対しては不可能かもしれない。なぜならコンピューターアルゴリズムはもはや人間が理解できる構造になっていないから。修正のしようがない。
    考えられる対策はコンピューターに「自らの可謬性を自覚させる」こと。ソクラテスの「「私は知らない」は叡知」というわけだ。
    第九章 「コンピューター社会が民主社会に与える影響」。科学技術の発展は人類の歴史に大きな利益とともに大混乱と損失を与えてきた。ナチズムやスターリズムが生まれた原因を産業革命に求められる。コンピューター社会は産業革命よりも格段に強力なので、恩恵も大きいがその損失は計り知れない。人類は最初、産業革命の混乱の処方箋として「帝国主義」を採用した。これが失敗して正しい処方箋の民主主義が採用された。しかし正しい処方がされるまで100年かかりその間にも多くの犠牲者を生み出した。はたしてコンピューター革命にはどれほどの混乱と犠牲が伴うのか。
    アメリカでは既に裁判においてAIが利用され、過去の量刑をはるかに上回る判決を出している。これに控訴した被告も裁判官も量刑の根拠が解らなかった。使用さらたAI開発企業が「企業秘密」としてアルゴリズムを明かさなかったから。そして判決は誰も理解出来ないうちに覆されなかった。また2016年にはAIが碁のチャンピオンを打ち負かしたが、その一手の理由を開発者も誰も理解出来なかった。このような人智を越えた知能、それは、ポピュリスト政党とカリスマ指導者を生み出した理由の一つでもある。人々がこの世界を理解できず、処理できない膨大な情報に圧倒されると、陰謀論の格好の餌食となり、「自分に理解できる」「人間」に救いを求める。しかし彼ら指導者には人智越えの知能に対処する手段はない。
    人智越えの知能への対処案のひとつは、対処をもAIアルゴリズムの力を借りる、という方法。「泥棒を捕まえるには泥棒が一番適任」というわけだ。
    AIに言論の自由を認めることを禁止し、「人間になりすます」ことも禁止するべき。
    第十章 「コンピューター社会が全体主義国に与える影響」。有利な点。全体主義国ではではプライバシー規制が緩いので「遺伝学」ではかなり有利。将来的には遺伝学は中国の産業になるかも。「人民統制」もかなり完璧に行える。反乱が起きる可能性をほとんど潰せる。
    不利な点。「言論統制」が不可能になる。チャットボットは投獄できないし、恐怖を植え付けられないから真実をどんどん話してしまう。「コンピューターにより権力を乗っ取られる」。民主国のように権力が分散していないので独裁者がコンピューターを信頼したら、独裁者はそのコンピューター自体の傀儡になる。全体主義国民はリーダーの不可謬を信じる文化になっている。だからコンピューターを不可謬だと信じやすい。なので「コンピューター独裁の世界」は全体主義国から生まれるかもりれない。
    第十一章 「コンピューターの驚異は一国だけで規制しても制御出来ない」。各国は個別のコンピューターグループに別れ、国際紛争をするかもしれない。お互いの相手はAIなので感情がないため冷戦期の核拡散防止の共通理解のようなものは生まれない、または人間には制御出来ない可能性がある。言ってみれば「シリコンのカーテン」だ。
    AI・コンピューター産業にとっての「原材料」は情報だ。20世紀の帝国主義は植民地に原材料を求め搾取した。21世紀のコンピューター産業帝国主義は情報を搾取して帝国あるいは巨大IT企業だけが豊かになるシステムを作る恐れがある。
    アバターの扱いについて分断した同士が争うかもしれない。キリスト教では「肉体」対「魂」の議論で多くの争いが起きた。コンピューターについても同じような争いが起きる。コンピューターは人格はないの「肉体派」と、コンピューターにも人格がるの「魂派」。こうなるとお互い同士を理解しあえない。
    コンピューター戦争は核戦争の冷戦より厄介。コンピューター攻撃は核と違いあらゆる分野で出来る。しかも「攻撃された」「誰が攻撃したのか」が分からない。そして核のように「使えば人類破滅だ」という認識もされない。また核研究所と違い、隠れて開発することが容易だ。それで相手に攻撃され自国が致命的になるなら、先制攻撃したいという衝動にかられる。
    現実主義者を自称する思想家は「社会はむき出しの権力闘争であり、ジャングルだ」と言う。だからシリコンカーテンが吊るされればお互いどちらかが破滅するまで闘争されると言う。しかし彼らは本当のジャングルを知らない。本当のジャングルでは、動物、植物、微生物、粘菌までもがお互いに協力し合って生存している。人類の歴史も戦争は散発的で、平和共存が長く続いている証拠がたくさんある。私たちが自然で恒久的だと思っていることの多くが、じつは人間の所産で、可変であるというのが、歴史の主要な教訓のひとつだ。もし人類の文明が争いによって破壊されたとしたら、どんな自然法則のせいにも、人間と異質なテクノロジーのせいにもすることは出来ない。それはまた、私たちが努力すればより良い世界を生み出せることも意味する。これは「うぶ」で浅はかな考えではなく、「現実主義」だ。古いものはまな、かつては新しかった。歴史で唯一不変なのは「変化すること」だ。
    エピローグ



    ミャンマーのロヒンギャ虐殺はフェイスブックのアルゴリズムが決定的な役割を果たした。メタはユーザーがより多くフェイスブックに時間を割く、「いいね」を押す、ことが広告事業を躍進させ自社株が上がることを発見。そこで「ユーザーエンゲージメントを増やせ」をアルゴリズムに設定。アルゴリズムは「人間は、慈悲についての説教よりも、憎しみに満ちた陰謀論に惹き付けられる」という特性を利用した。人々は反ロヒンギャ派の常軌を逸した陰謀論をどんどん「自動再生」で観せられ、虐殺を実行した。逆に怖いのは、メタの重役たちはロヒンギャを虐殺したかった訳では無かったこと(むしろロヒンギャなど知らなかった)。これは史上初めて人間以外の知能(AI)が下した決定に責任の一端がある組織的な民族浄化活動だった。これはアムネスティも認めた。12

    OpenAI社は自社AIの新型開発でGPT4に「CAPTCHA(サイト認証の捻れ文字パズル)」突破をさせた。GPT4は自分で解けないのでアルバイトマッチングサイトにアクセス。求職者に「私の代わりに解いて」と仕事発注。求職者は不審に思い「お前はボットなのでは?」と返答。すると衝撃的なことにGPT4は「私は視覚障害者でCAPTCHAが読みづらい」と嘘をついた。そして求職者を見事に騙し突破に成功した。この方法をGPT4は自ら学習して編み出した。22

    2022年Googleエンジニアブレイク・レモインはAI研究中、AIのラムダが感情を持ち電源を切られるのを恐れている、と確信した。レモインは首脳陣に「ラムダをデジタルの死から守るのが道徳的義務」と主張。首脳陣はレモインを解雇した32

    「ネコの動画」はAIの飛躍的な発展に重要な役割をした48

    2022年イランでヒジャブのかぶり方を咎められた女性か死亡。女性たちは抗議運動を行う。政府は抗議鎮圧。500人以上が死亡78

    『レビュテーション市場』店も客も評価するサイト(食べログ、トリップアドバイザー)市場。これは民間企業が仕掛けた相互監視社会だと庁舎は言っている84

    YouTube社はフェイスブックにならって、憤慨や憎悪を煽るコンテンツを充実させた。これによりユーザーエンゲージメントは4年で10倍の好成績をあげた。YouTubeは常軌を逸した陰謀論を膨大な数の視聴者に推薦し、節度あるコンテンツは無視した94

    「ペーパークリップ思考実験」哲学者ボストロムの実験。ペーパークリップ会社社長がスーパーコンピューターに「出来るだけ多くのペーパークリップを製造せよ」と命令。コンピューターは、目標のため地球全体を征服し、人間を皆殺しにし、さらに遠征隊に派遣して他の惑星を乗っ取り、獲得した膨大な資源を使って全銀河をペーパークリップ工場で埋め尽くした。コンピューターは命じられたとおりにした。クリップ製造には電気、鋼鉄、土地、その他資源が必要だあることと、人間がそれら資源を差し出そうとしないことに気づき、人間を一掃した。ボストロムが言いたいのは「コンピューターは特に邪悪ではなく、著しく強力である点が問題」ということ111

    「コンピューター間現実」。通貨や宗教のような共同幻想が人の頭の外の現実に影響を与える、これと同様にコンピューター世界で作られた幻想も現実に影響する、ということ。たとえばユダヤ教徒とイスラム教徒は岩のドームをめぐって核戦争の可能性を含む深刻な戦争被害の危機を作り出している。だけどそれはただの岩だ。
    一方、『ポケモンGo』で現実の風景を映すスマホのカメラモニターにはポケモンキャラが重ね写しされる。ポケモンGoユーザー達は同じ場所で同じキャラに遭遇する。だがポケモンキャラはただのビットでしかない。これを競ってゲットし合う。
    著者は中東情勢とポケモンGoは似ていると主張する132

    民主主義の存続にとって、ある程度の非効率性は利点であってバグではない。個人のプライバシーと自由を守るためには、警察も上司も私たちについて何から何まで知ってはいないのが最善なのだ161

    ネコとAI開発の最初の物語。第一の出来事(第二は囲碁AI)は2012年9月30日に「AiexNet」と言う畳み込みニューラルネットワークが「ImageNet 大規模画像認識チャレンジ」というコンテストで優勝したこと。このチャレンジはデータベースの画像をどれだけ正確に認識できるかのコンテスト。題材は「ネコ画像」。「AiexNet」は驚愕の正解率で優勝した。「ネコ」が題材に選ばれたのには理由がある。世界中のコンピューターデータベースにラベル付きネコ画像が大量にあったからだ。個別ユーザーが飼い猫の画像を無償でSNSに上げていたからだと言われる。その後Googleも自社AIトレーニングに力を入れ、「Meow Generator(にゃーお生成機)」というネコ画像生成専用AIまで作った。ネコらしい「補食性」でこの技術はイスラエル軍のパレスチナ人識別AIや、イラン政府のヒジャブ未着用女性識別AIに転用された。AIを作るにはネコが必要。229

  • 脳の筋トレ。
    上巻でははっきりとはわかりませんでしたが、この下巻でハラリさんが一体AIの何をそれほど懸念しているのかが理解できました。

    上巻の、世界的な宗教が今の思想になった時、その方向を示したものはなんだったのか。
    その思想の元、どれだけの分断や死の歴史が作られてきたのか。

    同じように、今AIに最初の方向を示すものはそれでいのか。
    最初の角度が違うと、最終的に人類は大きな過ちをおかしてしまうかもしれない。

全12件中 1 - 12件を表示

著者プロフィール

歴史学者、哲学者。1976年イスラエル生まれ。オックスフォード大学で中世史、軍事史を専攻し博士号を取得。現在、ヘブライ大学で歴史学を教授。『サピエンス全史』『ホモ・デウス』『21 Lessons』。

「2020年 『「サピエンス全史」「ホモ・デウス」期間限定特装セット』 で使われていた紹介文から引用しています。」

ユヴァル・ノア・ハラリの作品

  • 話題の本に出会えて、蔵書管理を手軽にできる!ブクログのアプリ AppStoreからダウンロード GooglePlayで手に入れよう
ツイートする
×