Content Subheads

AIとは何か、その可能性と実際
● 間違った決断はもう二度としない?
● アンドリーセン対セルフレジ
● 金持ちがより金持ちになるとき
● ふたつの良識的なポイント

マーク・アンドリーセンは時として、新しい技術時代の幕開けについての壮大な仮説を披露して世界を驚かせることがある。

VC企業アンドリーセン・ホロウィッツの共同創業者である彼は、2011年の伝説的なブログ投稿「Why Software Is Eating the World(なぜソフトウェアが世界を飲み込むのか)」で、昔ながらの産業を担う企業でさえ、まもなくソフトウェアがその中核を担うはずだという、当時としては斬新であり、いまでは否定しがたい主張を展開した。

2020年、新型コロナウイルス感染症(COVID-19)によって世界中がマスクや鼻腔洗浄液の不足を訴えていたころ、彼はパンデミック、気候変動、崩壊したインフラ、住宅不足といった喫緊の問題を解決するためのテクノロジーへの投資を復活させようと呼びかける「It’s Time To Build(いまこそ構築のときだ)」を発表した

そして今回彼は、7,000語に及ぶ投稿によって、新たなナラティブの構築を試みている。それは、「AIは世界を滅ぼさない、むしろ世界を救うかもしれない」という内容だ。その大部分は人工知能(AI)の破滅シナリオを否定することに費やされ、残りは、AIが文明の救世主にも等しいと喧伝することに費やされている。

ギデオン・リッチフィールド

『WIRED』全エディションのグローバル・エディトリアル・ディレクター。ビール、マーマイト、サッカーが嫌いという理由で1998年に英国を離れ、メキシコシティ、モスクワ、エルサレムに住んだ後、米国に移住。『MITテクノロジーレビュー』の編集長、『Quartz』の創刊編集者のひとり、『エコノミスト』のさまざまな業務を歴任。物理学と哲学を専攻。

もちろん、これは想定内のことだ。アンドリーセンはテクノロジーの進歩に投資している投資家であり、それを誇大宣伝(ハイプ)する以外のインセンティブをほとんどもちあわせてない。それでも、彼の投稿にはふたつの点で価値がある。第一に、その明らかな盲点は、最大のAIハイプ主義者の思考と、そうした人々がどこで道を踏み外すのかを知るための有用なガイドとなる。第二に、よりヒステリックなAI恐怖症のいくつかを取り上げることで、実際に(多少)的を射ていることだ。

では、さっそく読んでみよう。

AIとは何か、その可能性と実際

アンドリーセンはこの投稿の冒頭で「AIの簡単な説明」をすることで、早くも手の内を明かしている。それは 「数学とソフトウェアコードの応用で、人間が行なうのと同様の方法で知識を理解し、合成し、生成する方法をコンピュータに教えること」というものだ(太字は筆者の強調)。

この一見無難ともいえるAIと人間の思考の並列は、「人工知能」という言葉そのものと同様に、人間の心と機械学習の現状との間にある能力の大きな溝を消し去っている。大規模言語モデル(LLM)は統計的推論アルゴリズムだ。つまり、文中の単語など、一連の事柄のなかで次に可能性が高いものを予測している。人間が書くであろう文章を予測するために、膨大な量の人間の文章で訓練されているので、人間の文章に非常によく似たものをつくりだすのだ。

お気づきのとおり、これはあなたが「知識を理解し、合成し、生成する」ためのやり方とは似ても似つかない。あなたは、すべての人間と同じように、世界と直接対話することによって世界について学んできた。木やテーブルといった物理的なもの、貧困や倫理といった抽象的なもの、そして他人の考えや感情についての概念を深めてきたのだ。

あなたが言語を使うことを学んだのは、こうした概念について話し、処理するためだが、言語はあなたにとってひとつのレイヤーに過ぎず、世界についての心象風景を共有し、洗練するためのひとつの方法でしかない。一方でLLMにとっては、心象風景は存在せず、言語がすべてとなる。

もちろん、LLMの能力はこのところ驚くほど飛躍しており、それを牽引するマイクロソフトの研究者たちは、OpenAIの最新モデルであるGPT-4に汎用知能の「火種」があると主張している。そして、LLMはAI研究の唯一の道ではない。いずれ機械が人間の知性に近いものを開発する可能性は排除できない。それでも、それが人間よりもエイリアンに近いものになると考える充分な理由もある。

しかし、アンドリーセンの主張では、AIが完全なる人間のような知能をもつ理想的なバージョンに向かっているという認識が大前提となっている。というのも、それに続けて彼がやることは、こうした形態のAIが世界をよりよくする方法をいくつか列挙することだからだ。

間違った決断はもう二度としない?

アンドリーセンが約束するような、AIによって拡張された世界では、「すべての子どもは、無限に忍耐強く、無限に思いやりがあり、無限に知識があり、無限に役立つAI家庭教師をもつようになる」。すべての大人には、「人生のあらゆる機会と課題に立ち会い、すべての人の成果を最大化するAIアシスタント/コーチ/メンター/トレーナー/アドバイザー/セラピスト」がいる。

CEOや政府高官のような影響力のある人々にAIコーチを与えることは、「リーダーによるよりよい決断が、彼/彼女らが率いる人々全体に及ぼす影響は非常に大きい」ので、AIによる拡張のなかでも「最も重要かもしれない」。

ここにはふたつの重要な盲点がある。まず、AIの相棒が「無限の知識」をもつという仮定だ。現在、LLMは日常的に事実をでっち上げ、時には人間から間違いを指摘されてもそれを続けていることを考えると、ここには大きな論理の飛躍があると言える(これは、前述のように、LLMが言葉の統計的パターンに過ぎず、言葉の背後にある現実をまったく理解していないからだ)。

さらに問題なのは、人間がはるかに優れたAIを使ってでも「ベターな」判断を下すという仮定だ。それは誰にとってベターなのか? 「無限に忍耐強く」「無限に役に立つ」AIコーチは、より効率的な製造プロセスやより公平な福利厚生の枠組みを考案するのと同じように、人間の主人が大量殺戮を行なうのを助けることもできるだろう。

もちろん、あなたはこう思うかもしれない。もしそのAIが、人間の能力を最大限に引き出すことに加えて、社会病質的な決断をしないようにプログラムされていたらどうだろう? それは結構だ── マーク・アンドリーセンがその提案に強く反対するだろうことを除けば。

彼の投稿の大部分は、AIに関する大きな懸念のひとつである、ヘイトスピーチや誤情報を広めることへの批判に対して費やされている。誤解のないように言えば、彼はAIがヘイトスピーチや誤情報を広めることはないと主張しているわけではない。彼は単に、ソーシャルメディアを取り締まるのは危険で複雑であり(その通り!)、取り締まれると信じているのはほとんどが政治的左派であり(これもその通り!)、AIを取り締まるのはさらに危険で、なぜなら「AIは世界のあらゆるものの制御レイヤーになる可能性が高い」ので(うーん、本当に?)、結果がどうであれ取り締まるべきではない、と主張しているのだ。

こうした立場を取るのは自由だとしても、この主張は、人々にとってのAIコーチが(たとえ、でっち上げを繰り返す過去を乗り越えて役立つものになったとしても)世界をよりよいものにするという考えとは根本的に相容れないものだ。もしアンドリーセンが主張するように、AIに特定の価値観をもたせるようプログラミングすることが論外だとすれば、AIコーチにやれることは、それがどんな世界であれ、人間がつくり出した世界をよりよくするのを手助けをすることだけだ。その場合、その世界がどんなものかは……あなたの周りを見回してみればいい。

もちろん、優秀な科学者たちはさらに素晴らしい救命薬や気候変動に影響を与えないバッテリーのための化学物質を考え出すだろう。でも周りにいる強欲で、罪深く、貪欲で、人を操る策略家たちも、ほかの人間を利用することにもっと長けるようになるはずだ。歴史上、人間の根本的な性質を変えたテクノロジーは、まだひとつもないのだから。

アンドリーセン対セルフレジ

アンドリーセンの怪しげな論理のもうひとつの例は、AIによってすべての人が失業するという人類共通の恐怖について取り上げる際に現れる。彼のここでの主張は、AIはこれまでの技術革新と何ら変わりはなく、仕事がなくなることはこれまでもなかったというものだ。確かに長期的にはそうだ。 新しい技術はある種の仕事を破壊し、やがてほかの仕事をつくり出す。しかし、この結論に至るロジックは、ほとんど笑い話のような単純さだ。

アンドリーセンはまず、AIが「すべての仕事」を奪うという藁人形を用意することから始める。文字通り「すべて」を奪うという考え方だ。そして、「経済活動において必要な労働はいつでも一定量であり、それを機械が行なうか人が行なうかのどちらかなので、機械が行なえば人が行なう仕事はなくなるという誤った考え」、いわゆる「労働塊の誤謬」を指摘することで、この藁人形論法を続けるのだ。

アンドリーセンの投稿を読む高学歴の読者が「労働塊の誤謬」を実際に信じているとしたら驚きだが、彼はとにかくそれを解体し、あたかも読者にとって新しい概念であるかのように生産性の向上という概念を紹介する。テクノロジーによって企業の生産性が上がれば、その分を価格低下というかたちで顧客に還元し、人々はより多くのものを買えるようになり、需要が増え、生産が増えるという、美しく自律的な好循環が生まれると主張する。さらに素晴らしいことに、テクノロジーは労働者の生産性を高めるので、雇用主は労働者に多くの賃金を支払い、労働者はさらに多くの消費をするようになり、成長は二重に促進されるというのだ。

この議論には多くの間違いがある。企業は生産性が上がると、競争や規制によって強制されない限り、その余剰分を顧客に還元することはない。競争や規制は、多くの場所、多くの産業で弱い──特に、企業がより大きく、より支配的になっているところではそうだ。地元の店が廃業している町に大型店舗があるようなものだ(アンドリーセンがこのことに気づいていないわけではない。彼の「It’s time to build」という投稿では、寡占状態や規制の掌握といった「市場ベースの競争を阻害する力」に対して憤慨して見せている)。

さらに、大企業は中小企業よりも、AIを導入するための技術的リソースをもち、AIを導入することで有意な利益を得る可能性がより高い──結局のところ、AIは大量のデータを解析するときに最も役に立つからだ。そのため、AIは顧客に対する価格を下げるどころか、競争を減らし、AIを利用する企業のオーナーを豊かにする可能性さえある。

また、テクノロジーは企業の生産性を高めるかもしれないが、個々の労働者の生産性を高めるのは時と場合による(いわゆる限界生産性)。その場合、単に企業は仕事の一部を自動化し、雇用する人数を減らすことになる。ダロン・アセモグルとサイモン・ジョンソンの著書『Power and Progress』は、テクノロジーが歴史的にどのように仕事に影響を与えたかを正確に理解するための、大著ながらも貴重なガイドであり、こうした自動化を「まあまあの自動化(so-so automation)」と呼んでいる。

例えば、スーパーマーケットのセルフレジを考えてみよう。これは、残りのレジ係の生産性を上げるわけでもなく、スーパーマーケットがより多くの買い物客を獲得し、より多くの商品を販売するのを助けるわけでもない。ただ、一部のスタッフを手放すことができるようにしただけなのだ。

多くの技術革新は限界生産性を向上させるが、それが可能かどうかは、企業がそれをどのように導入するかによって決まると本書は主張する。あるものは労働者の能力を向上させ、あるものは、「まあまあの自動化」のように、全体的な利益を向上させるだけだ。そして、企業が前者を選択するのは、労働者や法律がそうさせる場合のみであることが多い(この点については、ポッドキャスト「Have a Nice Future」[英語]でアセモグルとわたしが話しているのを聞いてほしい)。

AIと雇用に関する真の懸念であり、アンドリーセンがまったく無視していることは、多くの人々がすぐに仕事を失う一方で、AIが生み出す新しい産業や市場において新しい種類の仕事が生まれるには時間がかかり、多くの労働者にとってリスキリングは困難か手が届かないものになるということだ。そして、こうしたことは、これまで大きな技術革新のたびに起こってきたことでもある。

金持ちがより金持ちになるとき

アンドリーセンがあなたに信じてもらいたいことのもうひとつは、AIが「破滅的な不平等」をもたらすことはないということだ。もう一度言うが、これは藁人形論法のようなもので、不平等がいまよりひどくなるためには、必ずしも破滅的である必要はない。奇妙なことに、アンドリーセンはここで自分の主張を否定しているとも言える。

彼は、技術の発明者には、できるだけ多くの人がその技術にアクセスできるようにするインセンティブがあるため、技術が不平等をもたらすことはない、と言う。その「典型的な例」として、イーロン・マスクテスラを高級車から大衆車へと変貌させたやり方を挙げ、それがマスクを「世界一の金持ち」にしたと指摘する。

しかし、マスクがテスラを大衆に普及させることで世界一の金持ちになり、ほかの多くのテクノロジーも主流になった一方で、過去30年間、米国ではゆっくりとだが着実に所得格差が拡大してきた。どうやら、テスラの例はテクノロジーが不平等を煽ることに対する反論にはならないようだ。

ふたつの良識的なポイント

さて、アンドリーセンの文章のなかで、良識的な点にも迫ってみよう。アンドリーセンは、超知的なAIが人類を滅ぼすという考えを否定しているが、これは正しい。

彼はこれを、人間の創造物が暴走するという長年にわたる文化的ミーム(プロメテウス、ゴーレム、フランケンシュタイン)の焼き直しの最新版に過ぎないとし、AIがわたしたち全員を殺す決断することだって起こりかねないという考えは「カテゴリーエラー」だと指摘する──AIに独自の心があると仮定しているからだ。むしろ、AIは「人によってつくられ、人によって所有され、人によって使われ、人によってコントロールされる、数学(コード)コンピューターだ」と彼は言う。

これはまったくその通りで、エリザー・ユドコフスキーのような終末論的な警告に対する歓迎すべき解毒剤であり、同時に、すべての人に「AIコーチ」を与えることで自動的に世界がよくなるという前述のアンドリーセンの主張とはまったく相容れないものだ。すでに述べたとおり、もし人々がAIをつくり、所有し、使用し、コントロールするならば、人々はAIを使ってやりたいことをやるだろうし、それは地球をカリカリに焼くことも含むかもしれないのだ。

この主張が、ふたつ目の良識的なポイントにつながる。ここでアンドリーセンは、人々がAIを使って生物兵器を設計したり、ペンタゴンをハッキングしたり、テロ行為をしたりといった悪いことをするのではないかという危惧に触れる。それらは当然の不安だとしながら、彼が言うには、その解決策はAIを制限することではない。

これはある部分までは正しい。AIを使って人がやりかねない悪事は、悪事であるという点ですでに違法である。手段ではなく害悪そのものを対象とするのは、優れた法整備の一般原則だ。殺人は、それが銃でなされようが、ナイフでなされようが、AI制御のドローンでなされようが、殺人である。雇用における人種差別は、雇用主があなたの写真を見ようが、履歴書の名前から人種を推測しようが、有色人種に対する不注意な隠れたバイアスを含むスクリーニングアルゴリズムを使おうが同じことだ。また、特定のテクノロジーを抑制するためにつくられた法律は、その技術が変化するにつれて時代遅れになるリスクがある。

とはいえ、害を及ぼす手段のなかには、特別な法律を必要とするほど、ほかの手段よりもはるかに影響力の大きなものがある。最も寛容な米国の州であっても、大型の武器はもちろんのこと、誰もが銃を所有し携帯することが許されているわけではない。AI制御のドローンによる殺人が問題になれば、ドローンに関する法律がより厳しくなることは間違いないだろう。

AIを利用した犯罪に対しては、法律だけでなく、法執行機関の変化も求められるかもしれない。暗号通貨を使ってダークウェブで取引する麻薬の売人を追い詰めるために新しいテクノロジーが必要だったように、当局もこういった犯罪を捜査するために新しい技術を必要とするだろう。

問題の解決は、新しい法律によってではなく、業界が標準を採用することでなされる場合もある。ディスインフォメーション(偽情報)の定義がいかに政治的なものになりえるかを考えると、特に米国において、ディスインフォメーションの拡散を犯罪にすることは難しい。しかしアンドリーセンは、「AIが偽の人物やフェイク動画を生成することを心配するなら、その解決策は、人々が暗号署名によって自分自身本物のコンテンツを確認できる新しいシステムを構築することだ」と指摘している。

その通りだし、さらにいくつかのステップが実際には必要だ。まず、AI企業は、AIが生成した画像や動画にデジタル署名を付けるための共通規格を採用すべきだ(こうした規格は少なくともすでに存在する。Content Authenticity Initiativeは、署名が剥がされている場合でもコンテンツを検証する方法を提供している)。そして、ソーシャルメディア・プラットフォームやニュースサイトなどは、そのようなコンテンツにラベルをつけるべきで、それを見た人は、わざわざ検索しなくてもその出所を知ることができる。

アンドリーセンは、これまでにも大きな技術革新のためのナラティブを描いてきた。彼が再びそうするのは、ある意味、歓迎すべきことだ。AIに関する現在の一般的な議論の多くは、終末論的なパラノイアと固唾を飲んだユートピア主義がヒステリックに混在していて、誰も明確な立場を取ることができないでいる。アンドリーセンの言葉は多くの人にとって重みがあり、彼が最も明白な誤った恐怖を打ち砕くのはいいことだ。

しかし残念なことにそのやり方は、彼の「ソフトウェアが世界を飲み込む」というマニフェストの、粗雑なセルフパロディに近いものがある。それでも、少なくともこの投稿は、悲観と誇大広告の両方がいかに空虚かを示すのに役立つだろう。問題は、以前にも書いたように、人々がそれ以外のやり方で考えることが本当に難しいということだ。

WIRED/Translation by Michiaki Matsushima)