banner

ニュース

Nov 30, 2023

汎用人工知能はあなたが思っているほど差し迫ったものではない

一般の人にとって、人工知能の分野は目覚ましい進歩を遂げているように見えるはずです。 多くのメディアアカウントやプレスリリースによると、OpenAI の DALL-E 2 はあらゆるテキストから素晴らしい画像を作成できるようです。 GPT-3 と呼ばれる別の OpenAI システムは、ほぼあらゆるものについて話すことができ、さらにはそれ自体について書くこともできます。 また、Alphabet の一部門である DeepMind が 5 月にリリースした Gato と呼ばれるシステムは、同社が投入できるすべてのタスクでうまく機能したと報告されています。 DeepMind 社の上級幹部の 1 人は、汎用人工知能 (AGI) として知られる人間の知能の柔軟性と機知を備えた AI の開発においては、「ゲームは終わった」とまで豪語しました。

だまされないでください。 機械はいつか人間と同じくらい、あるいはそれ以上に賢くなるかもしれませんが、ゲームはまだ終わっていません。 周囲の世界を真に理解し推論できる機械を作るには、まだ膨大な量の作業が必要です。 私たちが今必要としているのは、気取った態度を減らし、基礎研究を増やすことです。

AI は進歩しており、合成画像はますますリアルに見え、音声認識は騒がしい環境でも機能することがよくありますが、記事やビデオの本当の意味を理解できる人間レベルの汎用 AI が実現するには、まだ数十年かかる可能性があります。予期せぬ障害や中断に対処します。 この分野は、(私を含む)学術科学者が長年指摘してきたのとまったく同じ課題、つまり AI の信頼性を高め、異常な状況に対処できるようにするという課題に直面しています。

最近有名になった何でも屋と言われているガトーと、野球ボールを投げる投手の画像にキャプションを付けた様子を見てみましょう(上)。 システムの上位 3 つの推測は次のとおりです。

野球場の上でボールを投げる野球選手。 野球場で投手に野球ボールを投げる男性。 野球の試合中に打席に立つ野球選手と土の中の捕手。

最初の回答は正しいですが、他の 2 つの回答には、画像には映っていない他のプレイヤーの幻覚が含まれています。 システムは、他の画像との統計的類似性から導き出す大まかな近似以外に、実際に画像に何が写っているのかを知りません。 野球ファンなら誰でも、これはボールを投げたばかりの投手であり、その逆ではないことを認識するでしょう。 そして、キャッチャーとバッターが近くにいることが予想されますが、当然のことながら画像には表示されません。

同様に、DALL-E 2 は、青い立方体の上に赤い立方体が置かれた画像と、赤い立方体の上に青い立方体が置かれた画像の違いを見分けることができませんでした。 今年5月にリリースされた新しいシステムでは、馬に乗った宇宙飛行士と馬に乗った宇宙飛行士の区別がつかなかった。

DALL-E 2 のような画像作成システムがミスをすると、面白い結果が生じることがあります。 しかし、AI によって発生したエラーが重大な結果を引き起こす場合があります。 最近、自動操縦のテスラが、道路の真ん中で一時停止標識を持った人間の作業員に向かって直接運転し、人間の運転手が介入した場合にのみ速度を下げました。 このシステムは、人間を単独で認識し (訓練データに人間が現れたように)、一時停止の標識を通常の場所に置くことができました (訓練画像に人間が現れたように) が、この 2 つの見慣れない組み合わせに直面すると速度を落とすことができませんでした。これにより、一時停止標識が新しく珍しい位置に設置されました。

残念ながら、これらのシステムが依然として確実に動作せず、新たな状況に苦戦しているという事実は、通常、細かい部分に埋もれています。 たとえば、Gato は DeepMind が報告したすべてのタスクでうまく機能しましたが、他の現代システムほどうまく機能することはほとんどありませんでした。 GPT-3 は流暢な散文を作成することがよくありますが、基本的な算術に苦労しており、現実をほとんど把握していないため、次のような文章を作成する傾向があります。「一部の専門家は、靴下を食べるという行為は、脳が変質した状態から抜け出すのに役立つと信じています」瞑想の結果です。」 しかし、最近の見出しをざっと見ただけでは、これらの問題については何もわかりません。

ここでのサブプロットは、AI の最大の研究者チームが、ピアレビューが領域のコインであったアカデミーにはもはや存在せず、企業に存在するということです。 そして、大学とは異なり、企業には公平に行動するインセンティブがありません。 彼らは、派手な新しい論文を学術的な精査に提出するのではなく、プレスリリースによって出版に踏み切り、ジャーナリストを誘惑し、査読のプロセスを回避しました。 私たちが知っているのは、企業が私たちに知りたいことだけです。

ソフトウェア業界では、この種の戦略を表す言葉が「デモウェア」です。これは、デモには適しているが、現実の世界には必ずしも十分ではないように設計されたソフトウェアです。 多くの場合、デモウェアはヴェイパーウェアになり、競合他社の意欲を失わせるために衝撃と畏怖を込めて発表されましたが、まったくリリースされませんでした。

しかし、鶏は最終的にはねぐらに戻る傾向があります。 常温核融合というと聞こえはいいかもしれませんが、ショッピングモールではまだ手に入れることができません。 AI は期待が失墜する冬を経験することになるだろう。 無人運転車、自動放射線科医、多目的デジタルエージェントなど、あまりにも多くの製品がデモされ、宣伝されていますが、決して提供されていません。 今のところ、投資資金は約束どおりに入ってきています(自動運転車を望まない人はいないでしょうか?)。 しかし、信頼性の低さや外れ値への対応の失敗という中核的な問題が解決されなければ、投資は枯渇してしまいます。 機械翻訳や音声認識、物体認識などは確実に進歩するかもしれないが、時期尚早な誇大宣伝に対してそれ以外のことを示すにはあまりにも少なすぎる。 「スマート」な都市や「民主化された」医療の代わりに、破壊的なディープフェイクと、膨大な量の炭素を排出するエネルギーを吸い取るネットワークが私たちに残されることになります。

ディープラーニングは、データ内のパターンを認識する機械の能力を進歩させましたが、3 つの大きな欠陥があります。 皮肉なことに、学習するパターンは表面的なものであり、概念的なものではありません。 作成される結果は解釈が困難です。 そしてその結果を、記憶や推論などの他のプロセスのコンテキストで使用するのは困難です。 ハーバード大学のコンピューター科学者レ・ヴァリアン氏は、「[今後の]中心的な課題は、学習と推論の定式化を統合することです」と述べています。 一時停止標識が何であるかを本当に理解していなければ、一時停止標識を持っている人に対処することはできません。

今のところ、私たちは企業が基本的なアイデアではなくベンチマークを追求する「ローカルミニマム」に囚われています。 現在のエンジニアリングの実践は、科学的スキルよりもはるかに進んでいます。これらの部門は、より明確な理論的根拠に基づいて新しいテクノロジーを開発するよりも、すでに所有している十分に理解されていないツールを使用して小さな改善を図ることに重点を置いています。 このため、基礎研究は引き続き重要です。 AI研究コミュニティの大部分(「ゲームオーバー」と叫ぶ人たちなど)がそのことに気づいていないということは、まあ、悲痛なことだ。

ある地球外生命体が、地上の影を見下ろして、あるものは他のものよりも大きく、夜になるとすべての影が消えることに気づいて、人間のあらゆる相互作用を研究したと想像してみてください。 もしかしたら、太陽を見上げたり、上の 3 次元世界を認識したりすることなく、影が一定の周期で定期的に大きくなったり小さくなったりすることにさえ気づくかもしれません。

人工知能の研究者は、派手でメディア向けのデモから目を上げて、学習と推論を同時に実行できるシステムを構築する方法について根本的な質問をする時期が来ています。

人工知能はその誇大宣伝に応えられるようになるでしょうか? ジョン・ホーガン。 ScientificAmerican.com、2020 年 12 月 4 日。

ケイト・ウォン

ダニエル・キュージックとE&Eニュース

ブリアンヌ・ケイン

H.-S. フィリップ・ウォン | 意見

ナオミ・オレスケス

フィリップ・ボール

共有