AI研究者の自戒。「人間ぽいAIを作るなら、いまの方向性は違う」

  • 2025年4月1日
  • Gizmodo Japan

AI研究者の自戒。「人間ぽいAIを作るなら、いまの方向性は違う」
Image: Shutterstock

時には立ち止まって考える勇気も必要かも。

数百人の人工知能研究者によると、現在のAI業界は、人工汎用知能(AGI)を誤った方向に導こうとしているようです。

この見識は、アメリカ人工知能学会(AAAI)によるAI研究の未来に関する会合で示されました。88ページの報告書は、AIのインフラの現状から社会的な影響まで幅広い専門知識を持つ24人のAI研究者によってまとめられました。

報告書には、セクションごとの主要な結論に加えて、それぞれの内容について回答者が自身の見解を述べたセクションも盛り込まれているそうです。

ハイプサイクルは下降中。でもAIは進化中

マサチューセッツ工科大学(MIT)のコンピューター科学者であるロドニー・ブルックス氏が議長を務めた「AIの認識と現実」セクションでは、技術の誇張にありがちな5段階の流れ(黎明期→流行期→幻滅期→回復期→安定期)を示すガートナー社のハイプサイクルが取り上げられました。

報告書によれば、ガートナー社は2024年11月の時点で、「生成AIに対する過度な期待は、すでにピークを過ぎて下降局面に入った」と推定しているそう。

回答者が自身の見解を述べるセクションでは、その79%が「AIの能力に関する現在の一般的な認識が、AIの研究開発の現実と一致していない」と述べており、90%は「このズレこそがAI研究の妨げになっている」と回答しています。さらにその90%のうちの74%は、「AI研究の方向性は、過度な期待に振り回されている」と答えたとのこと。

MITのロドニー・ブルックス氏はガートナー社のハイプサイクルを取り上げたことについて、米Gizmodoへのメールで次のように述べています。

「ガートナー社のハイプサイクルは長年にわたって使われており、さまざまな分野で見られる過度な期待からの失望を一般化しているので取り上げた次第です。

そして多くの分野でその正確さが確かめられていることからも、今のAIをめぐる過剰な盛り上がりを受け入れる際には、ある程度の注意が必要だと教えてくれます」

さらにブルックス氏は、「AIに関する一般的な言説の大部分は、過大評価をあたかも正確なものとして受け入れすぎていると思います」と付け加えています。

AGIはラスボス。でも攻略ルートがちょっとズレてる?

AGI(Artificial General Intelligence:人工汎用知能)とは、人間と同じレベルで物事を考えたり、学んだりできる仮想的な知能のことです。AGIはこの分野におけるラスボスのように考えられており、数え切れないほど多くの分野での自動化と効率化に影響を与える可能性を秘めています。

例えば旅行のプランを立てたり、面倒な税金の申告をしたり、あんまり時間をかけたくない作業ってありますよね。AGIはそんな単純作業の負担を軽くしてくれるだけでなく、交通や教育、テクノロジーに至るさまざまな分野の進歩を促す可能性があります。

これ、ちょっとびっくりなんですけど、475人の回答者のうち、76%が「今のAIをそのままスケールアップしても、AGIの開発には不十分」と回答しています。

この件に関して、報告書には次のように記されています。

「全体として、回答は慎重ながらも前向きな姿勢を示しています。

AI研究者は、安全性、倫理的ガバナンス、利益共有、段階的な革新を優先し、AGIの開発競争よりも、協調的で責任ある開発を提唱しています」

過大評価によって研究の現状が歪められ、現在のAIへの取り組み方が、AGI開発の最適ルートをたどっているわけじゃないにもかかわらず、このテクノロジーは飛躍的な進歩を遂げてきました。

進化は本物。でも認識は1〜2年遅れる

バージニア大学のコンピューター科学者で、報告書の「事実性と信頼性」セクションで議長を務めたヘンリー・カウツ氏は、次のようにコメントしています。

「5年前には、こういう議論をすることすらほとんどできなかったと思います。あのころのAIは、お勧め製品のように間違いが多くても許される用途や、科学的な画像の分類のように知識の領域が厳密に限定される分野にしか使われていませんでした。

それが歴史的に見てもかなり突然、ChatGPTのようなチャットボットを通じて、汎用的なAIが機能し始めて、世間の注目を集めるようになったのです」

報告書には、AIがどれだけ事実に基づいた情報を出せるかについては、まだまだ解決にはほど遠いと書かれており、2024年のベンチマークテストでは、最高クラスの大規模言語モデル(LLM)でさえ、一連の質問の半分程度しか正解できなかったといいます。

しかし、新しいトレーニング手法を取り入れることで、AIモデルの堅牢性(間違ったデータや変化にも強い安定性)を高められるようになってきていて、さらにAIの構造そのものを見直せば、パフォーマンスをもっと底上げできる可能性があるそうです。

カウツ氏は、AIの信頼性と社会的な認識のズレについて、次のように述べています。

「信頼性を向上させるための次のステップは、個々のAIエージェントが互いにファクトチェックを行ない、互いが不正を行なわないように努めるチームのような形に置き換えることだと考えています。

また、AI研究者のコミュニティを含め、一般の人々や科学コミュニティの多くが、いまある最先端のAIシステムの性能を過小評価しています。AIに対する世間の認識は、技術の進歩に比べて1〜2年遅れているのが現状です」

AIの性能は誇張されてきたとはいえ、最先端のAI技術は世間一般の認識よりも性能と信頼性が高いはず…ということでしょうか。

なにはともあれ、AIがこの世界から消えることはありません。ガートナー社のハイプサイクルは、「忘れ去られて終わり」じゃなく、「生産性の安定期」にたどり着きます。

もちろんAIの使われ方によって、その過大評価の度合いも異なります。でも、民間企業から政府関係者、さらには身近な家族まで、AIをめぐってあちこちでざわざわしてる状況のなかで、この報告書はAI研究者たちが自分たちの専門分野について、かなり批判的に捉えていることを教えてくれます。

AIシステムの構築方法も、どうやって世界に広げていくかも、まだまだ革新と改良の余地がたっぷりあります。もうAIのない時代に戻るのは無理っぽいので、正しく前進するための道を模索していくしかないんでしょうね。

書籍(Kindle版もあります)
『ギズモード・ジャパンのテック教室』 1,760円 Amazonで見るPR

キーワードからさがす

gooIDで新規登録・ログイン

ログインして問題を解くと自然保護ポイントが
たまって環境に貢献できます。

掲載情報の著作権は提供元企業等に帰属します。
copyright 2025 (C) mediagene, Inc. All Rights Reserved.