AIエージェントは協力し合うことで難問にも対処できる:研究結果

AIエージェント同士にチームを組ませ、協力して問題の解決をさせる「マルチエージェントAI」の活用によって、正しい解答を導き出しやすくなることが複数の研究により明らかになっている。
Pink and blue toy robots shaking hands in front of a yellow background
Photograph: Antonio M. Rosario/Getty Images

友人や同僚に手を借りることで、難しい問題にも対処しやすくなることがある。AIチャットボットも互いに協力することで、より効果的になることがわかってきた。

つい最近、わたしはAutoGenでいろいろなことを試してみた。AutoGenはマイクロソフトの研究者および、ペンシルベニア州立大学、ワシントン大学、中国の西安電子科技大学の研究者が開発したAIエージェント同士が協力するためのオープンソースのソフトウェアフレームワークである。AutoGenはOpenAI大規模言語モデル(LLM)である「GPT-4」を活用して、異なるペルソナ、役割、目的をもつ複数のAIエージェントを作成し、互いに協力して特定の問題を解決するよう指示できる。

AIの共同作業を試すために、ふたつのAIエージェントに“AIの共同作業”に関する記事を書くための計画を立ててもらった。AutoGenのコードを修正して、AIの共同作業の記事内容について議論する「記者」と「編集者」の役割をもつAIエージェントを作成した。ふたつのAIエージェントは「医療、交通、小売などの分野におけるマルチエージェントAIの活用法を例示する」重要性を話し合ってから、この技術によって引き起こされる「倫理的な問題」についても深く掘り下げることで話がまとまった。

いまのところこうした論点について書けることはあまりない。マルチエージェントAIによる共同作業はまだ主に研究段階にあるからだ。とはいえ、この実験はAIチャットボットの能力を高める方法を示している。

AIは協力することで難問にも対処できる

ChatGPTを動かしているようなLLMは、数学の問題につまづくことがある。LLMは厳密な論理的推論ではなく、統計的にもっともらしい文章を出力する仕組みだからだ。

ところが、AutoGenを開発した研究者らは、5月に開催されたAIの主要なカンファレンスである「ICLR 2024」の研究会で論文を発表し、AIエージェント同士が協力することでこの弱みをいくらか克服できることを示した。単独のAIエージェントだけのときよりも、2〜4つのAIエージェントが協力することで5年生レベルの数学の問題をより確実に解けることを明らかにしたのである。この研究では、AIエージェント同士が話し合うことでチェスの問題を論理的に解いたり、コンピューターのコードを分析し改善したりすることもできた。

複数の異なるAIモデル(たとえ、それが競合他社のものだったとしても)がチームを組むことで同様の恩恵を得られることは、ほかの研究からも明らかになっている。マサチューセッツ工科大学(MIT)とグーグルの研究グループは、OpenAIのChatGPTとグーグルのBardに、問題について議論をさせ、その結果をICLR 2024の同じ研究会で発表している。この研究でも、ふたつのボットがそれぞれ単独で作業するよりも、協力したときのほうが正しい解答を導き出せることが明らかになった。

カリフォルニア大学バークレー校とミシガン大学の研究者が発表した最近の論文も同様の結果を示している。AIエージェントが別のAIエージェントの作業内容を確認し批評する。すると監督する立場のエージェントは、もう一方のエージェントが出力したコードの質を高め、コンピューターのウェブブラウザーを使用する能力を高めることができたのだ。

驚くほど人間らしい行動をとるようLLMに指示することもできる。グーグルおよび中国の浙江大学とシンガポール国立大学の研究グループは、AIエージェントに「お気楽」や「自信過剰」といったはっきりとした個性を与えることで、共同作業におけるパフォーマンスをよい方向にも悪い方向にも調整できることを発見した。

また、『Economist』の最近の記事は、米国防総省の国防高等研究計画局(DARPA)が委託したものを含む、マルチエージェントを使用した複数のプロジェクトの内容をまとめている。ある実験では、仮想の部屋で構成される迷宮に隠された爆弾を見つける任務がAIエージェントのチームに与えられた。その結果、単独のAIエージェントよりも、チームを組んだAIエージェントたちのほうが架空の爆弾を的確に見つけられることがわかった。それと同時に、研究者たちはAIエージェントのチーム内でヒエラルキーが自然発生的に形成されていることも発見した。任務を進めるなかで、ひとつのエージェントがほかのエージェントを指揮するようになっていたのだ。

未知のエラーを引き起こす可能性も

ICRLの研究会を主催したカーネギーメロン大学の准教授であるグラハム・ニュービグは、プログラミングにおける複数エージェントによる共同作業について研究している。AIエージェント同士を協力させる手法は強力であるものの、複雑さが増すことから未知のエラーを引き起こす可能性もあると、ニュービグは指摘する。「マルチエージェントシステムが今後たどるべき道である可能性はありますが、決定的な結論ではありません」とニュービグは話す。

すでにオープンソースのフレームワークである「AutoGen」を興味深いかたちで活用している人たちもいる。例えば、小説のアイデアを出すために複数の作家が集まっている場面や、会社の異なる役職を演じるAIエージェントが集まる仮想の「business-in-a-box(会社を模した箱庭)」などをシミュレートしているのだ。わたしがつくったAIエージェントが考えた記事を実際に書くことになる日も近いかもしれない。

(Originally published on wired.com, translated by Nozomi Okuma, edited by Mamiko Nakano)

※『WIRED』による人工知能(AI)の関連記事はこちら


Related Articles
Photograph of hand tools flying through the air with a yellow and blue overlay effect
人類は石器時代、道具を使うなかで進化を遂げていった。いま、Anthropicや大手AIスタートアップは、チャットボットに道具の使い方を教えることで、ホワイトカラーの仕事に役立つAIエージェントを開発しようとしている。
Microsoft Copilot AI app icon
OpenAIのChatGPTやマイクロソフトのCopilotのような生成AIツールは、日々の仕事に欠かせないものとして定着しつつある。しかし、プライバシーやセキュリティへの配慮から、留意すべき点があることも事実だ。
Photo of three people working at a workstation
「Archetype AI」は、建物やクルマ、あるいは人体に取り付けられたセンサーで検知される難解なデータを、わかりやすく“通訳”してくれるAIモデルを開発中だ。こうしたデータ活用はこれまで困難だったが、LLMの登場で新しい可能性が生まれている。

雑誌『WIRED』日本版 VOL.53
「Spatial × Computing」6月25日発売!

実空間とデジタル情報をシームレスに統合することで、情報をインタラクティブに制御できる「体験空間」を生み出す技術。または、あらゆるクリエイティビティに2次元(2D)から3次元(3D)へのパラダイムシフトを要請するトリガー。あるいは、ヒトと空間の間に“コンピューター”が介在することによって拡がる、すべての可能性──。それが『WIRED』日本版が考える「空間コンピューティング」の“フレーム”。情報や体験が「スクリーン(2D)」から「空間(3D)」へと拡がることで(つまり「新しいメディアの発生」によって)、個人や社会は、今後、いかなる変容と向き合うことになるのか。その可能性を、総力を挙げて探る! 詳細はこちら