OpenAIが「AIの透明性を高める技術」を公表したが、それでも安全性向上には十分ではない

人工知能(AI)の論理的思考の“透明性”を高める技術を、OpenAIが新たに公表した。2つのAIモデルに対話させることで透明性を高める狙いだが、専門家や元従業員らはAIを監視することの重要性を指摘している。
A treated closeup image of Sam Altman giving a speech at a panel.
Photo-Illustration: WIRED Staff; Photograph: Stefan Wermuth/Bloomberg; Getty Images

この数カ月にわたってOpenAIが非難に晒されている。より強力な人工知能(AI)の開発に向けて、あまりに性急かつ無謀に突き進んでいるのではないかという非難だ。

これに対してOpenAIは、AIの安全性に対する真剣な姿勢を見せることに力を注いでいるようである。OpenAIが7月17日(米国時間)に紹介したある研究によると、AIモデルの能力や有用性が向上しても研究者が中身を精査しやすくなるという。

この新たな技術は、OpenAIがこのところ訴えていたAIの安全性に関連するいくつかのアイデアのひとつだ。研究では2つのAIモデルに“対話”をさせている。AIとAIが対話することで、より強力なモデルの論理的思考の透明性や判読可能性が高まり、人間がモデルの思考を理解できるようになるというのだ。

「これは安全で役に立つ(汎用の)AIを構築するというミッションの中核をなすものです」と、この研究に携わっているOpenAIの研究者のイーニン・チェンは語る。

透明性と説明可能性が懸案事項に

研究においては、これまでのところ単純な数学の問題を解くように設計されたAIモデルについてテストが実施された。

テストでOpenAIの研究者たちは、AIモデルが質問に回答したり問題を解いたりする際に、その根拠を説明するよう指示する。そして、回答の正誤を判定するように訓練した第2のモデルを用意した。ふたつのモデルにやり取りさせることで、数学の問題を解くモデルの論理的思考がより率直になり、透明性も高まることがわかったのだ。

OpenAIは、この手法を詳しく説明した論文を公開する予定だ。「安全性に関する長期研究計画の一環です」と、今回の研究に携わる別のOpenAIの研究者であるジャン・ヘンドリク・キルヒナーは言う。「ほかの研究者たちが追跡研究を実施し、場合によっては別のアルゴリズムも試してくれることを望んでいます」

より強力なシステムを構築しようとしているAI研究者にとって、透明性と説明可能性は主要な懸案事項だ。大規模言語モデル(LLM)は、ある結論に至った経緯について妥当な説明をすることもある。一方で、今後登場するモデルが提示する説明の透明性が下がったり、さらには欺瞞的になったりする可能性についての大きな懸念がある。AIが“嘘”をつきながら、人間にとって望ましくない目標を追求する可能性もあるのだ。

17日に紹介された研究は、「ChatGPT」のようなプログラムの中核をなすLLMの仕組みを理解するための広範な努力のひとつである。より強力なAIモデルの透明性、ひいては安全性を向上させる複数の手法のうちのひとつでもある。OpenAIなどの企業は、LLMの中身をより機構的に調べる方法も追求している。

開発手法が非難されたことを受けてOpenAIは、ここにきてAIの安全性に関する取り組みをさらに公開している。今年5月には、OpenAIでAIの長期的なリスク評価を担っていた研究者チームが解散したことが発覚した。これは共同創業者でチーフサイエンティストだったイルヤ・サツキヴァーが退職した直後のことだ。サツキヴァーはOpenAIの元取締役で、昨年11月に最高経営責任者(CEO)のサム・アルトマンを一時的に追放した人物でもある。

変わらない「利益優先」の状況

もともとOpenAIは、AIの調査可能性と安全性を向上させるという約束に基づいて設立された。ChatGPTが大成功を収め、強固な支援を受けたライバルたちとの競争は激化しているが、「安全性よりも人目を引く進歩や市場シェアを優先している」との批判も聞こえてくる。

今回の研究についてOpenAIの元研究員のダニエル・ココタイロは、重要ではあるが速やかな対応とは言えず、AIを開発する企業にさらなる監視体制が必要なことには変わりないと指摘する。ココタイロはAIの安全性に関するOpenAIの姿勢を非難する公開書簡に署名した人物だ。

「わたしたちを取り巻く状況は変わっていません」と、ココタイロは言う。「透明性に欠け、説明責任を果たさず、規制も受けていない企業がわれ先にと超人工知能を開発しようとしています。AIを制御するプランも基本的にはありません」

OpenAIの内部事情に詳しい人物(公に語れる立場になく匿名を希望)によると、AI企業を外部から監視する体制もまた必要とされているという。「問題は、企業利益よりも社会的利益を優先するために必要なプロセスや統治機構について真剣に考えているかどうかです」と、この人物は指摘する。「社内の研究者に安全面を任せるかどうかではありません」

(Originally published on wired.com, edited by Daisuke Takimoto)

※『WIRED』によるOpenAIの関連記事はこちら人工知能(AI)の関連記事はこちら


Related Articles
article image
AI技術のリスクを抑制するために米国や英国、日本、カナダなどの同盟国にまたがるAI安全研究機関の世界的なネットワークを構築する方針を、米国政府が発表した。しかし、一部の国の政府が同調しない可能性もあるなど、課題も残されている。
Microsoft Copilot AI app icon
OpenAIのChatGPTやマイクロソフトのCopilotのような生成AIツールは、日々の仕事に欠かせないものとして定着しつつある。しかし、プライバシーやセキュリティへの配慮から、留意すべき点があることも事実だ。
OpenAI logo shown on a smartphone screen
OpenAIやほかの大手AI企業の現職および元従業員が署名した公開書簡が公開された。これは、急速に進化するAI開発にまつわる問題点について声をあげる内部告発者たちを保護するためのものだ。

雑誌『WIRED』日本版 VOL.53
「Spatial × Computing」 好評発売中!

実空間とデジタル情報をシームレスに統合することで、情報をインタラクティブに制御できる「体験空間」を生み出す技術。または、あらゆるクリエイティビティに2次元(2D)から3次元(3D)へのパラダイムシフトを要請するトリガー。あるいは、ヒトと空間の間に“コンピューター”が介在することによって拡がる、すべての可能性──。それが『WIRED』日本版が考える「空間コンピューティング」の“フレーム”。情報や体験が「スクリーン(2D)」から「空間(3D)」へと拡がることで(つまり「新しいメディアの発生」によって)、個人や社会は、今後、いかなる変容と向き合うことになるのか。その可能性を、総力を挙げて探る! 詳細はこちら