【AI時代の歩き方】知ってますか?超言語能力持つ「GPT-3」の実力

2021年10月17日 10時00分

スマホなどに入っている“翻訳AI”は身近だが…
スマホなどに入っている“翻訳AI”は身近だが…

 サンフランシスコに本拠地を置く“人工知能研究所”OpenAIが2020年夏に発表した「GPT―3」と呼ばれるAIをご存じでしょうか? 様々なAIが開発されている昨今にあって、AI業界に衝撃を与えた革新的な存在です。衝撃の理由は、作り出す文章が人間の書いたものと遜色ないレベルだったから。GPT―3が登場するまでAIによる文章生成は難しく、まさかそんなに自然な文章を生成できるはずがないと皆思っていたのです。いったい、どんなものか詳しくご説明しましょう。

【文章を作る仕組み】GPT―3の正体は超巨大な言語モデルです。言語モデルとは、ある文章の次にどんな単語が出現するか、出現しやすい単語は何かを当てることができるもの。例えば「今日は晴れなので」の後に「旅行」や「散歩」という単語はよく出現しますが、「です」や「を」といった単語はほとんど出現することはないでしょう。このような単語のありとあらゆる“並び”に対して自然かどうかを判定できるものが言語モデルなのです。

「今日は晴れなので」の次を「旅行」と推測すれば、さらに「今日は晴れなので旅行」の次を推測することができます。「今日は晴れなので旅行に」まで推測すれば、さらにその先も…そうやって順次単語を予測していくことで文章を生成することができるわけです。この仕組み自体は以前からありましたが、GPT―3は今までのものとは比べものにならないほど非常に自然な文章を生成できます。なぜか? それは「超巨大」だからです。

 AIの大きさは学習させるデータの量とAI自身が持つパラメータの数で語られることが多いです。学習させるデータの量はAIに教え込ませるデータの数ですので、これはイメージしやすいですよね。一方、AIが持つパラメータ数というのは、AIが表現できるバリエーションを表すものです。多彩なバリエーションを学ぶために必要なのは大量の学習データですから、データとパラメータはどちらも多くなければ超巨大なAIとは言えません。

 GPT―3は45TBから抽出した570GBのデータ等を学習し、約1750億個のパラメータを持っています。これは現存のAIの中では最大サイズと言われています。前身であるGPT―2と比べるとパラメータ数は100倍以上になっており、GPT―3がいかに巨大なAIであるかご理解いただけるでしょう。

【常識を覆す能力】GPT―3のすごさは非常に自然な文章を生成できるAIということだけではありません。もう一つのすごさは、言葉に関するあらゆる課題を解決できる可能性を秘めていることです。

 これまでのAIは「日英翻訳AI」「要約AI」「対話AI」といったように、やりたいことに対して専用のAIを開発することが普通でした。専用のAIを開発するためには専用のデータが必要ですから、当然、日英翻訳AIを開発したければ日英で書かれた大量の文章を集め、それを使って専用のAIを開発します。AIといっても何でもできるわけではないのです。

 しかし、GPT―3はその常識を覆しました。GPT―3は何かに特化して開発されたものではありません。しかし「超巨大」であるが故に、翻訳や要約、対話など様々なことができてしまったのです。

 例えば、OpenAIの公式ブログには、顧客からのフィードバックを要約するAIを、GPT―3を使って開発した例が載っています。このAIに、例えば「お客様がチェックアウトの際に不満に思っていることは何ですか」と質問したとしましょう。すると「お客様はチェックアウトフローの読み込みに時間がかかりすぎることに不満を感じています。また、チェックアウト時に住所を編集したり、複数の支払い方法を保存したりする方法を求めています。」のように、顧客のフィードバックから有用な部分を適切に要約して提供してくれるのです。

 現時点では特化して開発したAIの方が性能は良いことが多いですが、もしこの超巨大な言語モデルがさらに巨大化したらどうでしょうか。いつかこのAIだけで、すべてのAIに勝る日が来るかもしれません。GPT―3はいわば、SF映画に出てくる、すべてをつかさどるような“マザー”的な存在なのです。我々がかつて想像していたAIの姿に現状最も近いのはGPT―3だと言えるでしょう。

 ちなみに、こんなにすごいGPT―3ですが、弱点もあります。それはコストがかかりすぎること。開発・運用するためには大量のマシンと、マシンを動かすための途方もない電気代が必要です。こうした理由から、利用には膨大なコストがかかるため、気軽に使える日はまだ少し先になるかもしれません。

【人知を超える存在】GPT―3は様々な言語が交じった状態で学習されていますが、基本的には英語に強いAIです。そのため日本語に特化したGPT―3級のAIを、株式会社LINEがNAVERと共同で開発することを発表しました。現在はまだ開発中ですが、これが完成して活用が始まれば、日本においてもこれまでAIにはできないと思われていた仕事もAIが担う可能性があるでしょう。

 GPT―3はあまりにも巨大なAIであるため、できることの全貌を人間も把握できていません。世界では現在までに様々な業界で300以上のアプリケーションがGPT―3を利用していますが、その中でも新しい機能が発見されています。将来的にはGPT―3よりもさらに巨大なAIも出てくるでしょう。私たちが映画で見たAIの誕生は、もうそこまで来ているのかもしれません。 

☆おおにし・かなこ 愛媛県出身。2012年お茶の水女子大学大学院博士後期課程修了。博士(理学)。同年、NTTドコモ入社。16年から2年間、情報通信研究機構に出向。一貫して雑談対話システムの研究開発に従事。20年から大手IT企業でAIの導入や設計をリード。AIに関する講演や執筆、監修等も行う。著書に「いちばんやさしいAI<人工知能>超入門」 「超実践!AI人材になる本」。

【引用】https://openai.com/blog/gpt-3-apps/

【関連記事】

関連タグ:

ピックアップ