先日、Quartzは「世界で最も強力な人工知能システム」のひとつにアクセスしました。なお、なにもわたしたちが特別なわけではありません──「OpenAI」のAPIが、使用目的を説明し同社の安全ガイドラインを守りさえすれば、誰でも利用できるようになったのです。このAPIそのものは2020年6月に公開されていましたが、今年11月、ウェイティングリストを解除し開放したのです。
「GPT-3」と呼ばれるこのシステムは、テキストの「プロンプト」を受け取り、次に何が来るかを予測して応答します。例えば、文章を数段落入力して「TL;DR」(Too Long, Didn’t Readの略)と入力すると、GPT-3が要約文を書いてくれます。GPT-3を混乱させるのは難しくありませんが、一般的なコンピュータの能力を超えることを行うよう、GPT-3に教えるのも難しいことではありません。
👀 ALSO YOU LIKE: 熱狂のAI「GPT-3」とは何者か(2020/6/27配信)
この種のシステムは、なにもGPT-3が唯一の存在というわけではありません。経験豊富な開発者であれば利用できる大規模な自然言語処理システムは他にもあります。しかし、GPT-3を使うのはずっと簡単です。
今日のニュースレターでは、GPT-3が広く開放されたのを機に、コードを書けない人でも高度なAIにアクセスできるようになることについて、ちょっと考えてみましょう。
MEET GPT-3
GPT-3を使ってみる
GPT-3の文章生成言語モデルのありようについては、スマホのオートコンプリートをさらに進化させたようなものだと考えてください。コードを書ける人であれば、GPT-3はAPIを介して利用できます。そうでなくとも、ウェブUIで試せるのがポイントです。
GPT-3では、さまざまなインタラクションが可能になります。例えば、GPT-3とチャットできるほか、質問をしたり、何か話をさせることもできます。それらよりもっと面白いのは、何かテキストを用意して、それを理解させることでしょう。試みに、WikipediaのGPT-3に関するページのうち、「TL;DR」について書かれた部分を表現させてみました。すると、最初の数段落をこんな感じに要約してくれました。
GPT-3のTL;DRは、非常にリアルなテキストを生成することができますが、そのリアルさは実際に使ってみないと分かりません。
実際に使ってみた感想からすると、この一文は、まさにその通り。ここに掲載した回答は、他のAIが導き出した回答よりも、ほんの少しですが的確なように思えます。
GPT-3の不思議なところは、その正確さよりも文章力に優れていることにあるといえるでしょう。一般的にコンピュータはファクトには強いものの、創造性や柔軟性には乏しいとされていますが、GPT-3はその逆なのです。
USE CASE
使用事例
現在、このOpen AIのAPIを使って何百ものアプリがつくられています。エンジニアたちが自分たちのプロダクトを共有するサイト「ProductHunt」では、何十ものプロジェクトがGPT-3に言及しています。ここでは、そのなかからいくつかを紹介します。
📖 要約してくれる:文書を要約する「Genei」は、読み手の時間節約を約束。「Grok」は、Slackチャンネルのダイジェストを毎日届けてくれます。
✏️執筆:「Copysmith」は、曰く「GPT-3を活用した、魔法のようなコンテンツマーケティング」。マーケティング用コピーライティングを自動化するものとしては「CopyAI」も。
🎮ゲーム:「Fable Studio」は、GPT-3を使ったデジタルキャラクターのストーリーを制作。
🖥️ コーディング:「GitHub Copilot」は、GPT-3を使ってテキストをコードに変換。「Pygma」も同様で、デザインツール「Figma」で作成したものをコードに変換します。
LEARN TO CODE
コードを覚える
GPT-3を利用する方法は、APIだけではありません。Open AIに10億ドル(約1,135億円)を出資しているマイクロソフトは、自社のAPIを通じて一部の顧客にアクセスを提供しています。また、今年初めにマイクロソフト傘下のGitHubは、人間のパートナーを必要としない「ペアプログラミング」の経験を開発者に提供する機能「Copilot」をリリースしました。コードを書いているとき、バグをチェックしたりアドバイスをくれたりする同僚の代わりに、GPT-3が灰色のテキストで画面に現れる仕組みになっています。
わたしたちも、Copilotを試してみました。その機能は決して完璧ではありませんが、それは人間も同じです。ただ、結果だけみれば「驚くほど実用的」。使用感は、思いのほか快適でした。必要な構文やロジックを提案してくれるので、わざわざ調べる必要はありません。
たとえ失敗したとしても、その結果にはトキメキを覚えます。例えば、自家製バターフィンガーのレシピの成分表を更新していたところ、牛乳、砂糖、小麦粉、バター、バニラ、チョコレートという「ダダイズム」な成分表が提案されたのでした。
DANGER, WILL ROBINSON
倫理的問題と向き合う
Open AIは、GPT-3を「責任をもって展開」するために、さまざまな保護措置を講じています。GPT-3にアクセスしてAIをいじるのは簡単ですが、それを大規模に利用しようとするには、Open AIのスタッフによる「プロダクションレビュー」を受けなければなりません(アップルのアプリストアにアプリを登録するプロセスを想像してみてください)。例えば、政治に影響を与えるようなアプリケーションや、自動生成されたコンテンツをソーシャルメディアで大量に配信するようなアプリケーションは許可されません。
また、このAPIには、コンテンツが有害であるかどうかを検出するフィルターも含まれています。これにより、開発者が不快なことばをまき散らすアプリをつくらないようにできるわけです(GPT-3を使った実験で最悪だったケースとして、「スター・ウォーズ」をサマライズしたときに、ルーク・スカイウォーカーを「泣き虫の童貞」と呼んだことが挙げられます)。
ただし、GPT-3のようなシステムの問題点は、悪意のある使用や有害なコンテンツにとどまらないと指摘する評論家もいます。2020年末、AI研究者で倫理学者のティムニット・ゲブルは、GPT-3のような大規模な言語モデルの問題点を指摘した論文をめぐって、グーグルを解雇されました。論文は、AIをトレーニングする際の数百万ドルにも上るコストとカーボンフットプリントを指摘するものでした(Open AIは、このプロセスはより効率的になっていると主張しています)。
APIを利用すれば、より多くの人がこれらのモデルを安価に利用できるようになりますが、一方で、どのように利用できるか、どのようなコンテンツを「有害」とみなすかなど、コントロールが一元化されてしまいます。ニューヨーク大学の教授で、AI Now Instituteの共同設立者であるメレディス・ウィッテカーは『Interactions』に寄稿したエッセイの中で、GPT-3のような大規模な言語モデルは、学者やアクティビスト、労働者を犠牲にして、「(テック企業が)AIとAI研究の条件を定義し続けることになる」と主張しています。
🔮 PREDICTION
今後の予想
GPT-3のようなAIモデルを使おうとする開発者には、他の選択肢もありますが、それにはある程度の技術力が必要です。GPT-3のAPIの最大の効果は、機械学習の専門知識をもたない人でも、AIアプリケーションを素早くプロトタイプ化することが容易になることだと、AIゲームのスタートアップ、Hidden Doorの共同設立者であるヒラリー・メイソンは語っています。
メイソンは、アイデアをもっている人がGPT-3にいくつかの例を試させることで、AIに解決できるかどうかをすぐに知ることができるとしています。曰く、「人は『使えること』を軽視しがちなのです」。
ONE 🤖 THING
最後に…
GPT-3にロバート・フロストの詩「The Road Not Taken」(黄色い森の中の道が2つに分かれていた…という一文から始まる)を渡し、その意味を簡単に説明してもらいました。その内容は次のようなものでした。
話者は、道の分かれ道に立っています。彼は2つの道のうちのひとつへ行くことができます。両方を選ぶことはできません。彼が一方の道を見ると、雑草や草が生い茂っています。彼はもう一方の道を見て、それがそうでないことを知ります。彼は人の通らない方の道を選びます。この詩は、選択がいかに重要であるかを表しています。彼が自分の人生を振り返ったとき、道なき道を選んでよかったと思うでしょう。
今日のニュースレターは、エグゼクティブエディターの Walter Frickと、David Yanofskyの取材協力でお届けしました。日本版の翻訳は福津くるみ、編集は年吉聡太が担当しています。みなさま、よい週末をお過ごしください!
🎧 Podcastでは「お悩み相談 グローバルだけど」の最新話を公開中。お悩み・お便りはこちらから。Apple|Spotify
👀 Twitter、Facebookでも最新ニュースをお届け。
👇 のボタンから、このニュースレターをTwitter、Facebookでシェアできます。ニュースレターの転送もご自由に(転送された方へ! 登録はこちらからどうぞ)。