ChatGPTのユースケースと、利用する際の注意点は?【オルツCTO連載 vol.3】

このエントリーをはてなブックマークに追加
ChatGPTを始めとした生成型AIのニュースは現在、飽和していると言えるほどだ。しかし、そもそも生成型AIとは何なのか、口で説明できる人がどれくらいいるだろうか?改めて、生成型AIとは一体何か、どのような仕組みで動いているのかを確認しておくことには、大きな意味があるだろう。そこで今回、NLP若手の会委員長や言語処理学会代議員、情報処理学会自然言語処理研究会幹事などを歴任し、数々の論文で受賞歴を持つ、株式会社オルツの最高技術責任者 西川 仁氏に、全4回の連載で解説してもらった。本稿は3回目。

<著者プロフィール>
株式会社オルツ 最高技術責任者 西川 仁(にしかわ・ひとし)

慶應義塾大学大学院政策・メディア研究科修士課程修了。奈良先端科学技術大学院大学博士後期課程修了(優秀奨学生として短期修了)。IE Business School (with Beta Gamma Sigma Honor) 修了。博士(工学)、MBA。日本電信電話株式会社にて自然言語処理の基礎研究から商用開発、実用化まで一貫して従事。東京工業大学情報理工学院にて助教として人工知能の研究開発、教育、コンサルティング等を実施。データコンサルティングベンチャーにて執行役員として新規事業開発、開発組織マネジメント、データ基盤構築、投資家コミュニケーションに従事。その後現職。学会活動においてはNLP若手の会委員長、言語処理学会代議員、情報処理学会自然言語処理研究会幹事などを歴任。言語処理学会最優秀論文賞、言語処理学会年次大会優秀発表賞、情報処理学会特選論文など受賞多数。言語処理学会、人工知能学会会員。情報処理学会シニア会員。 Association for Computational Linguistics 会員。

生成型AIのユースケース

今回は、生成型AIをどのように利用できるか、また利用の際の注意点、すなわち課題について述べたいと思います。

これまで説明してきたように、生成型AIは、テキストを生成するものに関して言えば非常に自然なテキストを入力に対して出力することができます。したがって、分かりやすい面においては以下のようなユースケースが考えられ、既に利用されています。

翻訳

テキストの翻訳。これは既に高い水準の機械翻訳が実現されていますが、生成型AIでも同様に翻訳が可能です。ただ、あくまで大規模言語モデルに関して言えば(これは他の専用の機械翻訳システムでも同様ですが)、インターネット上で広く利用されている言語に関しては高い品質の翻訳が可能ですが、あまり利用されていない言語に関しては、その言語のデータ量が少ないといった点から、出力の品質には注意を要する必要があります。

要約

テキストを短く要約することも可能です。この際には当然、要約の対象となるテキストが入力として必要となり、加えてそれを「要約してください」という指示も必要です。また、どれくらいの長さで要約して欲しいのか、また、集中的に理解したい部分があるのであれば、特にこの点について要約してください、といった指示が有効になるでしょう。

記事等の作成

もっともわかりやすいユースケースがこの記事等の作成になるでしょう。なんらかの主題に関する記事、あるいはレポートを生成させることができます。記事の見出しの案であったり、記事の骨子案であったり、または記事そのものを生成させることも可能です。何らかの主題に関してまとまったレポートを作成させる、といったことも可能です。このユースケースの場合、入力の際に大規模言語モデルに知識を追加することによって、より高品質なレポートを作成することができるでしょう。単に記事を作成させるだけではなくて、記事を書く際のアイデア出しにも、骨子案の作成を通じて利用することができます。

メールの返信

メールの返信もわかりやすいユースケースです。ただし、届いた何らかのメールを入力として、このメールに返信してください、という指示だけでは、適切な返信を生成できない場合があるでしょう。これは、メールを返信する方、すなわちこの場合であれば生成型AIを利用する方ということになりますが、この方がどのような返信を望むか、といったことを生成型AIが知っている必要があるためです。例えばオンラインでのミーティングのための日程調整のメールを考えますと、メールを返信する方の都合がよい時間帯というものを生成型AIに与えなければ、適切な返信は期待できません。この点からは、生成型AIを他のシステム、この場合においてはカレンダーと連携して使う必要が当然に生じます。

対話

メールの返信と本質的には変わりません。何らかの問いかけや質問に対して適切な回答を行うことが生成型AIは可能です。ここで注意が必要である点は、ある特定の主題に関する対話を行わせたい場合、その主題に関する知識を入力しておく必要があるという点です。例えば、何らかサービス、例えば保険に関する問い合わせに自動対応する対話システムを想定してみます。この場合は、その保険がどのようなものであるのか、といった知識が当然適切な回答を生成させるためには必要ですし、また、問い合わせをなさった方に関する知識も必要になるでしょう。

質問応答

これは対話と記事等の作成、要約の組み合わせとみなすことができますが、知りたいことに関してまとまったレポートを作成させることもできます。これは検索と類似していますが、いわゆる検索エンジンにキーワードを入力するのではなく、直接、知りたいことに関して自然言語で尋ね、自然言語で回答を得ることができます。まとまった文章を通じて情報を得ることができるのは大きな利点になるでしょう。

上に述べた例は生成型AIの中でもテキストを生成するものに関するものであり、またごく一部のユースケースに過ぎません。今後、生成型AIが普及するにつれ、さまざまな用途に生成型AIが利用されることに疑いはなく、テキストや画像、音声などを扱う分野において、これまで人間が人手で作成していた様々なものが、機械によって生成されるようになるでしょう。

生成型AIを利用する際の注意点とは?

次に、上のユースケースを踏まえて、生成型AIを利用する際の注意点について述べてみたいと思います。

第一に、上の例で指摘しましたように、適切な出力を得るためには適切な入力を与えなければなりません。第2回で述べましたように、生成型AIは入力に対して非常に敏感であり、わずかな入力の差が大きく出力に影響することがあります。すなわち生成型AIに対して指示を与えるプロンプト、このプロンプトをいかに適切に作成するか、といった点が大きな課題となっており、適切なプロンプトを探索し作成する作業は「プロンプト・エンジニアリング」(Prompt Engineering)と呼ばれています。生成型AIに対して適切な指示を出すことができるか、という点は今後生成型AIを利用するにあたって重要な点になります。

第二に、これは第一の点とも関係しますが、出力に期待される内容に必要となる事前知識を収集し入力する、という点です。当然ですが、出力に含まれて欲しい情報が特に、専門的な内容であったり、インターネットに公開されていない社内の情報であったり、個人の情報であったりする場合、これらを生成型AIに入力しない限りは、適切な出力を期待することはできません。この点はプライヴァシーや、秘匿が必要な情報に関する扱いとも関連し、その扱いは簡単ではありません。

第三に、出力の信頼性という観点です。これは第一の点と第二の点から導き出されるものですが、生成型AIは非常にもっともらしいテキストを生成しますが、それが事実でないことがままあります。この現象はハルシネーション(Hallucination)と呼ばれており、幻覚、まやかし、と直訳することができると思いますが、人間が読んだ限りではとてもそれらしいテキストなのですが、事実と反したことが出力されることがあります。極端な例を考えますと、事実に反するテキストだけで訓練された大規模言語モデルを想定しますと、その大規模言語モデルが出力するテキストは、何らかの追加情報を与えない限りでは、事実に反することだけを出力することになります。果たして実際に適切な応答が生成されているか、という点については特に注意が必要であり、特にレポートや記事などを生成型AIに作成させる場合には、その出力に対して、利用者自身が慎重な吟味を行う必要があるでしょう。