対談記事(2):ChatGPT・GPT4の利用とセキュリティなどの問題点について、工学博士と弁護士・弁理士が対談
ChatGPT・GPT4の利用とセキュリティなどの問題点について工学博士と弁護士・弁理士が対談しました。企業のご担当者の皆様・起業家の方々に読んでいただきたいと考えております。
1.GPT4について
2.MicrosoftのOfficeなどへのGPT-4の搭載について
3.ChatGPTのAPIの実装について
4.教育事業でのAPIの実装
1.GPT4について
松岡:OpenAIがGPT-4を公表しました。どのような点が新しくなったのでしょうか。
前:少なくとも以下の点を挙げることができます。
1.前バージョンに比べて、事実に即した回答をする能力が40%向上したとされています。
2.偏見的・差別的など不適切な回答をする確率が80%以上抑制されたとされています。
3.まだサービスとしてはリリースされていませんが、テキストを入力して、テキストにより出力するだけではなく、テキストの他に、画像を入力することもできるようになった。
松岡:画像入力の点が特に新しいように感じますが、今後はどのように進化していくのでしょうか。
前:将来的には、入力・出力、ともにテキストだけではなく、画像、動画、音声を利用できるようになると思います。GPT-4により画像入力→テキスト出力が可能となりました。また、Midjourneyなどの画像生成AIによりテキスト入力→画像出力が可能です。このような技術が蓄積・発展していくと、テキスト、画像、動画、音声の入出力が可能となっていくでしょう。
松岡:分かりました。町田先生、いかがでしょうか。
町田:画像を入力してテキストで回答する動画(GPT-4に関する動画)を見て、「アイデアを表現した図面を入力したら発明を説明するテキストを生成してくれるかもしれない」と考えていました。
前:できるかもしれませんね。パワーポイントのスライドの画像をGPTに入力すると、プレゼンで話す原稿をGPTが出力してくれるようになるかもしれません。
2.MicrosoftのOfficeなどへのGPT-4の搭載について
(1)概要
松岡:MicrosoftがWord、Excel、PowerPoint、Outlook、Teamsなどの製品にGPT-4を搭載することを公表しました[1]。「Copilot」(副操縦士)という名称とのことです。これまでは、ゼロからドラフトすることが当たり前でしたが、今後はCopilotがドラフトした文章を編集することが増えるかもしれません。また、これまでは、文章をPowerPointの美麗なプロ仕様のスライドにするためには相応のセンスと労力が必要でしたが、今後は省力化できるようになるかもしれないと期待しています。GPTの利用によって、それぞれの利用者の生産性が向上すると予想しています。
(2)GPTの利用により他人にデータを共有されるのではないかという懸念について
松岡:期待がある一方で、GPTの利用により他人にデータを共有されるのではないかという懸念があります。イギリスの国立サイバーセキュリティーセンター(NCSC:National Cyber Security Center)は、3月14日、この懸念に関して一定事項を公表しました[2]。これによると、ChatGPTのような大規模言語モデル(LLM:Large Language Models(LLMs))は、入力した内容をそのまま他のユーザーに提供することはないが、一般に、大規模言語モデルの提供会社は、入力した内容を見ることができるし、大規模言語モデルの新しいバージョンの学習にその入力した内容を利用するかもしれないとしています。このことから、センシティブな情報などについては、大規模言語モデルには入力しないように推奨しています。
前:このNCSCの見解については、その通りだと思います。例えば、先ほどの町田先生のご指摘の事例を用いますと、アイデアを表現した図面を入力すると、そのデータを用いて学習されたGPTは、他のユーザーに対して類似のアイデアを記載した図面を示す可能性があります。OpenAIもChatGPTの利用にあたってはセンシティブな情報を入力しないよう注意を促しています[3]。
ただ、上記のNCSCの見解は、大規模言語モデルに対する一般的な懸念を示したものであり、ChatGPTのAPIの利用については別の観点から検討する必要があります。すなわち、OpenAIが3月1日に公表したポリシーによれば、OpenAIは、APIを通じてユーザーが入力した情報を大規模言語モデルのトレーニング・改良のために使用しないとしています[4]。このポリシー通りであれば、NCSCの懸念がそのまま当てはまることはないと思います。
松岡:そうですね。MicrosoftのCopilotはどうなるのでしょうか。
前:Copilotは、APIで連携されていますので、先ほどのOpenAIのポリシーによれば、Copilotに入力したデータをOpenAIが大規模言語モデルのトレーニング・改良のために使用することはないということとなります。
松岡:これまでWordに入力したデータが第三者に見られるということは考えていませんでしたが、Copilotが搭載されれば、MicrosoftとOpenAIのポリシーを読むなどして対応を検討する必要がありますね。
3.ChatGPTのAPIの実装について
(1)実装方法
松岡:日本企業がChatGPTのAPIを実装する方法を分かりやすくご説明してください。
前:APIの利用申し込みすると、APIユーザーのためのIDを受領することができます。そのIDと一緒に入力文を送るだけですので、これ自体はWeb API知っている人であれば、難しくないし、時間もかからないと思います。インターネット検索をすれば、このサービスをしてくれる開発会社はすでにいろいろ見つかります。
(2)料金
松岡:APIの料金についてはいかがでしょうか。
前:ChatGPT(GPT3.5)であれば、入力1000トークンあたり0.03ドル、出力1000トークンあたり0.06ドルです[5]。
(3)気を付けるべき点
松岡:日本企業としては、API実装にあたり、どのような点に気を付けるべきでしょうか。
前:ビジネスモデルの問題になりますが、例えば、API実装によって自社のサービスをより魅力的にすることは可能ではないかと思います。Microsoftは、まさに自社の製品にGPTを実装して、製品の価値を高めますよね。
ただ、トークン使用料をそのまま顧客に請求するというのは、顧客にとってはなかなか受け入れがたいのではないかと思います。ChatGPTは、正確な回答ができるということではないので、顧客は不正確な可能性が高い回答自体にお金を支払うことを躊躇うのではないでしょうか。
現実的には、以下の選択をする必要があると思います。
①製品・サービスの価値を高めるために、トークン使用料は自社が負担して、GPT使用の回数制限を設ける方法
②トークン使用料を推測して製品・サービス自体の価格を上げる方法
松岡:分かりました。町田先生、日本企業の気を付けるべき点について、いかがでしょうか。
町田:例えば、会社のQ&AにAPIを実装しても、自社にネガティブなことをChatGPTが言ったり、ライバル会社にポジティブなことをChatGPTが言うと、企業としては逆効果になってしまいます。この問題について対策は難しいのでしょうか。
前:ユーザが入力した入力文に一定の制約データを追加してAPIに渡すようにすれば、意図した出力をするようにコントロールできるのではないかと思います。自社にポジティブなことを出力するようにChatGPTを学習させるという方法も考えられますが、このためには相当なコストが必要であり、実際には難しいと思います。
町田:例えば、「おすすめの商品はどれですか?」という質問に対して、回答をあらかじめ制約しておくということでしょうか。
前:そうです。自社の商品リストを入力に加えて、これを基に回答しなさいという風に命令する方法が考えられます。
町田:回答をコントロールすることはできないのでしょうか。
前:ユーザーに完全にフリーで入力されると、回答をコントロールすることは難しいと思います。ただ、入力内容をあらかじめ限定する方法があると思います。例えば、会社のFAQのようなもののためにGPTのAPIを利用する場合、顧客の質問リストを限定しておけば、GPTがどのような回答をするか、企業は事前に確認できます。ユーザがフリーで入力した質問を事前に用意した質問のどれに近いかをChatGPTに選択させて、さらにその質問に回答させるなどの方法で、回答をコントロールすることは可能と思います。
今後、GPTはいろいろ改良されると思いますが、商品リストなどの制約データを都度渡さなくても前提条件としてキープしておくような機能が今後GPTに実装されていくかもしれないと予想しています。
4.教育事業でのAPIの実装
松岡:GPTのAPIの実装の具体例として、教育事業がありますが、いかがでしょうか。
前:翻訳、音声練習、英会話、英文の添削など言語学習には利用できると思います。また、国語について要約する課題などにも応用できるかもしれませんね。
松岡:他方、教育事業の場合、子どもに性的なことを回答してしまわないか、など心配な面もあります。子どもフィルターのようなものを付けることはできないでしょうか。
前:まず、ChatGPT自体が倫理的に問題のある回答はしないようにチューニングされています。また、問題のある単語を表示しないようにすることはできるかもしれません。
町田:先ほどのお話のように、APIで、「子ども向けに回答する」という条件を自動的に付けるというのは可能でしょうか。
前:それは可能と思います。「質問者は、小学生なので、分かりやすく回答するように」など入力文に付加すると、それを前提に回答してくれます。
松岡:他の問題として、例えば、小論文の宿題の意味がなくなってしまうという懸念もあります。
前: AIは、過去に誰かが言ったり書いたりしたものをベースに学習されていて、その範囲で回答を作成しますので、全く新しい発想をするということはできません。新しい発想をするというのは人間しかできないので、人間が自分の力で書く能力というのは、重要なままのように思います。あるトッピクについて、いろんな著者の本を読むとか、複数の専門家の話を聞くなどです。
町田:子どもだと、ChatGPTが生成した回答を疑わずに信じてしまうかもしれません。こういうことがないような設計が必要なように思います。
前:子どもの場合、ファクトチェックをしっかりとせず、ChatGPTの回答を鵜呑みにしてしまうかもしれませんね。ChatGPTの回答が唯一のものではないというリテラシー教育が重要となってくると思います。一つの意見を鵜呑みにせず、いろんな意見を聞かないというのは、ChatGPTが登場する前から重要とされていましたが、今後はより重要となると思います。あるトピックについて、いろんな著者の本を読むとか、複数の専門家の話を聞くなどです。
町田:Wikipediaについても、Wikipediaをコピペするとか、出典として引用するという問題がありましたね。これと同様の問題が生じるかもしれませんね。
前:すでにレポートに使用を禁止した大学があるという記事がありました。論点のチェック、論点を拾ってくる手法として、ChatGPTを利用するのはよいのではないでしょうか。
2023年3月
対談記事(1):ChatGPTのビジネスの利用について、工学博士と弁護士が対談
[1] https://www.youtube.com/watch?v=S7xTBa93TX8
[2] ChatGPT and LLMs: what’s the risk – NCSC.GOV.UK
[3] ChatGPT General FAQ | OpenAI Help Center
[4] API data usage policies (openai.com) (冒頭の1)
対談者ご紹介
ジャパンマネジメントシステムズ株式会社 代表取締役社長
AIB協会理事 前一樹(まえ かずき)
東京大学大学院工学系研究科博士課程終了・博士(工学)取得。ベルギー・ルーベンカトリック大学研究員、北陸先端科学技術大学院大学助手、ITベンチャー企業取締役、CTOなどを経て、現職。医療系研究会事務局長、元上場企業監査役なども務める。情報処理安全確保支援士(登録番号第002063号)、ITストラテジスト。
渥美坂井法律事務所・外国法共同事業 パートナー 弁護士
AIB協会理事 松岡史朗(まつおか ふみあき)
京都大学法学部卒業。
上記の役職の他、一般社団法人日本DPO協会顧問、ステート・ストリート信託銀行株式会社社外取締役(監査等委員)も務める。
https://www.aplawjapan.com/professionals/fumiaki-matsuoka
弁理士法人磯野国際特許商標事務所 代表社員 弁理士
AIB協会 理事 町田 能章(まちだ よしゆき)
早稲田大学大学院理工学研究科建設工学専攻修了。総合建設会社勤務を経て、磯野国際特許商標事務所に入所。2014年4月事務所法人化に伴い代表社員(所長)に就任。AIB協会内外においてAI分野の知財に関するセミナー講師も務める。特定侵害訴訟代理業務付記登録。
ご質問等は、以下にご連絡ください。
人工知能ビジネス創出協会 事務局
〒150-0031
東京都渋谷区桜丘町18-6 日本会館4階
一般社団法人 人工知能ビジネス創出協会