対談記事(9):ChatGPTなどのAIの社内利用による生産性向上(労働時間の減少・人手不足の解消)とリスク対応


工学博士(前)、弁理士(町田)弁護士(松岡・権藤)が対談

対談の概要:日本の金融機関や大手企業が、ChatGPTを社内利用するとのリリースを開始しました。生産性向上・労働時間の減少・人手不足の解消は、日本企業の深刻な社会的課題であり、ChatGPTなどのAIの社内利用により、その課題を解決することが試みられているところであり、ChatGPTなどのAIの社内利用の急速な拡大が予想されています。
このような状況を踏まえ、今回の対談記事では、①AIの社内利用の実例である議事録・要約の作成、②ChatGPTの社内利用による情報漏えいリスク・回答の不正確性のリスクに対する対応について説明しています。

テーマ:ChatGPTなどのAIの社内利用による生産性向上(労働時間の減少・人手不足の解消)とリスク対応

1 ChatGPTとWhisper[1](音声認識モデル)の併用による議事録・要約の作成

(1)音声認識モデルとは何か

松岡:最近、日本の金融機関や大手企業が、ChatGPTを利用するとのリリースを開始しました。先日、ユニアデックス様からお伺いした話も合わせて考えると、日本企業によるChatGPTなどのAIの利用は急速に一般化すると思います。そこで、本日は、ChatGPTとWhisperなどの音声認識モデルの併用による議事録・要約の作成ついて話していきたいと思います。
まず、音声認識モデルについて、分かりやすくご説明をお願い致します。

前:ざっくりしたイメージでお話します。例えば「おはよう」という音声データがあった場合、「お」「は」「よ」「う」という具合に短い時間間隔のデータに分解します。それぞれの音には特徴的な周波数成分のパターンがありますので、パターン認識で、これは「お」だ、これは「は」だというように文字変換していきます。ディープラーニングが話題となったときに音声認識も注目されました。ディープラーニングで、実用面で一番進歩した分野は画像認識と思いますが、声紋のような音声グラフも図だと思えば、音声データ同様に上手く認識できるのは直観的に理解できると思います。

松岡:ありがとうございます。実用化されている製品ではGoogle Home、Alexa、Siriなどが有名ですね。ただ、ディープラーニングが話題となった頃、議事録の文字起こしなど、実務で利用しようとすると、それほど精度が高くないとも聞いていました。ただ、最近の文字起こしは、実務で利用できる程度に性能が良くなってきたと聞いています。
この理由はどのようなものが考えられますか?

前:Whisperなど最近の音声認識モデルでは、ChatGPTでも使われているTransformerという仕組みを利用することによって精度が向上したものと思います。Transformerは文章全体の言葉の関係性を基に、最も適切な次の単語を選択するものです。概念的には、文章全体の文脈で言葉を選択していると言ってもいいかもしれません。先ほど説明したように、音声を短い時間間隔で切って周波数成分で表したデータは、その音を表す一つの記号と考えられます。音声テキスト変換は、この記号の並びを日本語に変換するのは、英語データを日本語データに変換する翻訳とある意味同じです。文章全体から次の単語を選択することで翻訳の精度が上がったように、音声データ全体から次の対応する文字、単語を選択できれば音声認識の精度が上がることも理解できると思います。

松岡:GPT4は画像認識も可能です。GPT4に声紋のデータを入力すれば、声紋に相当する適切な文字を出力することができるかもしれないということでしょうか。

前:GPT4の画像を入力に用いる機能はまだ一般にはリリースされていません。音声データを直接入力できるということもまだアナウンスされていませんが、マルチモーダルを標榜していますので、おそらくそういう研究は進んでいて、徐々にリリースされるのではないでしょうか。今はWhisperのように音声認識に特化して学習されたシステムがありますので、それを利用するのが良いと思います。GPTにも音声認識の機能を組み込んでいくことはできると思いますが、一つのモデルの学習に用いるデータ量が益々膨大になってしまいますので、音声認識は一つのまとまったファンクションですので、Whisperのように今後も独立したシステムのままで、連携させて使用するのが実用的かもしれません。

(2)音声認識モデルは生成AIか。

松岡:音声認識モデルは、生成AIなのでしょうか?

前:「生成AI」という言葉の厳密な定義はないと思いますが、私は「人の創作物のような出力をするAI」と解釈しています。「犬」か「猫」を選択する画像認識のAIは「生成AI」とは呼ばれないと思いますが、これは正解が一つあるものを正しく判断するものだからです。「この本について読書感想文を書いてください」という問いに対し、応答の内容には任意性があって正解が一つに定まるものではありません。このような任意性のある出力を文法などの制約条件の下で適切に行えるAIが「生成AI」と呼ばれるものと思います。人間が行う場合も、「犬」「猫」の識別は創作と呼ばないと思いますし、読書感想文など人によって異なるものは創作と呼ばれるのと同様と思います。そういう意味では、音声認識の場合、正解が一つに定まるものですので、私としては「生成AI」とは呼ばないと思います。ChatGPTなどと同じような仕組みで動作しているという意味で「生成AI」に分類する人もいるかもしれませんが、その辺は解釈が分かれるところかと思います。

(3)AIによる省力化とリスク

松岡:Whisperが生成した議事録をChatGPTに入力すれば、会議の要約ができるということになりますね。この方法によれば、これまでの多くの手作業を大幅に省力化することができます。

前:そうですね。Whisperはオープンソースで公開していますので、日本企業であっても、Whisperを利用できます。

松岡:ただ、Whisperを利用する場合、OpenAIにデータは渡されることとなりますか?

前:Whisperは公開されているものをダウンロードして使用するようになっていますので、音声データがOpenAIに渡るものではないと思います。それを要約するためにChatGPTと連携して使用する場合は注意が必要です。

松岡:万一、Whisperを利用した時の音声データがOpenAIに渡された場合でも、ChatGPTについて指摘されているように、「学習データに使用されるから、第三者の質問に対する回答の際に会社のデータが示されてしまう危険がある」ということは当てはまらないように思います。

前:音声テキスト変換という機能に特化したものであれば、使用者が入力した音声と同じ内容のテキストが出力されるだけですので、学習に使用された文章がそのまま第三者に出力される恐れはないと言えます。ただし、話した内容をOpenAIに渡してしまっているという点で、音声で話した内容が機密に関するものであれば、問題となり得るのではないでしょうか。現状のWhisperは、音声データがOpenAIにわたるものではないので、仮定の話ですが。

松岡:そうですね。OpenAIとの契約内容、クライアントへの説明やOpenAIによるデータの利用目的・方法など、法令に照らして、きちんと検討が必要と思います。具体的には、次のアジェンダにおいて、検討していきます。

2 機密情報・個人情報の漏えいリスク

松岡:次に、情報の漏えいリスクについて話していきたいと思います。
次のような具体例を用意しました。法的には、学習されたデータが第三者に開示される場面より、データの入力の場面で問題となりますので、具体例もそのようにしております。


具体例

(1)会社Aの従業員Xがお客様の個人データ[2]をChatGPTに入力した。会社AがChatGPTを利用することについて、お客様の同意はありません。
(2)会社Aの従業員Xが自社の機密情報をChatGPTに入力した。


(1)具体例(1):個人データの入力について

権藤先生、(1)のXによる個人データの入力に関する法令の適用について説明してください。現時点の公表資料に基づく説明で十分です。

権藤:ChatGPTに入力された個人データがアメリカ企業であるOpenAIに提供されますので、個人情報保護法27条(第三者提供の制限)と28条(外国にある第三者への提供の制限)に違反するかが問題となります。

ア 個人情報保護法27条の説明

松岡:27条から説明をお願いします。

権藤:27条1項は、個人情報取扱事業者が、原則として、本人の同意がない限り、個人データを第三者に対して提供することができないと規定しています。他方、27条5項1号は、「委託」の場合、例外的に、本人の同意がなくとも、個人データを渡すことができると規定しています 。
具体例の場合、ChatGPTの利用について、本人の同意はありませんので、委託に該当するかどうかが問題となります。
この点、個人情報保護委員会が公表しているガイドライン・Q&Aは、受託者が「委託された業務以外に当該個人データ取扱う」場合(例えば、委託内容と関係のない自社の営業活動等のために利用する場合)、「委託」に該当しないとしています(ガイドライン(通則編)3-6-3、QA7-37)。
OpenAIは、Xにより入力された個人データを学習データに利用するところ、この学習データの利用は、OpenAIに委託された業務とは何ら関係がありません。すなわち、OpenAIは、委託された業務以外に個人データを取扱うこととなります。
したがって、OpenAIがXにより入力された個人データを学習データに利用する場合、XのChatGPTへの入力は「委託」には該当せず、個人データの第三者提供として、27条1項に違反すると思います。

松岡:分かりました。権藤先生の整理の通り、ChatGPTの利用が「委託」に該当せず、個人情報保護法27条1項違反となるとすれば、個人データをChatGPTに入力することが難しくなりますが、「委託」に該当するように工夫できませんか。例えば、①会社AがOpenAIとDPA [3]を締結する方法、または、②ChatGPTの「Settings」から「Chat History & Training」の機能をオフにする方法により[4]、OpenAIが入力した情報を学習データとして利用しない場合はいかがでしょうか。

権藤:その場合は、OpenAIが「委託された業務以外に当該個人データを取扱う」場合には該当しません。しかし、そのような場合であっても別の問題は生じます。つまり、個人情報保護委員会が公表しているQ&Aによれば、「委託」とするためには、委託先が独自に取得した個人データと突合し、新たな項目を付加して又は内容を修正して委託元に戻すことはできないとしています(Q&A7-42)。このQ&Aによれば、従業員Xが顧客データを入力し、OpenAIの独自に取得した個人データと突合させて、ChatGPTが当該個人データを修正して回答する可能性がある場合は、「委託」には該当しないように思えます。

松岡:2023年4月5日の公表資料(Our approach to AI safety)には、「OpenAIは、AIにこの世界のことを勉強させたいが、私人(private individual)について勉強させたいわけではない。そのため、可能な限り、トレーニングデータセットから個人情報を削除するよう努力する。また、私人の個人情報に関する要求を拒否するようにAIを調整するよう努める。さらに、システムから個人情報を削除するよう要求された場合には対応するように努める。これらの方法により、AIが個人情報を含む回答を生成する可能性を最小限に抑える。」と記載されています。
しかし、上記の公表資料が正しいとしても、データセットから個人情報を完全に削除されるわけではないですし、個人情報が含まれたプロンプトを完全に拒否することはないと思いますので、ご指摘の通り、OpenAIの独自の個人データとの突合の可能性は残ると思います。
Q&A7-42が、ChatGPTのような生成AIの利用にもあてはまるものであれば、「委託」に該当せず、「原則に戻って本人の同意を得なさい」ということになり、個人データの入力は大きく制限されることとなります。ChatGPTとQ&A7-42との関係は、もう少し検討する必要があると思います。

権藤:個人情報保護法27条は、個人データの提供について規制していますので、「提供されていない」と整理する余地はありませんか。すなわち、個人情報保護委員会のQ&Aは、サービス提供者が個人データを取扱わないこととなっている場合(契約条項によって当該外部事業者がサーバに保存された個人データを取り扱わない旨が定められており、適切にアクセス制御を行っている場合等)には、そもそも第三者提供に該当せず、本人の同意は不要としています(Q&A7-53)。OpenAIが入力した情報を学習データとして利用しない場合に、この点、OpenAIは個人データを取扱わないと整理することはできませんか。

松岡:Q&A7-53は、配送事業者が、配送物に個人データが含まれている場合でも、個人データを取扱うことにならないことと同様に、クラウドサービス事業者についても、保存された個人データを取扱わないのであれば、第三者提供に該当しないとするものです。OpenAIは、ChatGPTに個人データが入力された場合、ChatGPTのシステムを経由してその個人データについて回答を作成しますので、「データを取扱わない」という評価は難しいのではないでしょうか。欧州において、これだけChatGPTに関するデータの取扱いが問題となっているときに[5]、「データを取扱わない」と解釈することには違和感があります。また、OpenAIは「学習データとして利用しない場合であっても、30日間、データを保存して不正監視は行う」としていますので、この観点からもデータを取扱わないという整理は難しいのではないかと考えています。このことから、私は、ChatGPTに個人データを入力した場合、OpenAIに個人データは提供され、個人情報保護法27条の適用が問題となると考えています。

イ 個人情報保護法28条の説明

松岡:個人情報保護法28条についてはいかがでしょうか。

権藤:個人情報保護法28条1項は、個人情報取扱事業者が、原則として、本人の同意がない限り、個人データを外国にある第三者[6]に提供してはならないと規定しています。他方、外国の会社が「基準適合体制」を備えている場合、例外的に、本人の同意がなくとも、個人データを渡すことができると規定しています。
具体例において、DPAを締結しておらず、OpenAIが、入力した個人データを学習データとして利用する場合、OpenAIが基準適合体制を備えているとはいえないと思います。すなわち、個人データを基準適合体制を備えていないアメリカの会社(OpenAI)へ移転することとなりますので、28条1項違反となります。
他方、会社AがOpenAIとDPAを締結し、DPAが日本法の基準に適合するものであり、OpenAIがそれを遵守し、入力されたデータを学習データとして利用しない場合、基準適合体制を備えている会社に対する提供に該当し、28条には違反しないと考えます。

松岡:ご指摘の通り、外国の会社が「基準適合体制」を備えている場合、本人の同意は不要です。このような「基準適合体制」を備えている外国の会社の場合、一定のセキュリティは必要なように思います。イタリアでは、ChatGPTに関するデータ漏えいが、ChatGPTの一時的禁止の契機となりました[7]。将来、再度、ChatGPTに関するデータ漏えいが生じた場合であっても、DPAを締結していれば、OpenAIは「基準適合体制」を備えた企業と言えるのでしょうか。

権藤:データ漏えいの発生のみにより、OpenAIが基準適合体制を備えていない企業となるとはいえません。つまり、データ漏えい後に個人データを入力しても、直ちに28条1項違反となるわけではありません。
ただ、基準適合体制に基づき個人データを提供した場合、当該外国企業は、「相当措置」を継続的に実施する必要があるところ、重大な漏えいが発生した後、必要かつ適切な再発防止策が講じられず、「相当措置」が実施されていないような場合、個人データの提供を停止する必要があります(個人情報保護法28条3項、個人情報保護法施行規則18条1項2号、ガイドライン(外国にある第三者への提供編)6-1)。このことから、仮にChatGPTに関する重大な漏えいが生じた後にも関わらず、OpenAIが適切な再発防止策を講じないような場合、会社Aは、個人データの提供を停止する必要があります。
しかし、OpenAIは、システムの脆弱性の報告に報酬を支払うプログラム[8]を実施するほどにセキュリティの向上に努力している企業ですので、このガイドライン6-1の事例のような事態が直ちに生ずるということはないと思います。
もっとも、基準適合体制に基づき個人データを提供した場合、当該外国企業の「相当措置」の実施を年1回以上確認する必要があります(個人情報保護法28条3項、個人情報保護法施行規則18条1項1号、ガイドライン(外国にある第三者への提供編)6-1)。このことから、データ漏えいの有無に関わらず、OpenAIの「相当措置」の実施について、年1回以上確認する必要はあると思います。

松岡:分かりました。

(2)具体例(2):機密情報の入力について

松岡:次に、(2)の機密情報の入力の具体例について説明してください。

権藤:不正競争防止法2条1項4号~10号は、営業秘密に係る不正行為を「不正競争」の一類型として定めています。Xが業務のためにChatGPTに入力する行為については、特に、7号の図利加害目的のある使用・開示行為に該当するかどうかが問題となると思います。
この点、Xが、会社Aの業務のサポートツールとしてChat GPTを利用しているだけであれば、直ちに図利加害目的が認定されるとは思えません。設例の事例では、Xの行為を「不正競争」とするのはなかなか難しいように思います。

松岡:分かりました。権藤先生のご指摘の通り、法律を直ちに適用することは難しいかもしれませんので、企業としては、内部規程を設定しているものと思います。
また、実際の入力を特定して立証するとなると、現実的に可能なのだろうかという問題があります。企業によっては、入力した内容をトレースすることができる機能も実装しているようです。

(3)Azure OpenAI service

松岡:上記の具体例からは離れますが、会社Aの立場から、自社が管理している企業秘密や個人情報の漏えいを防ぐための方法としては、Azure OpenAI serviceを申し込んで、クローズドのクラウド内でChatGPTを利用することが考えられます。

前:この方法によれば、通常のクラウドサービスを利用する場合と同様ですので、ChatGPTを利用することによる特殊性はないと思います。この場合であれば、会社Aは、他のクラウドサービスと同様に、機密情報や個人情報を入力しても問題ないということになると思います。

松岡:システム上のセキュリティの面からは、他のクラウドサービスと同様という趣旨と理解しました。法的問題について申し上げますと、Azure OpenAI serviceを利用する場合であっても、上述した個人データの入力の場合の「委託」(個人情報保護法27条5項1号)該当性、他社の情報を入力する場合の他社とのNDA(秘密保持契約)違反は問題となり得ると思います。

(4)DPAの締結

松岡:次に、OpenAIとDPAを締結して、ChatGPTを利用することについてもう少し検討していきます。DPAを締結した場合であっても、会社Aが個人情報・機密情報を入力可能かということが問題となります。町田先生、いかがでしょうか。

町田:ユーザー目線で申し上げますと、ChatGPTに入力した個人情報・機密情報データを簡単には消去できそうもない、ユーザーの思い通りにコントロールできないかもしれない、といったところに不安を感じます。以前、OneDriveなどのクラウドストレージに発明に関するデータを保存してよいか不安になり、クライアントに見解を求めたことがあるのですが、会社の管理下にあり、第三者が容易にアクセスできない等の対策が講じられているクラウドストレージであれば、問題はないというクライアントばかりでした。
自社の管理下にあるとは言えそうにないChatGPTに機密情報等を入力するというのは、特許事務所としては難しいですね。

松岡:ありがとうございます。たしかに、上述したAzure OpenAI serviceを導入したリリースと比較すると、ChatGPTを利用するというリリースの場合、個人情報・機密情報を入力しないようにする内部規律を設定したという公表もするケースが多いですね。

前:企業としてGPTを利用する場合、目的に合ったように周りのシステムと連携させる必要があります。仮に企業がすでにAzureを利用できる環境があるのであれば、ユニアデックスなどのSI企業に頼んでAzure上で既存のDBなどと連携するシステムを構築してもらった方が、Open AIのChatGPTを直接使うより、早く実用に使えるようになるということもあるかもしれません。Azure上には全体的なシステムを構築する道具が揃っていますので、それを利用する方がシステムを構築しやすいというのはあると思います。

3 回答の不正確性のリスク

(1)ChatGPTの回答の検証の必要性

松岡:この対談記事の読者の方の多くは、ChatGPTの回答が不正確であり得ることは当然と考えておられると思います。しかし、ユニアデックス様からお伺いした話では、まだまだChatGPTの回答が正確であると期待されている方はいらっしゃるとのことでした。ChatGPTを社内利用する企業としては、ChatGPTの回答が正確であることを前提として従業員が行動することを防ぐ必要があります。
この点についても、具体例を用意しました。


具体例
会社Aの従業員Xは、自分が担当した第三者との取引の課税関係をChatGPTに聞いて、回答を得た。その回答が合理的な内容と感じられたので、会社Aは、その回答内容に基づき税務申告した。


現時点では、ChatGPTは日本の税法に基づく課税関係を正確に回答することはできないと思います。ChatGPTが日本の税法関係資料を適切に学習しているとは思えません。したがって、具体例のようなChatGPTの利用があった場合、会社Aは、課税リスクを負うこととなりますので、ChatGPTの回答内容に基づき税務申告をするべきではありません。また、本来であれば、会社Aの経理部や税理士の先生もChatGPTの回答内容をチェックするはずです。
ただ、日本の税務専用のGPTが開発され、一般化すれば、状況が変わってくるように思います。

(2)日本の税務専用のGPT

松岡:ユニアデックス様からお伺いした話では、特定のデータを参照してGPTに回答させて専用のGPTを作成することは可能とのことでしたので、日本の税務専用のGPTも開発可能ではないかと考えているのですが、いかがでしょうか。

前:GPTに適切な日本の税法関係資料を参照させて回答させるという作りこみをすれば、実務的に参考にし得るような専用のGPTは開発可能と思います。

松岡:税務の分野は、詳細な条文・通達・国税庁の公開資料が存在し、GPTの質問・回答という仕組みになじみやすい分野と考えています。例えば、医療費控除の算定については、既存の実務の蓄積がありますので、GPTの質問・回答と親和性があるように思います。他方、新しく複雑かつ国際的な金融取引・M&A取引については、既存の実務の蓄積によりすぐに正解が見つかるということではありませんので、GPTの質問・回答にはなじまないのではないかと思います。

前:税務は標準化されており、人によって差ができないような仕組みになっているはずですので、AIと相性が良い分野なのでしょうね。つまり、標準的な回答をすれば良い分野なのかなと思います。もちろん、きちんと検証してシステムを提供しなければなりませんが、ポテンシャルとしては、十分にあると思います。法律問題は個別のケースで検討しなければならないことが税務より多く、例外の固まりのようにも思いますので、人が判断しなければならないという意味で、AIとなじみにくい分野かもしれませんね。

松岡:税務はニーズが大きい分野ですので、近い将来、税理士法などの法令に違反しない形で、このような日本税務専用のGPTが開発されるかもしれないと考えています。このような状況になった際に、具体例の会社AのXや経理担当者がその日本税務専用GPTの回答を精査しない実務が醸成されてしまうかもしれませんが、会社Aの利益のためには、GPTの回答を鵜呑みにせず、回答内容をきちんと検討することが必要なように思います。
このようにGPTの回答内容が不正確であり得ることを前提として、自社の従業員に検証を促すために、内部規程という手段を使うのはどうでしょうか。

前:少なくとも現在のChatGPTのように不正確な回答をするのであれば、どの範囲で使用してよいかなどの内部規程はあった方がよいと思います。

町田:内部規程というよりは、従業員教育の方が適切なように思いますね。

松岡:ありがとうございます。私も内部規程というのは息苦しすぎますし、うまくAIを利用してほしいという場面ですので、従業員教育の方が適切なように思います。権藤先生、いかがでしょうか。

権藤:会社の利益に与えるリスクの大小を考慮して、GPTの回答内容を精査すべきと思います。例えば、具体例の場合であれば、100万円の取引の課税判断と10億円の取引の課税判断では、会社Aに与える影響が異なります。会社Aとしては、判断ミスの場合のリスクの大きさを考慮し、10億円の取引の課税判断については慎重に検討する必要があると思いますが、100万円の取引の課税判断については、10億円の取引の場合ほど細かく精査しなくてよい場合もあると思われますので、GPTが高精度であるのであれば、AIにある程度頼ってもよい場合もあるのかなと思います

松岡:法律の遵守を軽視するわけではありませんが、たしかに、100万円の取引の課税判断のために、従業員が何時間も検討することは、会社の利益につながらないかもしれません。税務専用のGPTが導入された場合には、税法の遵守に関する実務的な方法や注意点を見直すこととなりそうですね。

2023年4月


[1] https://openai.com/research/whisper 
[2] 「個人データ」とは、個人情報データベース等を構成する個人情報(個人情報保護法16条3項)のことをいいます。
[3] Data processing addendum (openai.com) 
DPAは、通常、GDPR28条に基づき締結することが求められる、データを保護するための契約のことを言います。
[4] 2023年4月26日にChatGPTに追加された機能
[5] 例えば、欧州データ保護会議(EDPB)は、2023年4月13日、ChatGPT専用のタスクフォースを結成することを公表しました。
https://edpb.europa.eu/news/news/2023/edpb-resolves-dispute-transfers-meta-and-creates-task-force-chat-gpt_en (EDPBのリリース)
[6] サーバが外国か否かは関係ありません。
[7] 2023年3月30日に一時的禁止命令が出され、同年4月28日、一時的禁止の解除を公表
ChatGPT: OpenAI riapre la piattaforma in Italia garantendo più… – Garante Privacy(イタリア当局による一時的禁止の解除のリリース)
[8] Announcing OpenAI’s Bug Bounty Program 


【過去の対談記事】
対談記事(1):ChatGPTのビジネスの利用について、工学博士と弁護士が対談
対談記事(2):ChatGPT・GPT4の利用とセキュリティなどの問題点について、工学博士と弁護士・弁理士が対談
対談記事(3):対談記事(3):ChatGPTのプラグイン、Midjourneyなどの画像生成AIによる生産性向上
対談記事(4):Midjourneyなどの画像生成AIによる著作権の問題
対談記事(5):イタリアにおけるChatGPTの一時的な利用禁止と各国データ保護機関の動向
対談記事(6):AIと特許・AIによる特許に関する業務の効率化
対談記事(7):ユニアデックス株式会社(BIPROGYグループ。Microsoftの認定パートナー)から、ChatGPTなどの生成AIに関するビジネスの現状と今後のビジネスの展開をお伺いしました(1/2)
対談記事(8):ユニアデックス株式会社(BIPROGYグループ。Microsoftの認定パートナー)から、ChatGPTなどの生成AIに関するビジネスの現状と今後のビジネスの展開をお伺いしました(2/2)

AIB協会から対談記事の公開などのお知らせをしています。ご希望の方はこちらから配信先をご登録ください。

ご質問等は、以下にご連絡ください。
人工知能ビジネス創出協会 事務局

対談者ご紹介


ジャパンマネジメントシステムズ株式会社 代表取締役社長
AIB協会理事 前一樹(まえ かずき)

東京大学大学院工学系研究科博士課程終了・博士(工学)取得。ベルギー・ルーベンカトリック大学研究員、北陸先端科学技術大学院大学助手、ITベンチャー企業取締役、CTOなどを経て、現職。医療系研究会事務局長、元上場企業監査役なども務める。情報処理安全確保支援士(登録番号第002063号)、ITストラテジスト。


弁理士法人磯野国際特許商標事務所 代表社員 弁理士
AIB協会理事 町田 能章(まちだ よしゆき)

早稲田大学大学院理工学研究科建設工学専攻修了。総合建設会社勤務を経て、磯野国際特許商標事務所に入所。2014年4月事務所法人化に伴い代表社員(所長)に就任。AIB協会内外においてAI分野の知財に関するセミナー講師も務める。特定侵害訴訟代理業務付記登録。


  

渥美坂井法律事務所・外国法共同事業 パートナー 弁護士 
AIB協会理事 松岡史朗(まつおか ふみあき)

京都大学法学部卒業。
上記の役職の他、一般社団法人日本DPO協会顧問、ステート・ストリート信託銀行株式会社社外取締役(監査等委員)も務める。
https://www.aplawjapan.com/professionals/fumiaki-matsuoka


渥美坂井法律事務所・外国法共同事業 弁護士
権藤 孝典(ごんどう たかのり)

一橋大学法科大学院修了。個人情報保護に関するアドバイスやデータ流出等に関する紛争処理を行ってきた他、日本DPO協会認定データ保護実務者(民間部門)認定トレーナーとしても活動。
https://www.aplawjapan.com/professionals/takanori-gondo


ご質問等は、以下にご連絡ください。
人工知能ビジネス創出協会 事務局

〒150-0031
東京都渋谷区桜丘町18-6 日本会館4階  株式会社 ISP Networks 内
一般社団法人 人工知能ビジネス創出協会