AIで差をつける
~目的特化型AIソリューションの重要性と証券業界における事例~
-
【講演者】
- 伊藤忠テクノソリューションズ株式会社
金融NEXT企画部 部長代行
福永 圭佑 氏
-
【講演者】
- 伊藤忠テクノソリューションズ株式会社
金融NEXT企画部
中村 薫平 氏
<生成AIの取り組みについてのトレンド>
2017年にGoogleが発表した「トランスフォーマー(Transformer)」は、Attentionというメカニズムを応用したディープラーニングのモデルで、人間の自然な言語を機械で処理する「自然言語処理」を大きく発展させた。そこから大規模な学習データを効率的に処理する自然言語モデルがいくつも登場し、やがて2022年にChat-GPTが登場したことで、生成AIが大きく注目されるようになった。その後もGPT-4が登場し、生成AIの進化は加速化している。
生成AIは他にもあるが、特にChat-GPTが注目をされ、一般ユーザにまで広く認知された理由はおおむね「汎用的、直感的、効果的」という3つの要素に集約される。どんなテーマで話しかけても何かしらの答えが返ってくるほど「汎用的」で、説明書を開いて難しいことを覚えなくても、チャット画面に話しかければ「直感的」に誰でも使え、無料または多少の課金で「効果的」に使える。仕事や勉強のための調べものが、これまでよりも飛躍的に便利になる期待感が生まれ、瞬く間に広まった。
現在はDX関連部署が先進的な取り組みとして検証を進めているが、コモディティ化する日は近く、数年後には誰もが当たり前に利用している技術になると予想される。
<追い付くAIと追い越すAI>
すでに多くの人が取り組みを始めているAIの活用例は、ドキュメントの検索や要約、業務アシスタント、コードや仕様書の生成支援などだ。こうした活用事例は、今後は当たり前の取り組みになっていくだろう。ただし、冷静に考えると、競争力の源泉にはなり得ない使い方だ。これを「追い付くAI」と称してみる。
これから時間をかけて検討すべきは、他社に差をつけるためのAI活用だ。これを「追い越すAI」と称する。追い付くAIと追い越すAIの違いを具体的なシーンで見ていこう。業務上では経費精算やメールの自動生成、資料の要約などの、日常的な業務で用いられる生成AIは「追い付くAI」の典型例だ。どの企業でも使い方はほぼ変わらない。対して追い越すAIはコア業務で活用しているかどうかが判断基準だ。生成AIを活用して新薬を開発するような例は、製薬企業にとってのコア業務でAIを活用していることになるので、追い越すAIになる。
データ処理の観点から見れば、Chat-GPTに代表されるようなインターネットや公共のデータをもとに学習したモデルは典型的な追いつくAIだ。一方、自社の独自データやノウハウ、機密データ、顧客データを学習したモデルは、他社には真似ができない。こちらは、追い越すAIとなるわけだ。
当たり前のようにAIが生活に取り込んでいる社会、いわば「AIネイティブ社会」が訪れた時にユニークな存在であり続けるためには何をすべきだろうか。単なるコストカットや生産性向上のためだけでなく、コア業務を対象にしたAI活用を進めて競争力の源泉を確保しようとしているか、独自データを使って企業のユニークネスを追求しているかを鑑みていくことが重要だ。
<生成AI活用に向けての課題感>
「生成AI」に取り組んでみたいというニーズの多くは、Chat-GPTの導入を想定している。顧客からの依頼では、Azure OpenAIへのサービスを使い、社内専用のChat-GPTのようなシステムを作りたい、使ってみたいという声が圧倒的に多い。
顧客とのディスカッションの中で浮かび上がる課題は、おおむね3つに大別される。「セキュリティ」「チューニング」「ユースケース」の3つだ。
特に「セキュリティ」を重視したデータの扱いに関しては、壁に直面しやすい。金融機関のデータは機密情報や個人情報なので、セキュリティの観点から、クラウドや国外のサーバーに置くことに抵抗があるからだ。プライベートな領域であればクラウドは許容するとしても、データセンターは国内が求められ、マスキング暗号化も必須だ。マスキングは一部だけするのでは意味が無い。仮に99%マスキングに成功できたとしても100万件のデータがあれば、漏えいの危険がある1%のデータは1万件に及ぶ。マスキングのパーセンテージは限りなく100%に近づける必要がある。
また、モデルの所有権を持てないことも、不安要素になる。作ったモデルを生かした独自のビジネスをしかける自由度が少なくなるのもデメリットだ。
次にチューニングの課題も大きい。Large Language Model(LLM)、その名の通り大規模なモデルなので、学習には多くの時間とコストがかかる。ファインチューニングだけでも相応の時間が必要になり、ファインチューニング用のデータを集めるのも一苦労だ。
精度も決して芳しくない。大規模モデルのチューニングは、まるで大海原にコップで水を注ぐようなもので、期待した結果が得られるようにチューニングをすることが難しい。データセットで明確な回答例を与えても、その結果が安定して得られないことも往々にして起こるのだ。AIがありもしないことを勝手に推測して回答してしまうハルシネーションの抑止も不可欠になる。多様な数字を扱う金融業において、生成AIをそのまま活用できるシーンは限られる。
こうしたセキュリティやチューニングの課題が解決しないと、現実的に実業務に落とし込めず、実用化を検討しづらいのが実情だ。さらに、生成AIで何かできないかという漠然とした期待から検討が始まっているため、具体的に何をしたいのか整理できず、また、明確な目標や成果を定められず、検討が進まない場合もある。
<小規模特化モデル(SSM)の可能性>
LLMでの課題を踏まえ、課題解決のポテンシャルがあると期待視されているのが小規模特化モデル「Small Specialist Model(SSM)」だ。
何億ものパラメータをモデル化している大規模言語モデルは、データ量が巨大なのでチューニングに時間がかかり、精度も思うように出ない。気軽に自社の環境に置くこともできない。小規模モデルは真逆で、データサイズが小さいためにチューニングしやすく、高い精度を実現できるのだ。サイズが小さいので、自社のオンプレサーバーでSSMを構築することもできる。その結果、データの置き場所やマスキングなど、セキュリティ上で問題視されたことが一度に全て解決される。モデル運用の柔軟性、機動性も間違いなく向上するので、セミリアルタイムな情報更新も可能になるだろう。
SSMは誰かが作った大規模モデルに依拠しないので、自社の独自ノウハウとして運用し、専門型の生成AIモデルを提供したビジネス展開なども見込める。
<AITOMATIC社のaiVAによるソリューション>
コア業務、独自データで競争力ある生成AIを構築し、その際に生じる課題はSSMを組み合わせて解決する際に有効なソリューションツールとなるのが、米国AITOMATIC社のaiVAだ。
伊藤忠テクノソリューションズ(CTC)では、すでにAITOMATIC社と提携して、投資ポートフォリオの提案を行うAI投資アドバイザリーソリューション、社内社外向けのFAQ構築支援導入支援サービスを立ち上げている。
SSMはモデル1つ1つが分離されているので、漏えいのリスクを避けたい社内情報はオンプレ上に配置し、残りはクラウド上に配置するといったようなハイブリッドな環境でデータをすみ分けすることができる。
Chat-GPTのようなLLMはモデルが非常に大きいため、汎用的なタスクや日常的な会話などの応対に強みがある。対してaiVAでは、質問内容を判断して割り振った後は1つ1つ個別の専門性を持った小さなSSMが質問に対応するので、それまで属人的に行われてきた個別のタスクに対する回答などに強みを持っている。
お互いの強みや利点が異なるため、aiVAにChat-GPTを連携して、汎用的な質問に関してはチャットGPTが応対し、専門的な質問に関してはaiVAが応対するなどの使い分けが必要になるかもしれない。
<サードパーティーAIとの連携>
aiVAによる言語モデル協調事例として、CTCではすでに対話式でHEROZ モデルにもとづく投資アドバイスを行う投資提案AIサービスを構築してPoCを進めている。
このサービスは、投資アドバイザリーを専門に行う企業(HEROZ)と連携して、過去の株価の推移から、特定の株式銘柄の5営業日後の上下予測を出し、顧客が保有しているポートフォリオのリバランスやアドバイスを行う機能を持っている。
例えば、「投資先の見直しをしたい」という質問がきたら、他社AIを呼び出せるSSMでHEROZのAIシステムにつなぐ。「ポートフォリオって何ですか?」などの金融知識に関する基本的な質問であれば、金融情報を専門とするSSMにつなぐという仕組みだ。他にも財務情報モデルや社内文書モデルなど、いくつものSSMが用意されている。aiVAが質問の内容を判断し、SSMを協調させることでインタラクティブに会話を進めていける。
すでにCTCが用意した検証用のユースケースでは一定の成果を上げているので、顧客からのリアルな課題ニーズを探しながら、さらなる検証を進めている。
◆講演企業情報
伊藤忠テクノソリューションズ株式会社:https://www.ctc-g.co.jp/