- ChatGPT や Bard などの対話型AI(あるいは生成AI)は、処理コストが高いです。
- キーワード検索と違って、チャット検索には すでに回数制限が設けられています。
- 今後は精度の向上もさることながら、普及期になると採算性のため、そのコストをどう支払うかという問題がでてきそうです。
1. 「BardはChatGPTより軽い」意味
OpenAI の ChatGPT は、2020年にリリースされたGPT-3 という言語モデルを元にしています。
一方、Google の Bard は、2020年にリリースされた LaMDA を元にしています。
両者の大きな違いは、処理の負荷です。
パラメータ数(言語モデルの複雑さ)だけでみると、GPT-4は 60兆パラメータですが、GPT-3は1750億に対し、LaMDAは1370億で、そこまで差がないように見えます。
しかし、ChatGPTは、生成・推論のAI はかなりのGPUの負荷がかかり、大量のアクセスを捌くにはコストがかかります。これが、回数制限につながっています。
一方、Googleは LaMDAのパラメータを、さらにおそらく数十億まで軽量化して Bard をリリースしています。そのため、Bardは ChatGPTより回答精度は低いものの処理が軽く、リアルタイム性があります。
2. AI学習へのコストをどう支払うか?
どうして、後発の Googleは、精度より効率性を重視したの?
それは採算ラインにどこに置くかの判断だと思います。
ChatGPT も LaMDA も、有益な回答を生成するには、たくさんの学習が必要です。
それ処理するために必要な計算機の性能は途方もないものになります。
事前学習だけでも数億円単位のサーバ投資が必要になり、さらに利用段階ではそれ以上かかります。
計算処理コストは利用に比例して大きくなるので、「規模の経済性」があまり発揮されません。
ソフトウェアのように「一度作ったら複製するだけ」というわけにはいきません。
このような計算機を個人単位で用意するのは難しいため、企業の提供するサービスを利用することになります。
そこで、大事なのが「採算性」です。
これだけの投資をどうやって回収するかの収益モデルです。
これまでの検索エンジンは、検索結果に広告を表示させることで、収益を上げることができました。
それに対して、対話型AIの場合は、回答結果にいまのところ 広告を出す余地を見出していません。
すると、サービスを継続するには、利用者が維持費を負担するしかありません。
つまり、利用者は、対話型AIを使うには大きな AI企業と有償契約をするということが一般化するでしょう。
そうすると、負荷が大きいほどサービス利用料が大きくなってしまうのです。
処理を軽くすることは、有料プランの価格設定と直結しています。
いまのところ、対話型AI は計算コストに対して、マネタイズ ポイントが少ないのね。
こちらもどうぞ。