自然言語処理

「Perplexity」とは?(AI検索) AIの話題

「Perplexity」とは?(AI検索)

「Perplexity」は、インターネット検索をまとめてくれるAI検索サービスです。基本的なAI検索は、アカウント登録なしでも無料で使えます。登録すると履歴確認などの便利な機能が使え、より精度の高い回答を得るにはサブスクリプションに加入することも選べます。YouTube動画でも話していますPerplexityはAI検索サービス「Perplexityパープレキシティ」は、AIを活用した検索・質問応答サービスです。リアルタイムの情報を収集し、情報源へのリンクを付けて回答するのが特...
AIと「会話」はできるのか?(会話型AIの課題) AIの話題

AIと「会話」はできるのか?(会話型AIの課題)

近年、「人々の会話し心に寄り添う」というAIが登場しています。対話型AIアプリのユーザーレビューを元に、現時点での課題と本質的な課題を整理してみます。もともと人間の代替は無理だろうけど、どの辺に「違い」があるのかな。AIと「自然な会話」ができるようになったCotomoやSELFは、音声会話型のAIです。(参考)Cotomo(コトモ:音声会話型おしゃべりAI)(AppStore / Playストア)SELF:毎日、AIと話そう(AppStore / Playストア)かなり自然な...
「プログラム」と「AI」の違い(従来型プログラムと機械学習ベースのAIプログラム) AIの話題

「プログラム」と「AI」の違い(従来型プログラムと機械学習ベースのAIプログラム)

従来型プログラムは決まった手順に従い予測可能な結果を出しますが、AIプログラムはデータから学習し新しい状況に対応できるのが特徴です。人間に打ち勝つようなコンピュータプログラムは、チェスのDeep Blueから囲碁のAlphaGoへと進化しました。現在のAIブームは、コンピュータの性能の向上、ビッグデータの出現、深層学習の登場によって、過去のブームよりも社会に大きな影響がありました。YouTube動画でも話しています。チェスの名人Deep Blueと囲碁の達人AlphaGoコン...
ベイジアンフィルタとは?(ベイズの定理とスパム判定) とりあえずのメモ

ベイジアンフィルタとは?(ベイズの定理とスパム判定)

「ベイジアンフィルタ」は、条件付き確率の考え方(ベイズの定理)をもとに迷惑メールである確率を計算する、古典的な手法です。過去のスパムメールと非スパムメールから単語の出現頻度の違いを学習して、新しく受信メール内の単語の組み合わせからスパム確率を計算するのが特徴です。ただし、判断材料が単語の出現頻度に依存しているため、正しいメールに似せた文章だとスパムと見分けられないことがあります。たとえば、「高額なプレゼントに当選しました!」などのような、独特のスパムメールには有効です。ベイジ...
ChatGPTがS式を解釈する?(自然言語処理と構文解析) AIの話題

ChatGPTがS式を解釈する?(自然言語処理と構文解析)

「S式風のプロンプトの書き方が使えるかも?」という説を目にして、実験してみました。結果は、全く異なる構造のプロンプトを与えても、ほとんど同じ結果になってしまいました(GPT-4, Claude 3 Opus)。カッコをほとんど省いて「うまいこと」解釈しているようで、現状は修飾関係を明示するような用途では使えなさそうでした。生成AIは、もっともらしく動作します。だからこそ、うまくいくケースだけを与えて判断して、評価するのは危険ですね。エラーチェックや境界条件を調査することが、プ...
Google検索の使い分け:キーワード検索と自然文検索 とりあえずのメモ

Google検索の使い分け:キーワード検索と自然文検索

Google検索の使い方には、2つのやり方があります。伝統的な「キーワード区切り検索」と「自然文」を入力する検索スタイルです。現状では、どちらが優れているということもなく、好みや目的で使い分ければよいです。知りたい情報が明確ならキーワード区切り検索で、まだ疑問形で考えているならそのまま自然文検索をすればよいわけです。キーワード検索にこだわる必要もないし、キーワード検索がダメってことでもないんだね。いつの間にか自然文検索ができるようになっている「Googleがうまく機能しないと...
Transformerモデルと「自然言語」(GPTが「スマホの次」だった) AIの話題

Transformerモデルと「自然言語」(GPTが「スマホの次」だった)

Transformerがもっと強力になったら、個々のアプリもいらなくなるかも。たとえば、時間を聞いて、その場で時計盤の画像を生成して見せくれるなら、極端な話 時計も時計アプリもいらなくなっちゃう。すでに、そういう次元じゃないかもしれないけど。あとは、電気代の問題ですね。Transformerモデルがすごいのは、「自己注意機構」でテキスト内の単語間関係を分析できるようになったこと。旧来のモデルと比べ、効率的に文脈全体を把握できるようになったのが成長の背景です。翻訳や要約といった...