トランスフォーマー

「Perplexity」の意味は「困惑度」(言語モデルの予測精度) AIの話題

「Perplexity」の意味は「困惑度」(言語モデルの予測精度)

Perplexityは言語モデルが次の単語を予測する際の確信度を示す指標です。Perplexity値が小さいほど予測精度が高く、大きいほどモデルがデータセットに対して困惑している状態を表します。訓練データと検証データのPerplexity値を比較することで、モデルの学習状態や過学習の有無を確認できます。ラテン語の「per-plexus」もともと「Perplexity」は「困惑」という意味の言葉です。語源はラテン語の「perplexus」、「編み込まれた」「込み入った」に由来し...
ベイジアンフィルタとは?(ベイズの定理とスパム判定) とりあえずのメモ

ベイジアンフィルタとは?(ベイズの定理とスパム判定)

「ベイジアンフィルタ」は、条件付き確率の考え方(ベイズの定理)をもとに迷惑メールである確率を計算する、古典的な手法です。過去のスパムメールと非スパムメールから単語の出現頻度の違いを学習して、新しく受信メール内の単語の組み合わせからスパム確率を計算するのが特徴です。ただし、判断材料が単語の出現頻度に依存しているため、正しいメールに似せた文章だとスパムと見分けられないことがあります。たとえば、「高額なプレゼントに当選しました!」などのような、独特のスパムメールには有効です。ベイジ...
Transformerモデルと「自然言語」(GPTが「スマホの次」だった) AIの話題

Transformerモデルと「自然言語」(GPTが「スマホの次」だった)

Transformerがもっと強力になったら、個々のアプリもいらなくなるかも。たとえば、時間を聞いて、その場で時計盤の画像を生成して見せくれるなら、極端な話 時計も時計アプリもいらなくなっちゃう。すでに、そういう次元じゃないかもしれないけど。あとは、電気代の問題ですね。Transformerモデルがすごいのは、「自己注意機構」でテキスト内の単語間関係を分析できるようになったこと。旧来のモデルと比べ、効率的に文脈全体を把握できるようになったのが成長の背景です。翻訳や要約といった...