前提情報の汚染

前提情報の汚染

公共的なウェブサイトでも、AIが生成した情報が増えています。
しかし、AIは真実でないことも自信ありげに出力してしまいます。

混ざってしまうと、後から区別するのは厄介。

「ハルシネーション」とは?
「ハルシネーション」とは?
生成AIの「ハルシネーション」というのは、AIが学習したデータの範囲を超えて、でたらめな答えを出力してしまう現象です。人工知能が幻覚を見ているかのように回答することから名付けられました。

「ドリフト現象」とは?(漂流するAI)
「ドリフト現象」とは?(漂流するAI)
AI(人工知能)は、学習量が多くなればどんどん賢くなると思われています。 しかし、実際には学習するほど「おかしな回答」をする「ドリフト現象」があります。 AIの仕組みはとても複雑です。そのため、AIの一部を良くしようとすると、別の部分の性能が下がってしまうことがあります。 学習するほど賢くなる、という単純なものじゃないんだね。 「ドリフト」って何? 「ドリフト」とは、利用しているうちに AI の回答精度が下がってしまう現象です。 例えば、こんな感じです: 以前はきちんと答えら...

生成AIは「正解のない問題」を聞く道具(検索との違い)
生成AIは「正解のない問題」を聞く道具(検索との違い)
代表的な生成AIとしては、ChatGPT、Copilot、Geminiなどがあります。 すごく当たり前ですが、生成AIは「生成」が必要な作業に役立ちます。 生成AIを「調べもの」に使うと、「遅くて」「的外れ」な回答が多いと感じるかもしれません。しかし、対話を伝え続けると「文脈」が共有され、徐々に意図に沿った回答が得られるようになります。 生成AIは、「正解のない問題」が得意です。反対に「正解がある問題」を調べるには従来の検索エンジンの方が速い面も。 「生成AI」というと、「な...

推論によるスケーリング(OpenAI o1のChain of Thought)
推論によるスケーリング(OpenAI o1のChain of Thought)
OpenAIが発表した新しい人工知能「o1(オーワン)」は、「Chain of Thought」という推論の仕組みを使って複雑な問題を解決します。 問題を小さな部分に分けて段階的に解決することで、より正確な答えを導き出すことができます。 モデルサイズではなく推論時間を延長することで性能を向上させるアプローチの登場で、生成AIの世界は大きく変化する可能性があります。 従来の生成AIとは違う「推論」の仕組み 2024年9月12日、OpenAIは新しい人工知能「o1(オーワン)」を...
前提情報の汚染
QRコードを読み込むと、関連記事を確認できます。

前提情報の汚染
タイトルとURLをコピーしました