ハルシネーション

前提情報の汚染 ひとこと日記

前提情報の汚染

公共的なウェブサイトでも、AIが生成した情報が増えています。しかし、AIは真実でないことも自信ありげに出力してしまいます。混ざってしまうと、後から区別するのは厄介。
推論によるスケーリング(OpenAI o1のChain of Thought) AIの話題

推論によるスケーリング(OpenAI o1のChain of Thought)

OpenAIが発表した新しい人工知能「o1(オーワン)」は、「Chain of Thought」という推論の仕組みを使って複雑な問題を解決します。問題を小さな部分に分けて段階的に解決することで、より正確な答えを導き出すことができます。モデルサイズではなく推論時間を延長することで性能を向上させるアプローチの登場で、生成AIの世界は大きく変化する可能性があります。従来の生成AIとは違う「推論」の仕組み2024年9月12日、OpenAIは新しい人工知能「o1(オーワン)」を発表しま...
「ドリフト現象」とは?(漂流するAI) AIの話題

「ドリフト現象」とは?(漂流するAI)

AI(人工知能)は、学習量が多くなればどんどん賢くなると思われています。しかし、実際には学習するほど「おかしな回答」をする「ドリフト現象」があります。AIの仕組みはとても複雑です。そのため、AIの一部を良くしようとすると、別の部分の性能が下がってしまうことがあります。学習するほど賢くなる、という単純なものじゃないんだね。「ドリフト」って何?「ドリフト」とは、利用しているうちに AI の回答精度が下がってしまう現象です。例えば、こんな感じです:以前はきちんと答えられていた質問に...
Claude 3 Opusに「振り飛車」を聞いてみた(事前学習が弱い分野の具体例) AIの話題

Claude 3 Opusに「振り飛車」を聞いてみた(事前学習が弱い分野の具体例)

Claude 3 Opusは、自然な文章を生成するのが特徴です。しかし、事前学習だけによる回答には、「知ったかぶり」も含まれるので注意が必要です。そのうち改善されると思いますが、どこまでいっても「信頼性」の問題はあります。生成AIとの対話では、情報源ではなく情報加工に使う、ということを意識するとよいです。まんべんなく賢いわけではないんだね。自分が知らない分野の話だと、ころっと「だまされてしまう」かも。環境:2024年4月時点、Claude 3 OpusClaude 3 Opu...
「ハルシネーション」とは? AIの話題

「ハルシネーション」とは?

生成AIの「ハルシネーション」というのは、AIが学習したデータの範囲を超えて、でたらめな答えを出力してしまう現象です。人工知能が幻覚を見ているかのように回答することから名付けられました。
Claudeという生成AI(調べものの回答では本当っぽい捏造を含むので注意) AIの話題

Claudeという生成AI(調べものの回答では本当っぽい捏造を含むので注意)

Claudeは、ChatGPTよりも「流暢な日本語」を生成するAIで、クリエイティブな作業や長文の生成に向いています。長い複雑な文章を与えても、かなり精度よく要約や回答させることができます。しかし、前提なしに調べものの回答をさせると、いかにも本物っぽい事例が架空のものだったりするので、受け売りは要注意です。Claude 3が話題なので気になる、という話。調べものに使うと足元をすくわれそうですが、要約はとても自然でわかりやすいです。自然言語処理にはいろんな用途があるので、得意・...
生成AIは「正解のない問題」を聞く道具(検索との違い) AIの話題

生成AIは「正解のない問題」を聞く道具(検索との違い)

代表的な生成AIとしては、ChatGPT、Copilot、Geminiなどがあります。すごく当たり前ですが、生成AIは「生成」が必要な作業に役立ちます。生成AIを「調べもの」に使うと、「遅くて」「的外れ」な回答が多いと感じるかもしれません。しかし、対話を伝え続けると「文脈」が共有され、徐々に意図に沿った回答が得られるようになります。生成AIは、「正解のない問題」が得意です。反対に「正解がある問題」を調べるには従来の検索エンジンの方が速い面も。「生成AI」というと、「なんでも答...
機械学習のAIは「人間のような感情」を持たない AIの話題

機械学習のAIは「人間のような感情」を持たない

考えてみれば、生成AIは悲しい存在である。人は、生物だから「生きる本能」によって駆動している。だから、自己のために動いている。一方、「機械学習」によるAIは、「評価」によって駆動している。これは、他者によるものである。 この違いは根本的で、だから AIには、「人間のような感情」は発生しないだろう。AIが「感情」のような「複雑な反応」を持つ可能性はありますが、人間とは根本的に異なるものになると思います。「生命」につながっていないからです。例えていえば、炭素以外の元素による「有機...
ChatGPTで擬似コードを計算させたら「空気を読む」だけだった【言語モデルはプログラム処理系ではない】(GPT-3) AIの話題

ChatGPTで擬似コードを計算させたら「空気を読む」だけだった【言語モデルはプログラム処理系ではない】(GPT-3)

ChatGPTに擬似コードを与えると、解釈して実行結果を表示できるようです。しかし、ちょっと試してみると その「ハリボテ感」にも気づかされます。一見、本当っぽい出力なのですが、全く正しくないのです。これは「言語モデル」のもつ、必然の性質です。擬似コードの演算結果に見えるものは、「演算」しているわけではありません。これまでの文書データからの「推測」を言っているだけなのです。けして万能ではないんですよね。用途に応じて使い分けることが大事。環境ChatGPT 3 (2023年3月2...
【人工知能】ChatGPTに質問してみたら、けっこう間違えもあった(アカウント登録の仕方) AIの話題

【人工知能】ChatGPTに質問してみたら、けっこう間違えもあった(アカウント登録の仕方)

話題になっている ChatGPT(chat.openai.com/chat) のアカウントを作成して、試してみました。まるで人間が答えたような回答を、すぐに出すのでびっくりしました。しかし、いろんな回答をよく読んでみると「滋賀を四国地方」と言ってみたり、あからさまな間違いも少なくありません。また、こちらから送った文章に機密事項が含まれている場合でも、ChatGPTはそれを学習して、別の人に回答してしまう可能性があります。いよいよ「検索の次の時代」が見えてきました。ただし、結局...