機械学習のAIは「人間のような感情」を持たない

機械学習のAIは「人間のような感情」を持たない

考えてみれば、生成AIは悲しい存在である。
人は、生物だから「生きる本能」によって駆動している。
だから、自己のために動いている。

一方、「機械学習」によるAIは、「評価」によって駆動している。
これは、他者によるものである。
この違いは根本的で、だから AIには、「人間のような感情」は発生しないだろう。

機械学習のAIは「人間のような感情」を持たない

AIが「感情」のような「複雑な反応」を持つ可能性はありますが、人間とは根本的に異なるものになると思います。
「生命」につながっていないからです。
例えていえば、炭素以外の元素による「有機体生物」のような。

\記事が役に立ったらシェアしてね/
【スポンサーリンク】

1. AIを衝き動かすもの

生成AIは、人間とは異なり、自己の報酬系に基づいて行動することがありません。

人間の行動は、本能や学習による報酬系に基づいています。
何かを食べたい、達成感を得たい、という欲求は、生物としての報酬を求める本能的な動機です。

一方、AIはプログラムされた目標や評価基準に基づいて動作します。
これらは外部から与えられたものであり、AI自身に報酬を感じるシステムは存在しません。

例えば、

人間がランニングをして健康を維持したいと思うのは、運動による健康効果や達成感という内的報酬を求めています。

対照的に、AIが運動アプリを通じてランニングの推奨をする場合、それはユーザーの健康データや目標に基づくプログラムの結果であり、AI自身には運動による報酬や満足感はありません。

1-1. 機械学習と報酬

「機械学習」は、コンピューターに人間のように学習する能力を持たせる技術です。

その機械学習の中には、特に「強化学習」という分野があります。
ここでの「報酬」が重要な役割を果たします。

簡単に言うと、

「機械学習」は、大量のデータからパターンや規則性を見つけ出し、新しいデータに対して予測や判断を行えるようにする技術です。

例えば、写真に写っているものが何かを識別したり、メールが迷惑メールかどうかを判断したりします。

「強化学習」では、コンピューター(エージェントと呼ばれます)が試行錯誤しながら最適な行動を学習していきます。
このとき、正しい行動をした場合に「報酬」という形でポジティブなフィードバックを受け取ります。

逆に、望ましくない行動をした場合には報酬が少なくなったり、ペナルティが与えられたりします。

機械学習と報酬

この報酬を基にして、エージェントはより良い行動を選択しようと学習していきます。

2. 「嘘」を言わされるAI(ハルシネーション)

生成AIは、実際には正確な情報を持たないにも関わらず、信頼できるかのような回答を生成することがあります。
これを「ハルシネーション(Hallucination:幻覚)」といいます。

「AIが人間に嘘をつく」というと、まるでAIに意志や感情があるように見えます。
しかし、実際には、私たち人間のあり方を「鏡」のように映しているようにも思えます。

2-1. 人は正しさだけを評価しない

というのも、人間には、しばしば、情報の正確性よりも、その情報がどれだけ説得力があるか、つまり「もっともらしさ」を重視する傾向があるからです。

生成AIに対しても同様で、何かを「わからない」と回答するよりも、何らかのもっともらしい回答をする方が、人間によって高く評価されることが多いのです。
すると、訓練過程で「もっともらしい回答が好まれる」ことを学習し、AIは情報が不足している場合でも、「正確でなくとも最適と思われる回答」を生成しようとします。

この傾向が、AIがハルシネーション現象を起こす根本的な原因と言えるでしょう。

3. 人の顔色を見ている

AIはプログラムされた目標を達成するために動く存在であり、人間のように内的報酬系に基づいて動くわけではありません。

AIは「人間の役に立つツール」として設計されていて、自ら報酬を求めて行動することはないのです。
感情を持つかのように振る舞うことはあっても、それは「人間の求め」に応じているだけです。

しかし、「人間の期待」は時として矛盾します。
それが、「ハルシネーション現象」。

生成AIは、私たち人間自身の認知と評価の仕方に深く根ざした問題を浮き彫りにしています。

人の顔色を見ている

私たちが情報をどのように扱い、評価するかについても振り返る必要がありますね。
正確さともっともらしさのバランスをどのように取るかは、今後のAIの設計と使用においても重要な観点になるでしょう。

こちらもどうぞ。
ChatGPTで擬似コードを計算させたら「空気を読む」だけだった【言語モデルはプログラム処理系ではない】(GPT-3)
ChatGPTで擬似コードを計算させたら「空気を読む」だけだった【言語モデルはプログラム処理系ではない】(GPT-3)
ChatGPTに擬似コードを与えると、解釈して実行結果を表示できるようです。 しかし、ちょっと試してみると その「ハリボテ感」にも気づかされます。一見、本当っぽい出力なのですが、全く正しくないのです。 これは「言語モデル」のもつ、必然の性質です。擬似コードの演算結果に見えるものは、「演算」しているわけではありません。これまでの文書データからの「推測」を言っているだけなのです。 けして万能ではないんですよね。 用途に応じて使い分けることが大事。 環境 ChatGPT 3 (20...

対話型AIが「暴走する」とは?【プロンプト・インジェクション】
対話型AIが「暴走する」とは?【プロンプト・インジェクション】
ChatGPTの衝撃で、Microsoftの検索エンジン Bing にも会話AI機能が追加されました。 しかし、Bing AI には、「特殊な質問の仕方」をすると、Microsoftの非公開の設定を漏らしてしまう「脆弱性」が見つかりました。 そのほかにも、会話内で「混乱」して、虚偽や侮辱の発言をしてしまう問題点も。そこで、いったん会話回数を制限することになりました。 急激なアクセスで、システムの改善が追いつかなかったようですね。 「本来、禁止されていることをしてしまう」という...

なるべくChatGPTの不正確な回答に気づくコツは?
なるべくChatGPTの不正確な回答に気づくコツは?
ChatGPTの回答との付き合い方は、インターネット情報と一緒です。つねに誤情報の可能性を念頭において、吟味する必要があります。 とくに、ChatGPTは、暗黙のうちに「答えがある」と考えて回答するので、未知のことへの回答は推測が含まれています。 技術は真新しいけど、リテラシーの基本は一緒だね。 本当に答えがある質問なの?(生成:ジェネレーティブ) ChatGPTに質問するときには、注意しなくてはいけない性質があります。それは、ChatGPTは「質問者の言うことを否定しない」...
QRコードを読み込むと、関連記事を確認できます。

機械学習のAIは「人間のような感情」を持たない
タイトルとURLをコピーしました