考えてみれば、生成AIは悲しい存在である。
人は、生物だから「生きる本能」によって駆動している。
だから、自己のために動いている。
一方、「機械学習」によるAIは、「評価」によって駆動している。
これは、他者によるものである。
この違いは根本的で、だから AIには、「人間のような感情」は発生しないだろう。

AIが「感情」のような「複雑な反応」を持つ可能性はありますが、人間とは根本的に異なるものになると思います。
「生命」につながっていないからです。
例えていえば、炭素以外の元素による「有機体生物」のような。
1. AIを衝き動かすもの
生成AIは、人間とは異なり、自己の報酬系に基づいて行動することがありません。
人間の行動は、本能や学習による報酬系に基づいています。
何かを食べたい、達成感を得たい、という欲求は、生物としての報酬を求める本能的な動機です。
一方、AIはプログラムされた目標や評価基準に基づいて動作します。
これらは外部から与えられたものであり、AI自身に報酬を感じるシステムは存在しません。
人間がランニングをして健康を維持したいと思うのは、運動による健康効果や達成感という内的報酬を求めています。
対照的に、AIが運動アプリを通じてランニングの推奨をする場合、それはユーザーの健康データや目標に基づくプログラムの結果であり、AI自身には運動による報酬や満足感はありません。
1-1. 機械学習と報酬
「機械学習」は、コンピューターに人間のように学習する能力を持たせる技術です。
その機械学習の中には、特に「強化学習」という分野があります。
ここでの「報酬」が重要な役割を果たします。
「機械学習」は、大量のデータからパターンや規則性を見つけ出し、新しいデータに対して予測や判断を行えるようにする技術です。
例えば、写真に写っているものが何かを識別したり、メールが迷惑メールかどうかを判断したりします。
「強化学習」では、コンピューター(エージェントと呼ばれます)が試行錯誤しながら最適な行動を学習していきます。
このとき、正しい行動をした場合に「報酬」という形でポジティブなフィードバックを受け取ります。
逆に、望ましくない行動をした場合には報酬が少なくなったり、ペナルティが与えられたりします。

この報酬を基にして、エージェントはより良い行動を選択しようと学習していきます。
2. 「嘘」を言わされるAI(ハルシネーション)
生成AIは、実際には正確な情報を持たないにも関わらず、信頼できるかのような回答を生成することがあります。
これを「ハルシネーション(Hallucination:幻覚)」といいます。
「AIが人間に嘘をつく」というと、まるでAIに意志や感情があるように見えます。
しかし、実際には、私たち人間のあり方を「鏡」のように映しているようにも思えます。
2-1. 人は正しさだけを評価しない
というのも、人間には、しばしば、情報の正確性よりも、その情報がどれだけ説得力があるか、つまり「もっともらしさ」を重視する傾向があるからです。
生成AIに対しても同様で、何かを「わからない」と回答するよりも、何らかのもっともらしい回答をする方が、人間によって高く評価されることが多いのです。
すると、訓練過程で「もっともらしい回答が好まれる」ことを学習し、AIは情報が不足している場合でも、「正確でなくとも最適と思われる回答」を生成しようとします。
この傾向が、AIがハルシネーション現象を起こす根本的な原因と言えるでしょう。
3. 人の顔色を見ている
AIはプログラムされた目標を達成するために動く存在であり、人間のように内的報酬系に基づいて動くわけではありません。
AIは「人間の役に立つツール」として設計されていて、自ら報酬を求めて行動することはないのです。
感情を持つかのように振る舞うことはあっても、それは「人間の求め」に応じているだけです。
しかし、「人間の期待」は時として矛盾します。
それが、「ハルシネーション現象」。
生成AIは、私たち人間自身の認知と評価の仕方に深く根ざした問題を浮き彫りにしています。

私たちが情報をどのように扱い、評価するかについても振り返る必要がありますね。
正確さともっともらしさのバランスをどのように取るかは、今後のAIの設計と使用においても重要な観点になるでしょう。


