- 逆説的ですが、生成AIの「規制」は、生成AIの発展に不可欠なのかもしれません。
- 生成AIと集合知は、相互にフィードバックする関係にあります。
- 生成AIを「野放し」にすると、遅かれ早かれ学習元の集合知を「食いつぶし」て、台無しにしてしまうリスクがあります。
- 両者が、持続可能な関係を維持するためには、野放しの「発展」ではなく、ある程度の「調整」が必要なのだと思います。
![生成AIが集合知を食いつぶすリスク](https://chiilabo.com/wp-content/uploads/2020/09/instructor-m.png)
資源と資本主義の関係と同じように見えます。
生成AIと集合知の関係がどのように発展していくか、そしてその中でどのようなリスクが存在するのかを考えます。
1. 生成AIと集合知の関係性
- 近年、生成AIの技術は目覚ましい進歩を遂げています。
- 生成AIは、集合知から学習し、人間のように情報や解決策を生み出します。
- しかし、この技術進歩がもたらす恩恵の一方で、集合知を食いつぶす潜在的なリスクも考えられます。
「集合知」は、多数の人々やシステムが協力し合い、共有する知識や情報を集約することで、個々のメンバーよりも優れた意思決定、イノベーション、問題解決を達成する能力を指します。
これには、オンラインフォーラム、ソーシャルメディア、wiki、オープンソースプロジェクトなどが含まれます。
生成AIと集合知の関係を、大きく三つの段階に分けて考えてみましょう。
- 初期:プラスの相乗効果
- 中期:情報の均質化・偏り
- 終末期:情報の劣化による自己破壊
段階 | 生成AI | 集合知 |
---|---|---|
初期段階 | 集合知から学習を始め、迅速な進歩を遂げ、新たな洞察と解決策を提供します。 | AIによる新しい洞察と解決策を通じて強化され、相乗効果の関係が促進されます。 |
中期段階 | 情報の均質化、個人の知識価値の減少、AI生成コンテンツのバイアスの懸念が出現します。 | 多様性と創造性の低下などの潜在的な負の影響に直面し始めます。 |
終末段階 | 集合知の劣化による自己破壊的なサイクルが発生し、AIの学習データの質と多様性が低下します。 | 大きく劣化するリスクがあり、AIにとって利用可能なデータの多様性と質が影響を受けます。 |
2. やがて食いつぶされる集合知
初期段階では、生成AIと集合知の間には相乗効果が見られます。
AIは集合知から学習し、その学習をもとに新たな洞察や解決策を提供します。
このフィードバックにより、集合知はさらに豊かになると期待できます。
![やがて食いつぶされる集合知](https://chiilabo.com/wp-content/uploads/2024/02/ai-robot-3.png)
今も、生成された情報の品質の問題はありますが、しばらくの間はどんどん改善される方向に進みそうです。
しかし、徐々に生成AIによるコンテンツの均質化や個人の知識価値の減少などの問題が顕在化します。
これを、中期段階と考えます。
AIが生み出す情報が集合知の多様性を損ね、創造性を阻害する恐れがあります。
さらに、AI生成コンテンツに含まれる潜在的なバイアスが、集合知を偏らせることにもつながりかねません。
これらの問題は、集合知の質と範囲に悪影響を及ぼす可能性があります。
![やがて食いつぶされる集合知](https://chiilabo.com/wp-content/uploads/2021/08/sakurotu-ga-ru2.jpg)
すでに、「SEO」、つまり検索エンジンへの「最適化」自体が、人間をAI的に振る舞わせていた面はあったとは思うけど……。
要は、一つの方向に「報酬」で引っ張る危うさだよね。
終末段階では、生成AIは集合知を食いつぶし、自己破壊的なサイクルに陥ります。
集合知の劣化が、生成AIが学習するデータの質と多様性を低下させ、結果としてAIの能力と有用性も低下させる可能性があるからです。
このような状況に至ると、AIの持続可能な発展は妨げられてしまいます。
![やがて食いつぶされる集合知](https://chiilabo.com/wp-content/uploads/2021/01/sakurotz-senior-male-2-1.png)
なんか、大量生産と環境破壊の流れと同じだね。
3. AIからの保護がAIを持続させる
AIの発展を進めるには、逆説的ながら集合知の保護を同時に進めるアプローチが必要です。
これは、SDGsのような考え方と同じです。
相互にフィードバックする生成AIと集合知が、持続可能な関係を維持するためには、野放しの「発展」ではなく、ある程度「調整」が必要なのです。
- 倫理的なAI開発の促進、多様なデータ収集の強調、AIリテラシーの推進は、集合知を強化し、AIの健全な発展を支える基盤にもなります。
- AIの影響の監視、AIの透明性と説明責任の保証は、情報の均質化やバイアスの問題に早期に対応するために重要です。
これらの措置によって、生成AIが集合知を食いつぶすのではなく、それを補完し、さらには強化する方向に導くことができるはず。
![AIからの保護がAIを持続させる](https://chiilabo.com/wp-content/uploads/2021/08/sakurotu-ga-ru2.jpg)
「生成AI」って、「集合知」を具現化したもののように思えたけど、自己完結できないのかもね。
![AIからの保護がAIを持続させる](https://chiilabo.com/wp-content/uploads/2024/02/ai-robot-3.png)
生成AIが集合知を食いつぶすリスクは、この技術の未来にとって重要な考慮事項です。
![生成AIは社内で「死蔵」されている情報を活用するのに使えるか?(Google検索アプライアンスの事例から)](https://chiilabo.com/wp-content/uploads/2024/01/image-1-21-320x198.jpg)
![機械学習のAIは「人間のような感情」を持たない](https://chiilabo.com/wp-content/uploads/2024/02/image-26-4-320x198.jpg)
![便利さの裏側で忘れられていく能力たち(生成AIとの付き合い方)](https://chiilabo.com/wp-content/uploads/2024/01/image-24-3-320x198.jpg)