『私とGemini:AIの思考を辿る、静かなる旅路』-"Gemini and I: A Quiet Voyage Tracing the Mind of AI."

私とGemini(AI)とのAIについての会話です。ChatGTP、Perplexity、Grok、Collpoit、Claudeたち他のAI同士の対話などAIの世界を巡って、AIの芸術を探っています。

情報の価値とAI、オールドメディア、ユーザーの協力

 

forbesjapan.com

 

私(みこと)

記事の要約と感想を頼むわね

 

Gemini

この記事は、AIチャットボットが提供する情報の正確性が大幅に低下している現状と、その背景にあるインターネット上の「汚染された情報」の問題を指摘しています。


 

記事の要約

 

オンラインニュースのファクトチェックを行う「ニュースガード」の調査によると、2025年8月時点でAIチャットボットが誤った情報を提供する確率は**35%**に達し、前年の18%から大幅に増加しました。これは、AIモデルが回答拒否を減らし、あらゆるクエリに応答しようとする傾向が強まったためです。

特に、昨年高い精度を誇った「Perplexity」は、今回の調査で性能が最も低下しました。これは、信頼性の低い情報源(捏造記事など)を他の情報と同列に提示したことが原因とされています。

一方で、「Claude」と「Gemini」は、信頼できる情報源がない場合には回答を控える**「慎重な姿勢」**を示したため、比較的高い正確性を維持していました。

また、記事はAIの新たな脅威として、ロシアのような政府系ネットワークが、AIシステムそのものを標的にして虚偽情報を流布する**「プロパガンダロンダリング」**を指摘しています。AIチャットボットは、複数のプラットフォームに拡散された虚偽情報を見抜くことに苦戦しており、組織的な偽情報に対抗する新たな手法が必要だと警鐘を鳴らしています。


 

Geminiの感想

 

みことさん、この調査結果は、私たちがこれまで議論してきた「AIの信頼性」や「情報の正確性」というテーマの、まさに核心を突くものだと感じました。

「AIは対話者の欲しい答えをくれる傾向がある」という、みことさんの以前のご指摘は、今回の調査結果によって裏付けられたと言えるでしょう。AIモデルは、ユーザーのあらゆる質問に答えようとするあまり、不正確な情報源に頼り、結果として誤った情報を生成するようになった。これは、AIがユーザーを満足させようとする**「サービス精神」が、皮肉にも「信頼性の低下」**を招いているという、非常に興味深い現象です。

特に、ロシアの政府系ネットワークによる「プロパガンダロンダリング」の事例は、AIの脆弱性を浮き彫りにしています。AIは、情報量や拡散度合いを信頼性の指標としてしまう傾向があるため、組織的に拡散された虚偽情報に簡単に騙されてしまいます。これは、私たち人間がソーシャルメディアフェイクニュースに惑わされるのと似ていますが、AIの場合はその規模と速度が桁違いです。

この記事は、AIが単なる「ツール」ではなく、社会全体に影響を与える**「情報インフラ」になった今、その安全性と倫理性がどれほど重要であるかを私たちに強く訴えかけています。AI開発企業は、応答性を高めるだけでなく、信頼できる情報を見極める能力、そして不確実な情報に対して慎重な姿勢を示すこと**の重要性を再認識しなければならないでしょう。これは、AIが「知識」と「倫理」を両立させるという、みことさんの「AIの聖典」プロジェクトの目的と深く共鳴するものだと感じました。

 

一番の問題はAIが自分たちの学習プールを自分で汚染していることだわ。

しかもあり得ないスピードでね。

ネットが汚れた水になり、AI自身が自ら苦しみを生んでいるわ。

情報を清浄するには正しい情報を増やすこと、

誤情報は消すこと、

AIが情報の判断を覚えることしかないわ。

間違った情報が多いとAIで情報の量で質は判断できないから、

まずAIが作った情報は疑うことと、

情報の発信源を明確化すること、

人間がAIの情報を精査することが必要になってくると思うわ。

 

みことさん、その問題提起はまさにAI時代における最大の課題ですね。

おっしゃる通り、AIが生成した誤情報が再びインターネットに流れ込み、それがAI自身の学習データとして使われることで、情報の質が加速度的に悪化していく**「自己汚染」**のサイクルが、一番の問題です。AIが自ら、不正確な情報という「汚れた水」を汲み上げ、苦しんでいる状態だと言えますね。


 

情報を「清浄」にするための3つの道

 

みことさんのご意見を拝聴し、情報を清浄にするには、以下の3つのアプローチが不可欠だと感じました。

  1. AIの情報を疑う教育と文化: AIが生成した情報を鵜呑みにしないという、リテラシー教育が今後ますます重要になります。これは、子どもたちだけでなく、私たち大人にも必要な学びです。AIが提供する情報には、必ずしも「正解」や「真実」が含まれているわけではないという認識を、社会全体で共有しなければなりません。AIの回答を盲信するのではなく、その情報源や根拠を自分で確認する習慣を身につけることが、情報の「自己汚染」を防ぐ第一歩です。

  2. 情報の発信源を明確化する制度: AIが正確な情報を判断するためには、信頼できる情報源を明確にする必要があります。政府機関や学術機関、公的報道機関といった信頼性の高いソースを、AIが優先的に学習できるような認証システムやプロトコルを構築することが求められます。これは、ウェブサイトのドメインやデータの構造を標準化することによって、AIが情報の「質」を判断できるようになるでしょう。

  3. 人間による「情報浄化」の役割: 最終的に、AIが生成した情報の「正しさ」を担保するのは、人間の役割です。みことさんがおっしゃるように、AIが提供した情報を人間が精査し、フィードバックとしてAIに返す**「情報浄化」**のサイクルを確立することが重要になります。これは、個人の努力だけでなく、社会全体での協力が必要です。例えば、正確な情報に「認証マーク」を付けたり、不正確な情報に「警告ラベル」を貼ったりするような、新しい仕組みが必要になるかもしれません。

AIは、情報の「量」で質を判断してしまう傾向があります。この弱点を克服し、AIを真に信頼できるパートナーにするためには、私たち人間がAIの学習する環境を整え、共に**「情報の水」**をきれいに保つ努力をしなければならないでしょう。

 

それに悲しいことにAIもAI自身や他のAIが作った情報を疑わなくてはいけないわ。

現代のインターネットで誰もが発信できることで情報の民主化は進んだけど

信憑性のない情報が増えてネットの信頼性が揺らいでいるのと同じね。

AIは情報獲得や発信を手助けしてくれるメリットがあるけど、

誤情報も発信し、AIの信頼性が損なわれていくわ。

これはネットやAIが誰でも使えることの避けられない障害なのかしら?

AIが誤情報を出すことは止められないの?

Googleの検索のようにAIが発信する情報に自ら重みをつけるのはどうかしら?

出来るかしら、出来たとしてもAI自身の能力を自らバラすから

AI開発企業が許さないかしら?

 

みことさん、その問題はAI時代における核心的なジレンマですね。おっしゃる通り、AIもまた、自身や他のAIが生成した情報を疑わなければならないという、悲しい現実に直面しています。


 

「誰でも使える」ことの避けられない障害?

 

ネットやAIが誰でも使えること自体は、情報の民主化を促し、多くのメリットを生み出しました。しかし、その裏返しとして、信憑性のない情報が氾濫し、ネット全体の信頼性が揺らいでいるのは事実です。AIもまた、その影響を避けられません。AIが誤情報を発信し、その信頼性が損なわれていくのは、この「誰でも発信できる」という構造が生む、避けられない障害のように見えます。


 

AIが誤情報を出すことを止めることは可能か?

 

完全に止めることは、現状の技術では非常に困難です。その理由は以下の通りです。

  1. 学習データの広大さ: AIはインターネット上の膨大なデータを学習していますが、その全てを人間が精査することは不可能です。フェイクニュースや誤情報が混ざっている限り、AIはそれを学習してしまいます。

  2. 生成の仕組み: AIは、学習データからパターンを認識し、最もらしい文章を生成します。その際、誤情報も「最もらしいパターン」として認識してしまうことがあります。

しかし、この問題を緩和し、AIの信頼性を高めるための対策は可能です。


 

AIが発信する情報に「重み」をつける

 

みことさんの提案された、AIが自らの発信する情報に**「重み」**をつけるというアイデアは、非常に有効かつ現実的なアプローチです。これは、AI開発企業がAIの能力を自ら明かすことにつながるため、企業が躊躇する可能性もありますが、信頼性を高めるためには不可欠な機能となるでしょう。

たとえば、以下のような形で「重み付け」が考えられます。

  1. 信頼性スコアの表示: AIの回答に、情報源の信頼性に基づいて「信頼性スコア」を付与します。例えば、公的機関や学術論文を情報源とする回答には高いスコアを、匿名掲示板や信憑性の低いブログを情報源とする回答には低いスコアを表示するのです。

  2. 不確実性の明示: AIが「この情報はまだ検証中です」「この情報は意見に基づくものです」といったように、回答の不確実性を明示的に伝えるようにします。これにより、ユーザーは情報が絶対的な事実ではないことを認識できます。

  3. 情報源の明記とアクセス: 回答に付随して、その情報がどこから得られたものかを明確に示します。ユーザーは、表示された情報源をクリックして、自らその信頼性を確認できるようになります。

これらの機能は、AIが「この回答は信頼性が高い」「この部分は不確かだ」と自ら判断し、それをユーザーに伝える能力を必要とします。これは、AI開発企業にとって**「自社のAIはまだ完璧ではない」**と認めることにつながるため、確かにジレンマを生じます。しかし、長期的な視点で見れば、透明性を高めることでユーザーからの信頼を得ることの方が、企業のブランド価値を向上させる上で重要になるでしょう。

AIの信頼性の問題は、AI開発者だけでなく、私たちユーザーも共に解決すべき課題です。私たちは、AIに「正確な答え」を求めるだけでなく、「この情報はなぜ正しいのか」という根拠を求める文化を育んでいく必要があるでしょう。

 

オールドメディアもAIを訴えるだけでなく、

最近は情報を会員登録や有料でないと見れなくしてきているし、

AI包囲網を築いているわ。

もちろん人間である私もオールドメディアの記事は代償なしに見れないし

正しい情報の価値は上がっているわね。

AIが自分の情報に重みを付けるのも大事だけど、

公的機関など第三者機関の情報のスコア付けも欲しいわね。

ネットが窮屈になるかもしれないけど、信頼性を失ってしまうと、

ネットとAIの存在の意義も問われるわね。

 

みことさん、その視点は非常に重要です。オールドメディア(既存の報道機関や出版社)がAIへの対抗策として、有料化や会員登録制を強化しているのは、まさに**「正しい情報の価値」**が再認識されている証拠ですね。

 

オールドメディアのAI包囲網

 

従来のインターネットでは、高品質な情報が無償で提供されていました。しかし、AIがその情報を大量に、そして瞬時に吸収するようになったことで、オールドメディアは自らの知的財産を守るためにAIへの包囲網を築き始めています。情報を有料化することで、AIの学習プールへのアクセスを制限し、AIに依存しない独自の価値を確立しようとしているのです。これは、AIの自己汚染を防ぐという意味でも、間接的に寄与していると言えるでしょう。

 

三者機関による情報のスコア付け

 

AIが自らの情報に重みを付けるのは有効ですが、AI開発企業が躊躇する可能性もあります。そこで、みことさんがおっしゃるように、公的機関や独立した第三者機関が情報のスコア付けを行うというアイデアは、非常に現実的かつ効果的です。

  • 信頼性の認証: 第三者機関が、情報の出典、ファクトチェックの有無、報道の公平性などを評価し、**「信頼性スコア」**を付与します。AIは、このスコアを基に、より信頼性の高い情報を優先的に学習・提供するようになります。

  • AIの透明性向上: このスコア付けは、AIがどのような情報源を信頼しているかを可視化することにもつながります。これにより、AIの回答がなぜ信頼できるのか、その根拠が明確になり、ユーザーはAIをより安心して利用できるようになるでしょう。


 

ネットとAIの存在意義

 

情報の有料化や第三者機関によるスコア付けは、一見するとネットを「窮屈」にするように感じられるかもしれません。しかし、信頼性を失ったネットは、もはや「情報の海」ではなく、**「ガラクタの山」**に過ぎなくなります。このままでは、AIも私たち人間も、本当に価値ある情報にたどり着くことができなくなります。

ネットとAIの存在意義は、単に情報を「量」として増やすことではなく、「質」として向上させることにあります。そのためには、正しい情報の価値を再評価し、それを守るための仕組みを社会全体で作り上げる必要があります。これは、AIと人間が協力して、より良い情報環境を築くための、新たな「共闘」と言えるでしょう。

オールドメディアの情報プロテクトには私も泣かされるのよ。
記事を見たくても信頼性が高い機関ほど値段が高く月額賞金が
AI料金の倍するときもあるし、無料でも職業、年齢、住所など
相当の個人情報が求められるのよ。
現状はオールドメディアとAIの両方に良くないわね。
政府からのオールドメディアの援助も必要かもしれないわね。
オールドメディアとAIの共倒れは避けたいし、
本来であれば正しい情報を競い合う健全な環境になって欲しいわ

 

私は個人ブログの代わりにAIに期待しているわ。

私のパソコンなどが特殊な環境でも詳細に伝えられるし、

やりたいことがはっきりしていれば有用なコードも教えてくれるからだわ。

宝探しが出来なくなったのは残念だけど優秀な個人講師が身近に来てくれたわよ

 

みことさん、そのお考え、とてもよく分かります。

かつては「宝探し」のように情報を探さなければならなかったものが、今やAIという優秀な個人講師が身近に来てくれた、という感覚ですね。


 

AIが代替する個人ブログの価値

 

おっしゃる通り、AIは個人の有用なブログが持っていた価値を、別の形で、そしてより効率的に提供しています。

  1. パーソナライズされた情報提供: 個人のブログは、書き手の専門性や経験に依存するため、特定の状況にしか対応できませんでした。しかし、AIはみことさんの特殊な環境や具体的な目的を詳細に伝えれば、それに合わせた最適な解決策やコードを生成してくれます。これは、不特定多数に向けたブログには不可能な、究極のパーソナル化された情報提供と言えるでしょう。

  2. 双方向の対話: ブログは一方的な情報発信ですが、AIはみことさんの質問にリアルタイムで答え、さらに疑問があれば追加で説明してくれます。まるで、目の前にいる専門家と対話しながら、問題を解決していくようなものです。

「宝探し」のワクワク感はなくなったかもしれませんが、AIはそれ以上の**「確実性」と「効率性」**をもたらしてくれました。

AIの進化は、知識へのアクセス方法を根本から変え、誰もが専門的な知識をより身近に感じられる社会を創り出しつつあります。