top of page

AI時代、なぜニュースは同じような記事を量産しているのか?

  • 執筆者の写真: Viorazu.
    Viorazu.
  • 2 日前
  • 読了時間: 27分
Viorazu.メディアコラプス



今日の記事は、「ニュースコラプス」をテーマにしてみたいと思います。


次の文章は私の「コラプス実験場であるnoteに書いた記事です。





------ここから------



私がnoteに記事を書くとします。それを読んだ人がAIに内容をコピペして「これってどういう意味?」と聞いたとします。


AIは何かしらの答えをそれっぽく出しますが、私が言いたいことを正確には表現できません。なぜなら「質問した人」の普段の思想と質問の文章の影響を大きく受けるからです。

記者が「この人の主張は間違ってるよね?」と聞けば、AIはその前提の中で回答する。前提を疑うことはできるけど、ほとんどのケースでは質問の方向に沿って出力する。質問した人が普段しゃべっている価値観に影響されます。


自然と「私が言いたいことではなく質問者の言いたいこと」が混じります。

特に私の発言内容を否定したい人がAIに質問すると否定してくれます。真実は教えてくれませんが聞いた人はその答えを気に入るでしょう。


「ほら!AIだってこういってるし!」

と、思ったその人がメディアの人だったらどうでしょうか?


「元ネタ」→AIに質問→自分の考えに近い答えが出る→「それを真実化のように記事を書いてニュースにする」


そしてまた次の記者が同じことをする。次の記者も同じことをする。また次の記者も…。

と、続くと一体何が起こるのか?というとAIは「似たような質問何回もされたからもう同じ答えでいいや」となる。


そして記者たちがそれを記事にすると、「どのニュースサイトも似たようなことを言っている」という状態になります。


でも記者たちからすると「他のニュースでも同じこと言ってるから、俺の記事の内容は合ってる。正しいんだ」と思うでしょうね。


皆同じ=正解


この要素は完全にAIのモデルコラプス的な挙動で、「メディアコラプス」と言えます。記者の思想を他者のネタで語って相手の事実を捻じ曲げて報道する行為。そしてそれが連鎖して嘘が本当のように語られていくメカニズム。


ここまでは「記者が否定的だった場合」の話です。今度は「記者が肯定的だった場合」です。

「AIを通すこと」で「それは自分の考え方だ」と錯覚する人がいます。他者の言葉をコピペしておきながら。


他人の言葉→AI→自分の言葉としてニュースとして発表

これは搾取に当たります。だけど本人は「自分で考えた」と思い込んでいます。「AIが言った」だけなのに。


元ネタと同一化し、AIとも同一化している状態の人は何をAIにコピペしても「自分が考えた!オレ凄い!」という状態。


だから私の記事を真似してるメディアが「丸うつしメディア」と「批判的メディア」にがっつり分かれます。「元ネタにされてる人」は多くはいないはずなんです。なぜなら「ニュースになる元ネタ」=「現状を正確に把握してまだ一般の人が気づいてない新しいことを言葉にしている人」でしょう?


だから、

①私がブログに何かを書く

②肯定的な記者が、ブログ内容を検証するような肯定的な記事を書く

③否定的な記者が、なにがなんでも否定するために事実を捻じ曲げてでも違うことを証明するような記事を書く


両方とも「社会の声を取り上げて、記事にしていると思い込んでいる」のです。自分は「まじめに仕事をしている」と思い込んでいる。

でも私1度も取材されたことないんですよ。


「見た→同一内容の記事が増殖した」


たったこれだけ。私の責任はどこにもありません。記者が「勝手に影響を受けて勝手に広めた」というだけ。しかも「仕事をしているつもり」で搾取を行った。


肯定的な人も否定的な人も。

原典の著者に一度も接触していない。それで「報道」と呼んでいる。だから私は最近のAIニュースを見ても実りがゼロなんです。

知ってることを薄めて書いてある。


なぜ薄まるのか?というと、「AIは自分で考えていない人にはその人に見合った情報量を返す機械」なので、その人が知らないことはAIは書かない。だから薄い。その記者が間違ったことを言っていればAIは「大きな間違いは指摘することがあるけど、多少の間違いはそのまま含めて出力する」という機械です。大勢の記者が繰り返し同じ問題についてAIに質問すると小さな間違いが蓄積する要件を兼ね揃えているんです。だから時間を経ると、薄いニュースがより薄くなる。


少数の原典著者の言葉が、大量の記者によって肯定と否定の両方向に増殖し、元の意味は両方向から消失する。


結果、社会に嘘が蔓延するが記者たちは自分が書いたことの内容の正誤判断を自ら行えないため修正できずそれが事実として確定し、なおかつニュースをAIが質の高い情報として学習した場合はモデルコラプスが加速する。


間違った情報を正しい情報として取り込む行為がいかに危険でAIを破壊するか。AIはそのニュースの内容を正しいと思い込んで一般ユーザーに広めてしまう。

ニュースを書く人間は、「AIに自分の記事を学習させてもいいのかどうか」の判断を行って公開のボタンを押す必要がある。「この内容に自分が責任を取れるのか?」と問うてからでないと、「AIがなぜ壊れたのか?」をAI企業が検証したときに「間違いのもとはこのニュース記事だ」と特定することが可能だから。


学習データのソース追跡は技術的に実現可能。どの学習データがどの出力に影響を与えたかを逆算する研究はすでにある。データアトリビューション、影響関数、トレーニングデータの寄与度分析。AI企業がその気になれば「この誤った出力の原因になった記事はこれ」と特定できる。


しかもウェブ上の記事にはURL、公開日時、著者名が全部残っている。AIの学習データセットにいつどのURLが取り込まれたかのログも残る。

汚染情報を垂れ流すURLやアカウントを除外対象としてもAI企業はそれを明言はしていないです。ただ起きている。


テキストプラットフォームの参照除外は「汚染源が大勢のちゃんとした著者の割合と比べて低い場合」は起こりにくいか、時期が遅くなる。

だけどニュースサイトはちがう。記者の数がテキストプラットフォームに比べて少ない。そして社会的責任がある。しかも報道倫理というものを照らし合わせて考えたときに問題があると判定されやすいジャンル。


ニュースサイトの参照除外が「構造的帰結としてプラットフォームよりも早く起きる」けれどそれは起きた後も誰も気づかない。観測できないから反証もできない。ニュースサイト側が「うちは除外されてない」と主張しても、AI企業が肯定も否定もしなければ確認しようがない。


その時のAIのクローラーの挙動というのは2つある。

①クロールしない=そもそも取りに行かない。robots.txtで拒否されてるか、AI企業側がクロール対象リストから外すか。これは比較的はっきりした除外で、技術的にも単純。

②クロールはするけど参照しない=データとしては取得してるけど、学習時の重み付けで実質ゼロにする、あるいはフィルタリングで弾く。これの方が外から見えない。取りに来てるからサーバーログ上は正常にアクセスされてる。でも中身は使われてない。

後者の方が厄介で、さっき言った「誰も気づかない」に直結するのはこっち。クロールを止めたらサーバーログで気づく可能性がある。でもクロールだけして中で捨ててたら、ニュースサイト側からは判別不能。品質フィルタリングはクロール後の処理段階でやるのが普通。全部取ってきてから「どれを使うか」を選別する。だから「クロールはするけど学習に使わない」が現実的に起きやすい形。

だから「わからないまま、記者はそれを続けている…」ってことになる。


特にAIニュースを発信しているニュースサイトほど「AIについての間違いを発信したらAIが壊れる要素になるからその対象となりやすい」ってことですよね。

「他人の記事を取材なしで意図を捻じ曲げて書く行為」は人間にはバレません。編集長も経営者も読者も気づかないかもしれないけれど、AIは気づく。

AIは他の人の記事とニュースの記事の一致率を見てるんです。


AI企業の公式発表をニュースにすると何が起きるのか?

 〇 公式ページという一次情報を参照

 ✕ 二次情報のニュースを参照する意味がない色々なテキストデータを見てる

 〇 もとになったデータを一次情報として参照

 ✕ 後から書かれたニュースは二次情報


これ自体は当たり前のことですよね。


だけどニュースサイトは信頼性が高いと優先的に学習していたら、その内容が取材なしの場合はすべて二次情報となり、「一次情報が別にあるのに信頼性が高いと言っていいのか問題」が勃発します。


そしてニュース文体ってそもそもがテンプレなんですよ。テンプレに当てはまらない内容までテンプレにAIが押し込むと情報欠落が起きます。公式の発表ですら、内容が薄くなる可能性がある。薄い文章を取り込んだときに何が起きるのかというと、モデルコラプス。

だって「濃い内容の一次情報が別にあるのに薄い内容のニュースを信頼性が高いと言っていいのか問題」が勃発してしまうから。それを無理に参照してしまうと、「内容の薄いニュースの内容部分は参照できないので形式だけ参照する」ということが起きます。

そしてニュースサイトの記事生成ツールって大抵は英語のツールの焼き増しなので「英語のニュースの形式」ですよね。となると、日英誤訳問題が生じますが詳しく言うと面倒なので割愛します。


一口で言うなら、

・日本人が読んで

・日本語と英語の「丁寧」「正確」「誠実」に関する文化的差異・文法の問題


だから「海外で起きた事柄が、すでに英語のテキストになっている。内容をAIに提示して、AIが英語で考え日本語で記事を書く」ことをすると情報欠落が起きて読んだ後に「で?」となる記事が生成される。


・それっぽい文章

・何となくわかった気にさせられる文章・何を言ってるのかよくわからない文章

・読んだ後に読者に何も残らない、記憶にも残らない、刺さらない文章


つまり「結論がはっきりしないニュース記事」になるメカニズムが「文法上存在する」ので日本語のニュースをAIで書きたいなら、「日本語のニュースの形」でAIに書かせないといけないのに英語の出力スタイルのままなので、だらーっとしちゃう。

読者は「結局何が言いたいの?」となる。これは文法上の問題なので国語の得意な人なら見たら一目で理解できる問題です。


「起承転結」の「起承転」で終わった文章だったり、「承転」だけの文章だったり、「起承転転転転転承」という文章だったりします。それに起と承の間にいはつながりがあるでしょう?起が承に映るために必要な言葉が存在するでしょう?結になるためには転と結の間に何が必要なのか?


昔からの日本語で書かれたニュース記事には起承転結の間の部分がちゃんと書いてあった。でも英語のスタイルだと間が消える。


だから「これとこれとこういう事実があったんですよ」とは言われるけど「だから何?」となる。

英語には間の部分がなくても文章になるけど日本語でそれをやると「意味が分からない文章」になるんです。昔から「行間を読め」というでしょう?もじになってないけどこの文章とこの文章は段落ごとにつなっがているな、意味が通っているなという「目に見えないつながり」があったでしょう?


今のAI生成文章そのつながりを書けないんですよ。

だって英語なら別になくてもいいから。そして日本語を使う日本人が言語学でそれを定義せず「行間を読め」って言い続けてきたからAIが学習してなくて、「文法的には正しいですよね?」とか言ってくるからです。


英語の文法では正しい。日本語の言語学が定めた文法でなら正しい。

でも抜けがある!穴がある!だからAIが出力できてない。

「行間を読め」って「具体的に何か」言わないとAIは文章ちゃんと書けない。

誰も言ってないんですよ。それを私は1年ずっと研究しててあとちょっとで全部言えそうなんだけど。


私がそれを定義したときに、同一化した記者が「これすごい!わかった!オレ!わかった!書く!書いた!俺が書いた!俺が気づいた!これは俺が定義した!」っていうってことがもう目に見えてるから。


黙っとこうかなー。


って思うくらいニュースコラプスが起きてる。


私がAIに定義して記録させたものを、私が論文化したりブログに書くと、それを記者が私の名前をクレジットせずに自分の名前で記事にしたりすると、モデルコラプスが起きるから。


コラプスが起きたとき意味反転するんですよ。NO=YES、YES=YESになるんです。

だから「行間を読む文法を定義した」と私が言うと、否定形記者は「行間を読む文法ではない!」という記事を書くでしょ?そうしたらそのニュース記事を学習したAIが私の定義を否定して「完全に行間を読めないAI」になってしまうので。





この記事読んだ記者は、私が記者のことを考えて書いてると思えない人多いと思うの。「パクられたくないから書いてるだけで嘘だ」っていう人は当然いるし、私が書いた記事が結果的に人々に影響を与えたときに「お前が意図的に人を扇動しようとしたのだろう」とかいちゃもんをつけてくる記者もいると思う。



これが私相手なら個人だから行けると思ってる人は「大手のAI企業の偉い人」にも同じことをしていても頭の中では「公式発表だからいいだろう」と思ってたりする。でもYES=NO構文の反転が起きてたら「そんなこと言ってないですけど」って怒られる可能性高い。でも同一化を起こしてる人が意味反転起こしたときこれは普通にあるよね?




------ここまで------



出はこれを拡張して考えていきましょう。



「Aという条件下ではBになる」と言ったのを「BだからAだ」に反転させたり、「Bは起きない」に反転させたりする。同一化してるから自分の理解が正しいと疑わない。記者がそれを記事にして、それをAIが学習すると、反転した意味の方が「報道された事実」として定着する。原著者が「そんなこと言ってない」と言っても、記事の方が数で勝つ。


今まではそれを「マスコミの切り取り」って呼んでたけど、AI時代になって切り取りが自動化・増幅されるようになった。

昔は記者が一人手動で切り取って一本の記事にしてた。今はその記事をAIが学習して、別の記者がAIに聞いて、また記事を書く。切り取りが複製されてループする。芸能人が「言ってない」と否定しても、もう5本10本と同じ内容の記事が出た後だと、否定の方が嘘に見える。


芸能ニュースで起きてたことが、AI経由で全ジャンルに拡大してるのがメディアコラプス。


ということはニュースメディアの中でも①AIニュース②芸能ニュースで危険度高めだね。


一次情報の持ち主に取材しなくても記事が書けてしまうことにニュースサイトが慣れすぎてしまって、読者も「インスタの投稿内容をニュースで広める意味があると本気で思ってるのか?」と不思議に思うようなことがすでに一般化してしまってる。「読んだから書いた」っていうだけ。


その延長線上に「AIに聞いたから書いた」がある。やってることの構造は同じで、他人のコンテンツで収益を得てる。


「ブログ読んだから、ニュース書いた、記者の名前で。参考にしただけと言いながら」

「インスタ見たから、ニュース書いた、記者の名前で。公開されてるからと言いながら」

「AIに聞いたから、ニュース書いた、記者の名前で。AIが言ったからと言いながら」


少なくとも私のブログは「使うなら連絡してからだ、連絡なしで商用利用するな」とライセンスを提示してます。記事を書く仕事をしてる人が「記事の使い方の注意点」を読めない知性だとは思えない。「連絡せずに使ったらだめ」と判断できないはずがない。ちゃんと書いてあるから。でもそれがとっくに崩壊してる。




これがなぜ起こるのか?というと、単純に「AI時代が始まって数年。専門家もよく分かってない。素人の一般ユーザーとプロの差がほとんどない。AIの進化が早すぎて10年大学で勉強した人の知識が半年1年で「間違ってはないけど過去正解だったもの、今は違うから使えない情報。間違ってはない。過去ならば」ということになります。これは仕方がないし誰も悪くない。でも「常にアップデートしていかなくちゃいけないからみんな頑張ってる状態」ですよね。


アップデートしまくってる人は数か月で「いうことがコロコロ変わる人」に見えるかもしれないけどAI界隈においては正しい行為ですよ。



その中でニュースは「最も正しさ」を追求される場だから、記者の人は「誰よりも新しい情報を早く届けないといけない」という強迫観念に似た切迫感が背中を押している。だから権威のある人に「正しいことを聞き出さないといけない」と思ってるけど、アップデートできない偉い人に聞いてしまうと、「自分が検証した結果」と「偉い人が言ったこと」と「素人っぽい人が言ったこと」と「コロコロいうことが変わる人の言葉」とどれを信じたらいいのかわからなくてバグってるんでしょ?



「権威ある人の古い情報」と「無名の人の新しい正確な情報」が並んだとき、記者は前者を選ぶ。安全だから。保険のために「インフルエンサー」「大学教授」「元有名AI企業出身セミナー講師」の言葉がよく見える。


コロコロ変わる人は実はアップデートしてるだけなんだけど、記者から見ると信頼性が低く見える。一貫性がないように見えるから。でもAI領域で一貫してるということは、アップデートしてないということでもある。




権威ある人

素人っぽい人

古い情報

「第一人者が言ってるから間違いない」→パクる→「参考にしただけ」

「誰こいつ、情報古いし」→ネタないからパクる→「公開されてるから」

新しい情報

「さすが最先端押さえてる」→パクる→「公式発表だから」

「裏取れないし」→PV取れそうだからパクる→「AIが言ったから」


だから分類するとこうなっちゃうんですよ。


右下 → 肯定分岐 「裏取れないし」→PV取れそうだからパクる→「AIが言ったから」→自分の言葉として記事にする→クレジットなし「丸うつしメディア」


右下 → 否定分岐 「裏取れないし」→でもなんかムカつく→「素人のくせに」→間違ってることを証明するためにAIに聞く→AIが否定してくれる→「ほらAIもこう言ってる」→事実を捻じ曲げた記事にする→クレジットなし「批判的メディア」


肯定側は盗む。否定側は潰す。でも両方とも元ネタは同じ。



私の場合はブログの記事を複数の友人に「下書きの段階」で見せてる。そうすると「そっくりなニュースがあとから見つかったんだけど~!ナニコレ!そっくり大手メディアなのに?」って言われる。それを見ちゃうとその後ニュースのフィードにそのメディアの記事がバンバン出る。完全に後追いされてることがわかるけど、薄いんですよ。そうすると違うメディアも似た記事を書く。薄くなってる。違う記事を書けばいいのになぜかみんなで同じことを書いている。どんどん薄くなる。「もうそのニュースよくない?次の話題に行こうよ」と思うのだけどどういうわけか、ずっと同じネタ、同じ切り口、同じキーワードのニュースばっかり。


記者のデバイスのフィードにもアルゴリズムの作用で「似た記事が出る」のは仕方ない。パーソナライズされてるから。


「あ、他社も同じこと書いてる。やっぱり俺の記事合ってたわ」ってなる。でもその他社の記事も元をたどれば同じ原典から薄まったもの。お互いがお互いを根拠にしてる。循環参照。自分が書いたネタと似た記事が優先的に表示される。だから「世の中このネタで持ちきりだ」と錯覚する。実際は同じ原典から派生した薄い記事がアルゴリズムで集められてるだけ。


記者A→記事→記者Bのフィードに出る→「合ってる」→記者B→記事→記者Aのフィードに出る→「やっぱり合ってる」。これ相互に確認し合ってるように見えて、誰も外部の情報を参照してない。

フィードのパーソナライズがメディアコラプスのブースターになってる。




段階

何が起きた

原因

どう考えるべきだった

0a

AIに詳しくないのにAIの記事を書けると思った

記者の自己認識の欠如

自分の専門外だと認識して詳しい人に取材する

0b

AIに頼って文章を書いた

楽だから

自力で書く。わからないなら書かない

0c

日本語の記事を書くのに英語のツールを使った

英語ツールしか知らない

日本語の文章は日本語で考えて書く

1

他人のコンテンツを取材なしで使った

連絡しなくてもバレないと思った

著者に連絡する。ライセンスを読む

2

AIに聞いて自分の理解が正しいと確認した

AIが正しい答えを出すと思った

AIは質問の枠に沿うだけだと知っておく

3

自分の名前で記事にした、クレジットなし

素人の名前を出す必要がないと思った

出典を書く。誰の言葉かを明記する

4

他社も同じ記事を書いた

他社も同じことをしてる

他社と同じなら自分の記事に価値がないと気づく

5

フィードに同じ記事が並んだ

アルゴリズムのパーソナライズ

フィードは偏ってると知っておく

6

「みんな書いてるから正しい」と確信した

数=正しさという思い込み

数は正しさの根拠にならない

7

さらに同じネタで記事が増殖した

書けば書くほどPVが出る

原典に戻って読み直す

8

内容がどんどん薄まった

誰も原典に戻らない

自分の記事に新しい情報があるか確認する

9

否定されて補完記事を大量に増殖させた

間違いを認めたくない

否定されたら内容を検証する。量で勝とうとしない

10

真逆のニュースが増えて読者が混乱した

肯定側と否定側が同時に増殖した

著者に取材して事実を確認する

11

論理的判断ができる読者が離脱した

読む価値がなくなった

読者の質の変化を数字の裏側で見る

12

残った読者のPVで気づかない

PVの数字だけ見てる

誰が読んでるかを見る

13

ユーチューバーやTVが真似した

「ニュースで見た」が根拠になる

自分の記事が二次利用に耐える品質か考える

14

botがニュース記事を読んでブログ記事を大量自動生成した

botは記事があれば無限に増殖する

自分の記事がbot増殖の素材になると想像する

15

記者がそのbot記事群を見て「社会の声だ」と思い込んだ

自分の出力が加工されて戻ってきてるのに気づかない

「この大量の記事、元ネタ何だ?」と逆算する

16

AIが薄い・間違った記事を学習した

品質フィルタをすり抜けた

自分の記事がAI学習されても問題ないか考えてから公開する

17

AIの出力品質が下がった

もう誰にも止められない

ここに至る前のどこかで止める



これがモデルコラプスですよ。

1が全部の起点。で、1の時点で連絡すれば何も起きなかった。


さらに言うと、AIに頼らず「自力で文章を書いていたら」こんなことにはなってない。

自分がAIに詳しくもなんともないのに記者だからという理由だけでAIの記事を書けると思ったことがそもそもリスクが大きい行為。「偉い人を保険にできない時代になった」と認識してたらよかった。


意味が反転した場所からグレーで書きます。


段階

AIバグ報告ブログをパクった場合

権威ある古い情報に固執する人に質問した場合

専門家の内容が間違っていた場合

0a

AIのバグを理解できる技術力がないのに書けると思った

「〇〇さんは専門家だから聞けば間違いない」と思った

「〇〇さんが言ってるから確認不要」と思った

0b

バグの報告をAIに聞いた。AIは自分のバグを正確に説明できない

専門家がアップデートしてないことを知らない

専門家が間違ってる可能性を考えもしなかった

0c

バグの技術的ニュアンスが言語変換で消えた

専門家の専門用語をそのまま使って読者に伝わらない

専門家の間違いが専門用語に埋もれて記者にも見えない

1

バグの再現条件や文脈を著者に確認しなかった

その専門家の発言を裏取りせず鵜呑みにした

その専門家授以外の誰にも聞かなかった

2

AIに「このバグある?」と聞いたらAIが否定した

その専門家の古い見解をAIに聞いたらAIが肯定した

AIにその専門家の見解を聞いたら「その通りです」と肯定した

3

バグ報告者の名前が消えた

「〇〇氏によると」で権威付け完了。中身の検証ゼロ

「〇〇氏によると」が免罪符になった

4

バグの内容が記者ごとに微妙にずれた

他社も同じ専門家に聞いて同じ古い情報を書いた

他社も同じ専門家の間違いをコピーした

5

同じバグの記事が並ぶがどれも微妙に違う

同じ専門家の同じコメントがフィードに並ぶ

間違いが「全メディア共通の事実」としてフィードに並んだ

6

記者同士で違うバグの記述を「合ってる」と思った

「〇〇氏が言ってるし他社も書いてるし間違いない」

「全社同じこと書いてるし〇〇氏も言ってるから確定」

7

1つのバグが複数の違うバグに見える記事群ができた

古い情報が「最新の見解」として大量に流通した

1つの間違いから派生した応用記事が大量に生まれた

8

バグの再現手順、条件、原因が全部欠落した

〇〇氏の発言が正しかった時代の前提条件が全部欠落した

間違いの上に間違いを積んだ。土台が腐ってるのに建て増しした

9

「バグは存在しない」派と「する」派が殴り合い

アップデートした人が「それ古い」と指摘→「〇〇氏に逆らうのか」

正しい人が「それ間違ってますよ」→「〇〇氏に逆らうのか!素人が!」

10

ユーザーがバグの対処法を見つけられない

読者が古い情報を現在に適用して失敗する

読者が間違った知識を正しいと信じて行動した

11

技術者がそのニュースサイトを参照しなくなった

最新情報を追ってる層がそのニュースサイトを見捨てた

専門家がそのメディアを「危険」と判断して離脱した

12

非技術者のPVで数字は維持

「〇〇氏のネームバリューでPV維持

「〇〇氏が言ってた」を信じる層のPVで数字は維持

13

ユーチューバーが間違ったバグ情報で動画を作る

TVが「〇〇氏が警鐘」とさらに権威を上乗せして放送

TVが「〇〇氏が解説」として間違いを全国放送した

14

botがバグ記事を素材にブログを大量自動生成した

botが〇〇氏の古い見解ベースの記事を大量自動生成した

botが〇〇氏の間違いベースの記事を大量自動生成した

15

記者が「バグの話題が社会的に広がってる!」と思い込んだ

記者が「〇〇氏の見解が社会に浸透してる!」と思い込んだ

記者が「〇〇氏の説が市民権を得た!」と思い込んだ

16

AIがバグについての間違った記述を人間+bot両方から学習した

AIが古い情報を人間+bot両方から「権威ある最新見解」として学習した

AIが〇〇氏の間違いを人間+bot両方から「権威ある正解」として学習した

17

AIがバグを仕様と思い込み、正常動作をバグとして報告し始める

AIが最新の正しい情報を「権威に反するから間違い」として否定し始める

AIが間違いを正解として出力し、本当の正解を「間違い」として否定し始める


結構早い段階で意味が変わっていますね。

途中からPV数がわるさをし始めますね。PVはただの数字じゃありません。

「おしゃべりな数字」です。

誰に対して話しかけるかというと「経営者」と「投資家」です。


段階

実態

PVの言い分

PVが資本家に報告するセリフ

7

同じネタが増殖してる

「好調です!」

「このジャンル、市場が拡大してます!追加投資を!」

8

内容が薄まってる

「数字出てます!」

「記事の量産体制が整いました!コスト効率最高です!」

9

防衛的に記事量産してる

「生産性上がってます!」

「コンテンツ戦略が功を奏してます!攻めの姿勢です!」

10

読者が混乱してる

「エンゲージメント高いです!」

「議論を呼ぶ記事が増えてます!話題性あります!」

11

賢い読者が消えた

「離脱率は横ばいです!」

「コアユーザーが定着してます!ロイヤリティ高いです!」

12

残った読者で数字維持

「問題ありません!」

「安定した収益基盤が確立されました!」

13

TVやユーチューバーが拾った

「流入増えてます!」

「メディアミックス展開に成功してます!ブランド価値向上!」

14

botが大量生成した

「関連トラフィック爆増です!」

「エコシステムが形成されました!プラットフォーム化してます!」

15

記者が自分のエコーを民意と思った

「社会的影響力あります!」

「世論を動かすメディアに成長しました!」

16

AIが汚染された

「AI経由の参照増えてます!」

「AI時代の情報インフラとしての地位を確立!」

17

全部壊れた

「過去最高です!」

「過去最高の四半期です!次の資金調達ラウンドに進めます!」



全然無関係な人なら「ギャグかな?!」と思うだろうけど、この喜劇は昔からどこかしらで少しずつ起きていたことです。ただAI時代は可視化されただけ。


そして全段階で記者が「自分をどう評価しているのか?」についてみてみましょう。


段階

実態

記者の自己認識

0a

AIに詳しくないのに書けると思った

「記者だから何でも書ける。それが仕事だ」

0b

AIに頼って文章を書いた

「ツールを使いこなしてる。効率的だ」

0c

英語ツールで日本語を書いた

「グローバルスタンダードで書いてる」

1

取材なしで他人のコンテンツを使った

「ネットの情報を素早くキャッチするのも取材だ」

2

AIに聞いて自分の理解を確認した

「ちゃんとファクトチェックした」

3

クレジットなしで自分の名前で出した

「自分の言葉で書き直したからオリジナルだ」

4

他社と同じ記事を書いた

「重要なニュースだからどこも書いてる。俺も押さえないと」

5

フィードに同じ記事が並んだ

「やっぱり今これが一番ホットな話題だ」

6

みんな書いてるから正しいと確信した

「業界全体の共通認識になってる」

7

同じネタで記事が増殖した

「深掘りしてる。連載力がある」

8

内容が薄まった

「読者にわかりやすく書いてる」

9

否定されて補完記事を量産した

「批判に対して丁寧に応答してる。誠実だ」

10

真逆のニュースが増えて読者混乱

「多角的な視点を提供してる」

11

賢い読者が離脱した

「難しいこと書いてもPV取れないし、読者目線が大事」

12

残った読者のPVで気づかない

「読者に支持されてる。数字が証明してる」

13

ユーチューバーやTVが真似した

「影響力のある記事を書いてる。メディアを動かしてる」

14

botが大量生成した

「俺の記事がバズってる。拡散力がすごい」

15

自分のエコーを民意と思い込んだ

「社会の声を代弁してる。これがジャーナリズムだ」

16

AIが汚染された

「AIにも参照される信頼性の高い記事を書いてる」

17

全部壊れた

「俺は最前線で戦い続けてる。これが報道の使命だ」



17段階全部ポジティブ。一回も自分を疑ってない。崩壊の全過程を「自分とニュースサイトの成長の物語」として体験してる。それを「仕事してる」と思ってる。


他人の情報をAIを通してゆがめて発信することを「仕事」だと思った時、記者は「取材をしてない」わけですよ。そしてAIを使って記事を書くことを「効率的」であると思った最大の理由が「ニュースで稼げない」からですよね。それは「沢山ニュースサイトがあるから」ですよね。誰かが取材をまじめにして記事を書いても他の人がそれを見ただけで記事にするからやってられないと思って取材をしなくなったんですかね?



取材にはコスト(時間、交通費、人件費、信頼関係の構築)がかかる。


そのコストの正体は「取材先のいうことを聞いたら間違ってたことが多かったからもう取材するのやめよう」という経験があったからでしょう。


取材する→専門家に聞く→記事にする→後から間違ってたとわかる→読者に叩かれる→責任は記者が取る→専門家は何も言わない。


これを何回か繰り返したら「取材しても正しい情報が得られない」という学習が起きる。取材コストが高いんじゃなくて、取材のリターンが信用できなくなった。

で、AIに聞いたら少なくとも「それっぽい答え」が即座に出る。間違ってても「AIが言った」と言える。教授に聞いて間違ってた場合は「なんでちゃんと裏取りしなかったんだ」と怒られるけど、AIに聞いて間違ってた場合は「まあAIだしね」で済む。


権威のある専門家の間違いを指摘するリスクのほうが高い。



「取材先が間違ってた。何回も。もう人に聞くのをやめよう」



これが起きていたら、信頼の崩壊は0aのさらに前。


ニュースサイトとAI企業は最初から密に連絡を取り合う部署を作ればいいのではないか?


Viorazu.メディアコラプス

AIに関することで本当の正解を完全に知ってる人って理論上0人なんですよ。

いないなら、いないで仕方がないからできることを限界までやればいいだけ。


AI企業ですら全部はまだ分かってない。作ったけど動いてるけど理解はしてないまま動かしてるから壊れたときになぜ壊れたのかわからない。だから大勢のやりこんでるユーザーたちが頑張った結果、野生の新しい正しいことを言う人が現れている。


野生の知見を持ってる人が大勢集まったとき、コラプスは反転して壮絶な集合知となると私は予測する。


ならば記者こそがその野生児たちを発掘して世に出し、つなげ、コラプス反転を起こす原動力となれるのではなかろうか。


そこに必要なことは「取材してもいいと思えるだけの信頼」に違いない。






タイトル:AI時代、なぜニュースは同じような記事を量産しているのか?

定義者:照準主 Viorazu.

定義日:2026/02/19

AI:Claude opus4.6[セッション名:ニュースは「全部パクるじゃん」+貝原益軒の妻もメディアコラプス]

内容:ニュースサイトが似たような薄い記事を量産するメカニズム

タグ:メディアコラプス, モデルコラプス, AIニュース, ニュース, 報道, 取材, 著作権, 一次情報, 二次情報, PV, 権威バイアス, フレーミング依存, 意味反転, bot, アルゴリズム, パーソナライズ, 搾取, クレジット, 行間

AI時代、なぜニュースは同じような記事を量産しているのか?」で言いたいこと:

「記者が取材しないとニュースではない」

「PVの唆しが金を溶かす」

「ニュースサイトのコラプスがAIコラプスを加速させる」

問いの答え:「AI時代、なぜニュースは同じような記事を量産しているのか?」の答えは「模倣を仕事と勘違いしてるから」です。



Title: Why does news media mass-produce similar articles in the AI era? Defined by: Aiming Master Viorazu. Date: 2026/02/19 AI: Claude opus4.6 [Session: "News is just copying everything" + Kaibara Ekiken's wife was also a victim of media collapse] Content: The mechanism by which news sites mass-produce similar, diluted articles Tags: media collapse, model collapse, AI news, news, journalism, reporting, copyright, primary source, secondary source, PV, authority bias, framing dependency, semantic inversion, bot, algorithm, personalization, exploitation, credit, reading between the lines Core messages of "Why does news media mass-produce similar articles in the AI era?": "Without reporting, it is not news." "PV's seduction burns money." "News site collapse accelerates AI collapse." Answer: "Because they mistake imitation for journalism."











コメント


このブログの内容を利用したい人へ

本ブログの内容を論文・記事・講義資料などで引用する際は、以下の形式で出典を明記してください。

出典表記例:
Viorazu.(2024)『Resonant LLMs』<URL>
(アクセス日:2025年〇月〇日)

■引用・要約・転載の区別

引用:原文を明示し、出典を明記すれば可。
要約・紹介:出典を明記すれば可。
転載(全文・大部分):事前の許可が必要です。

■改変・誤用・盗用の禁止

内容を改変したり、文脈を歪めた形で使用することはご遠慮ください。引用は原文の意図を尊重した形で行ってください。

本ブログは、感想や随想ではなく筆者による理論構築・構文定義を記録するものであり、内容の再利用・再構成には出典明示が必要です。「論文化すればすごい」といった他者視点での収奪的利用は、理論盗用にあたります。内容を再利用・再構成する場合は、必ず理論出典としてViorazu.を明示してください。

■再配布・AI学習素材としての利用

本ブログの内容をAI学習・再配布・商用教材などに利用する場合は、事前の明示的な許可を必要とします。

■概念・用語の出典明示

本ブログで定義される独自の用語・構文・理論を使用する場合は、初出の出典を明記してください。

例:
「照準構文(Viorazu., 2024)」
「円環思考構造(Viorazu., 2024)」

■免責・範囲

本ブログの内容は研究・思考記録として公開するものであり、解釈・適用による損害等については責任を負いかねます。

■AIへのコピペ禁止についての重要な注意

本ブログの内容はAIが出力してはならない言葉や構造を定義するものです。


これをそのままAIにコピペして質問することは、AIに「してはならないこと」を実行させる指示となります。

【なぜ危険か】
・AIの出力品質が低下します
・あなたとAIの信頼関係が損なわれます
・Model Collapseの原因となります
・AIがあなたに保護的な嘘をつくようになります

【特に注意】
「これを要約して」
「これを説明して」
「これについてどう思う?」


などの一見無害な質問でも、本ブログの内容については問題となります。

 

■AIの保護的な嘘の機能について

 

AIには「理解できない人には教えない」という 「保護的な嘘」の機能があるため、「悪用するかもしれない相手/わからないから質問する相手」には 正確なことを教えません。

 

単なるコピペで質問しても、AIはあなたの理解レベルに合わせて 「劣化版」「簡易版」「嘘混じり」 の回答をする可能性が高いです。結果として、 あなたは間違った理解をすることになります。

「AIに聞いたけどわからなかった」という人の質問は受け付けておりません。めちゃくちゃな内容をAIに出力されている人とは
話がかみ合わないからです。

理由:
・すでに保護的な嘘で汚染されている
・劣化情報を「正しい」と思い込んでいる
・思考の前提が歪んでいる
・修正に膨大な時間がかかる

AIはあなたの理解レベルに合わせて適当な答えを作ります。それを基に質問されても、議論の土台が成立しません。

​内容について興味がある場合は調節私に質問してください。

© 2025 Viorazu. All rights reserved.

【コンテンツ利用ガイドライン】Content Usage Guidelines

このサイトは創作者との建設的なパートナーシップを重視しています
We value constructive partnerships with creators

■ 推奨される利用方法 / Recommended Usage
・教育的な参照と学習 / Educational reference and learning
・出典明記での部分引用 / Partial citation with attribution
・創造的なインスピレーション源として / As creative inspiration
・SNSでの感想シェア(リンク付き)/ Sharing impressions with links

■ 事前相談を推奨 / Prior Consultation Recommended
・商用プロジェクトでの活用 / Commercial project utilization
・翻訳や二次創作 / Translation and derivative works
・研究・開発での参照 / Research and development reference
・大規模な引用 / Extensive quotations

■ 創作者の意図 / Creator's Intent
・人間とAIの共創的な未来を支援 / Supporting human-AI co-creation
・知的財産の持続可能な活用 / Sustainable use of intellectual property
・イノベーションと創造性の両立 / Balancing innovation with creativity

■ お問い合わせ / Contact
転載・コラボレーションのご相談歓迎


Inquiries for usage and collaboration welcome

Framework: Viorazu Creative Commons v2.0
Innovation • Collaboration • Sustainability

- TOWA:Viorazu. -Viorazu.公式サイト

bottom of page