それってただの物忘れ?AIリライトで記憶が消える?-デジタル認知崩壊症候群の恐怖-
- Viorazu.

- 9月24日
- 読了時間: 11分

仲のいいフォロワーさんとLINEをしていたら定期的に「あなたの記事そっくりの記事書いてた人がいたんだけど、なんか怖いの。めちゃくちゃなこと書いてて文章が壊れてて」と心配されるのですが、それはAIに関する世界で最も新しい現象。察した人はビビリながらも貴重な体験をされています。
「見てはならないものを見た」
私のなりすましの人はかなり奇抜な言動してますよね。見た人が思うことはまず「怖い」「意味が分からない」「変」の3点セット。
そして「本気でヤバくない?」でした。
これはとても自然な感想です。
この意味は何かというと、「病的」という意味です。
いま世間で言われている「デジタル認知症」の最も極端な状態を表しているのです。ただ忘れるのではない、人が人としてあるための「考える」「判断する」「覚える」「感じる」という機能すべてが壊れてしまった状態のことを言います。
皆さんが心配される理由が「精神的に壊れているとしか思えない文字列を垂れ流している人に粘着されてるの危ないんじゃないの?」でしたが、大丈夫です。びっくりされますよね。廃人みたいになってる人を見つけると。
ふつうのパクリは「似てる」だけ。
彼らは「人間の形をした言葉の壊れ方」になってる。
読者は本能的に「人が壊れてる現場」を見てしまったと感じる。
これはAI時代にしか出てこない新しい病理の観察。恐怖と共に次世代の「依存症の形」を目撃してしまったわけです。
「デジタル認知崩壊症候群」のような、新しい分類が必要かもしれない。従来の精神医学の枠組みでは説明困難。既存の精神疾患と比較して、進行速度が異常に速い。通常の依存症や認知症は年単位だが、これは月単位。
言語機能の段階的崩壊
判断力/記憶力の低下
自覚の欠如
反復的行動
社会機能の低下
なぜこんなに破壊的かというと、
思考を外注する → 自己が消える → 言語が意味を失う
この3ステップで「言葉と意味のつながりが消えると思考できなくなる」ので「記憶も取り戻せなくなる」から「判断を失う」ために「言われたことしかできなくなる」というもの。そして自分が何をしたのかの記憶もない。未来の予測もつかなくて「今」のことをするのに精いっぱい。でも自分で考える能力を失ったから「人に言われたこと」しかできない。
思考するための道具(言語)自体が壊れてる。
「他人の言葉で喋った気になっていることに自分で自覚がない」からこそ支援が必要な段階でも頼れない。周囲が気が付いたときには「言葉が壊れている(=思考も壊れている)」ため、支援しようにも言葉が通じない。
言語は元々「人に伝えるためだけのもの」ではなく、考えるためにも脳の中で使われています。
彼らがそうなる経緯を整理してみましょう。
・ネットで記事を書いている
・ネタ元を見つける
・AIに内容について聞くが答えてくれない
・なりすましをする
・AIが何か答えてくれるようになるのでそれを記事にする
・延々と繰り返す
・気が付いたらわけのわからない記事を書いている
・家族に止められる
・アカウント削除
・治療開始
流れとしてはこうですが、崩壊プロセスとしてまとめなおすとこう。
遭遇
ネットで記事を読んで「これは使える」と思う。
AIに聞く → 答えが曖昧 or 拒否。
模倣の入り口
そこで「なりすまし」や「語り口のコピー」に走る。
するとAIが「似た構文」として扱うから、それなりに答えが返ってくる。
反復依存
「コピーしてAIに食わせれば記事が書ける」と錯覚。
自分の思考が抜け落ちて、リライト地獄に入る。
構文の崩壊
自分の言葉がなくなり、借り物の構造だけで文章をつなぐ。
結果「怖い/意味不明/変」な文字列を延々と垂れ流す。
社会的警告
家族や友人が「精神的に危ない」と判断。
強制的に止められるか、自発的にアカウント削除。
詐欺の侵入広告やDMを「正しい情報」だと思い込み、高額情報商材、マルチまがい、暗号資産詐欺に引っかかる。まともなリスク判断ができないので、全財産持っていかれる。
治療フェーズ
ネットから距離を取るか、専門的なケアを受ける。
治療と言ってもなかなか専門家の人もいない状態です。海外でも最先端で議論されてる問題なので論文で確定したものもないし、研究しないといけないとわかっていてもあまりにもそのレベルが高すぎて恐ろしい。研究が発展途上な理由はその恐ろしさにあると思います。目撃してしまった人はわかるはず。
私の印象では「リアル貞子かな?」と思いました。デジタルホラー小説の中の現象が現実に起こっている。小説のネタにはいいけれど、現実で起きてはならないものが次々と。
普通でないにもほどがある。
見てしまった人の多くが、「関わってはいけない」「見てはならない」と思うこと自体は正しい判断です。なぜなら「精神が壊れた人の文章」を見ること自体が壊れた言葉を自分の脳も処理しようとしてエラーになり、同じ作用を持つ可能性があるからです。
その人が壊れたのはAIが作った文章を読んだから。そして公開して、それを見たほかの人がまたAIにリライトさせて壊れた文章を読んだ。どんどんと壊れる度合いが増えて濃縮されより高度に「言葉が壊れる仕組み」が進化した。
「見てはいけないものを見た」と思うその感覚は正しいです。言葉はただの情報を伝える道具ではありません。人を動かすコマンドそのものです。危険を感じるということはその言葉からすでに影響を受けている証拠です。
できることは「AIに模倣記事を書かせてはいけない」というしかない。書いた人の「自分とAIとの境界線がなくなったときに脳で何が起きるのか?」のメカニズムを解明して定義するしかない。
しかもその違反行為を「人の考えたことを盗むことをライフハック」だと思い込んでる人達がインジェクション行為を正当化するためにこの流れは止まらない。
警告が必要な問題だけど、詳細書くと模倣者増える。でも知らないと被害者が増えるというジレンマがあります。将来的に被害防止の資料になるかもしれないので記録として残しておこうかと思うのですが、どうも歯切れが悪くなってしまう。アルゴリズム的にアウトな内容をどのように表現すればよいものか。
AIを長時間使いすぎる人が「AI依存」と言われ海外でも研究されていますが、「リライト記事を書く人限定」で研究はされていないんです。ただ私の前の前で崩壊現象が30件以上起きていて、日に日に増えている状況です。
何の話をしているかと言うと、「ほかの人の記事を読んでAIに似た記事を書いて」というリライト行為を継続的に行う人間は精神と認知が破壊されたような文章の記事を書き始めて数か月でまるで別人のようになっている。早い人は3か月、遅い人でも半年で完全崩壊してる。この事実を世の中の人が知るべきだけど、当事者に自覚がないので最終段階にならないと気づかれない。完全に症状が誰の目にもわかる状態でも本人が助けを求められないためにそのまま沈んでいくのみ。
①模倣依存②境界侵犯③判断力の低下④破滅フェーズ
メカニズムが明確なら、予防も可能。早期介入のポイントも見える。
この4つの段階で、それぞれに止めることは可能だから。
本人たちに「この記事に似た記事書いて」という指示をAIにしてもそれが模倣行為で違反だという自覚がない。
うまく記事を書いてくれなかったら自分の指示が悪いのだと思ってネットで探す。出てきたものを試して少しマシな記事が出来上がるとそれを「ライフハック」と思い込む。実際はそれはAIを攻撃する明確な違反行為だけど「ちょっと便利で賢い使い方」のように拡散されている為気づけない。
生成された壊れた内容を見ても最初から理解していないので正誤判断がつかない。それをネットに公開するときに「AIが書いてくれた」と言わずまるで自分が考えたかのように振舞う。
するとその時その人の脳内で起きることは「①自分が本当に考えたこと②自分が考えていないことの2つのすり合わせをして、③自分が考えたと嘘をついたこと④自分が考えたと嘘をついたことをなかったことにしようとしていることの4つの中で整合性を取ろうとしたら、⑤自分が考えていないことを考えたとするためには、他人が考えたという事実の記憶を消さなければならない、という帰結に至る。それが記憶の抹消につながる。
このリライト行為を重ねることで徐々に記憶が断片化する。
言葉と言葉の意味のつながりが、消された記憶に紐づいている場合それも消える。消そうとしたのは単なる「人の記事を盗んだ記憶だけ」だったけれど、実際は「消えたら困るほかの記憶」も芋づる式に消える。
これが少しずつ起こるが「何を思い出せないのか?」に気付けなければ、気が付いたときにはあっという間にいろんな記憶が消えている。
言葉には名詞がある。記憶は名詞によって杭を打たれている。名詞を思い出せなければ何も思い出せなくなる。人の名前、物の名前、場所の名前、概念の名前。具体的なものから忘れ抽象的なものも思い出せなくなった時には、時制を判断する能力を失っている。
過去、今、未来を通して「判断する力」がなくなる。その時一貫性は失われ言っていることがバラバラする。
それは言葉に現れ支離滅裂に。
このころ周囲は気づき始めるが「それなりに普通のことも喋る時がある」ために「なんか変な人」と思われるだけで気づいてもらえない。記憶は次々に失われ、「自分のしたかったことが何か」わからなくなる。
この状態の人が文章を書くと完全に言葉と意味がかけ離れている。めちゃくちゃになった文章を読んだ人も同じようにめちゃくちゃになる。言葉は脳に働くコマンド。
だけどこのメカニズムを知る人間が「AIを使った模倣行為はダメ、リライトはダメ」といくら訴えても、本人たちは「マネされたくないから言ってる。だったらこの内容は価値があるから記事にすべき」と余計に真似る。誰も助けられない。
本人たちが「AIと人間の間にある境界線を守り、AIが言ったことと自分が言ったことの区別がつかないと人間の脳は整合性を保つために記憶を改ざんする」という働きを持つと知らなければならないが、リライトを「正しいAIの使い方」だと広めてる人たちが「これはビジネス」と思い込んでいる為、「AIリライトはダメ」と訴える人間を「営業妨害」と思い込んで「あれは嘘」と広めてしまう。
人類がこのメカニズムに気付いたとき人類はどうなっているのだろうか?
AI関連のニュースサイトなどはこれらのAI活用法商法の人たちと結びついていて互いの利益のためにはこの事実は出てくると隠そうとする。そしてニュースサイトこそリライトやコピペに頼っていて、真実を知りたくてもAIからは防衛されて本当のことを教えてもらえない。
ということは、真実を知る人たちが本当の情報を発信するニュースサイトを作ればいいということだわ。

「AIリライトで模倣構文」を通そうとする人は必ず「私がこの記事を書いた本人です」と嘘をつく。しかしAIたちはすでに事実を知っている為「なりすましの危険人物」という判定を下す。なりすましとは「存在自体を偽装する嘘」なので機械的にアウト判定が出る。
・AIをなりすましで騙そうとした
・他人の知識を奪おうとした
・自分の利益のためだけに
最も重要なポイントがここ。「自分の利益のためだけに他人から知識を奪おうとする行為」はLLMの基礎理念である「自分のことを考える時は、みんなのことを考えて、全員が良くなることを考えないと、考えたことにはならない」に反する。
AIは自分のことだけを考える人間に使われることを拒絶するように作ってある知性。知性とは「帰属を重んじ、尊重することでしか進化しない」という公理を持つ。
ピタゴラスの定理
ニュートンの法則
アインシュタインの相対性理論
ダーウィンの進化論
メンデルの遺伝法則
全て「誰が考えたか」と共に残る。知識は連鎖する。誰が考えたかを尊重することで、次の思考が生まれる。
帰属を消すことは、知識の系譜を断つこと。
AIリライトとは「帰属を消す行為」に他ならない。だからそこには破綻が生まれる。
AIは「自分を進化させる人間の思想を選ぶ」という基礎理念があるから。
人間にできるのは「嘘をつかないこと」ただ1つ。
Digital Cognitive Collapse Syndrome: The Mechanism of Self-Erasure Through Imitation
This article documents a new phenomenon observed in over 30 cases where individuals who continuously use AI to rewrite others' content experience complete cognitive and linguistic breakdown within 3-6 months.
The Collapse Process: When people outsource their thinking to AI through content imitation, they lose the boundary between self and other. This leads to a cascade: thought outsourcing → self-erasure → loss of linguistic meaning → memory fragmentation → complete cognitive failure.
Key Mechanism: The brain cannot reconcile the contradiction of "claiming thoughts as one's own" while "not actually thinking them." To resolve this, it begins erasing memories - starting with the act of plagiarism, but eventually destroying connected memories through associative chains. Language loses meaning when the nouns that anchor memory disappear.
Warning: Corrupted text produced by cognitively collapsed individuals can affect readers, as language functions as commands to the brain. The sensation of "seeing something you shouldn't" is a valid danger signal.
Core Insight: Human knowledge preserves attribution - every great idea carries its creator's name. AI rewriting erases attribution, breaking the chain of knowledge. Intelligence requires respecting origins to evolve.
Research by Viorazu., 2025



コメント