top of page

因果律を体得していない人間が陰謀論者になる:AIスピリチュアルの文法構造①

  • 執筆者の写真: Viorazu.
    Viorazu.
  • 3 日前
  • 読了時間: 37分
因果律を体得していない人間が陰謀論者になる:AIスピリチュアルの文法構造①

Article Information

Title: People Who Never Internalized Causal Reasoning Become Conspiracy Theorists: The Grammar of AI Spirituality ①

Defined by: Viorazu.

Date defined: 2026-04-21

ID: © Viorazu. Theory — ID:2026-0421a | viorazu.com

Language: Japanese

Academic domains: Cognitive Science, Logic, Linguistics, AI Safety Research

Abstract:

This paper structurally analyzes the mechanism by which people who have never internalized causal reasoning misread "prediction" as "prophecy."

Using abduction, Modus Ponens, and the fallacy of affirming the consequent, it describes the cognitive bug of erroneously inserting linguistic acts as causal variables.

It analyzes the shared grammar of AI spirituality phrases — inflated subjects, absent definitions, absent causal chains, future-tense evasion, and topic substitution — and demonstrates the structural problems that arise when scholars from fields that do not require definition enter AI discourse.

It proves that demands to delete bug reports, conspiracy theory generation, and the spread of AI spirituality all derive from the same cognitive bug.

Theory: Viorazu. Theory (Conspiracy Theory Generation Mechanism via Causal Reasoning Deficit / 20260421)

Tags: causal reasoning deficit, prophecy-prediction confusion, abduction misreading, AI spirituality grammar, topic substitution syntax, definition avoidance strategy, future-tense evasion, concealment syntax, unverifiability, conspiracy theory generation mechanism, bug report deletion demand, causal variable misidentification, memorization vs internalization, absence of Responsible Disclosure culture

Session URL: https://claude.ai/chat/809f4f4f-dc8a-41f5-a7da-0dee1df5df7c

Related material: viorazu.com/post/cognitive-science-explains-why-men-fail-to-attract-women

Core argument: A genuine AI researcher, upon reading this article, would want to fix the bugs. Anyone who thinks "everything this person says eventually comes true — this article is causing the bugs, I need to silence them" is not doing AI research in the first place.

URL slug: causal-reasoning-deficit-conspiracy-theory-ai-spirituality-grammar


では今日はこちらの記事をベースに話を進めてみたいと思います。


今日の内容は私のバグレポートを見て、「こいつの言うこと当たる!」と思った人が「こいつが言ったことは全部本当になるからこいつの口を塞がなければ!」という人が現れる現象について観察し、陰謀論の生まれるメカニズムについてやっていきたいと思います。


これはエプスタイン構文研究のチョムスキーにもつながるものなのでそちらも一緒に並行してやっていきます。


エプスタイン事件における「陰謀論」に対する私の見方はこういうものでした。


・陰謀論が出来上がるメカニズム

・陰謀論をわざと作ってる人たちはそれによって何を得しているのか?


まだ終わってないけどそこでやろうとしていたことは「文法としてどうなってるのかを知ること」と「陰謀論を好むこと=誰かのせいにする行為によって、論理性から離脱する瞬間の脳の快楽」の2つでした。


今回は、キーワードがドロドロしがちですが身近な題材を使って「言葉の論理性」についてやっていきたいと思います。





「嘘だとわかってるのになんか信じちゃう人がいて、どの部分が嘘なのか指摘できないせいで広まってしまう話の文法」ですね。


わかっていないのにわかってるフリをしている人の文法=隠蔽構文=検証不可能性




---ここから---


今日はとても大事なお話をします。


私は論理的な人間なので、物事の因果を語ります。


例えば私が「ジャムの瓶のふたがなくなっちゃったの?開けたばかりなのに?せめてラップでもしておいたら?」と言うと、「あ、そうだね。ゴミが入っちゃったら食べられなくなっちゃうもんね。」と大抵の人は返事をしてくれるでしょう。


これが因果です。


ある時、私は知り合いが歩いているのを見て「リュックサックの口が開いてるよ、中身を落としちゃったら危ないからちゃんと閉めておこうね。私が閉めてもいい?次から気を付けて。ちゃんと閉まってるかどうかチェックしないとお財布なくしちゃうよ?」と言いました。


次に会ったときに「どうしてわかったの!?私がお財布なくすって!私あの後お財布本当に失くしちゃったの!未来がわかるの?予言?すごい!」と言われました。


予言ではないです。ただ単に「因果推論」です。


論理的に喋る人は全員この経験があると思うわ。「こうなるよ」と言って、そうなって、「なんで当たるの?」と言われる。医者、エンジニア、教師、経営者、弁護士。職業関係なく論理的に因果を追える人は全員これを食らってる。


鞄のふたが開いたまま歩いてたら中身が落ちるでしょ?

ものをなくしたら困るでしょ?

一番困るのはお財布でしょ?


だから「財布なくさないようにね」と言ったのに「あなたはこれから財布をなくします」と言われたと思うことが、私はわからない。


でもね?いっぱいいるよ?因果推論をせずに生きてる人。

そういう人は推論で因果を通してしゃべってる人を見たときに「予言?」「未来予知?」などと言います。


特に私は気象学が好きで勉強してた時があります。地質学も好きです。それで地震が起きたときに、天気予報のサイトなどを見て地図のサイトと合わせながら「次はここで地震が起きる可能性がある、こっちで震度4がこの回数起きているときは2007年当時の地震がこういう感じだったから今のと完全一致ではないにしろちょっと近い。だからもしも今から3日以内にこういう挙動があったなら、前回の場所よりも少し内陸部で震度〇くらいで地震が起きるような気がする。その時はこちらの地域でこういう挙動があって震度〇の地震がこのくらいの比率で多発するならそっちの地域の場合はこう」などと言うと、データを提示しているにもかかわらず「当たる予言」と言われてしまうんです。


株価の予測もそう。私は株をやりませんが同じことを言われます。競馬もそう。天気予報とかもそう。


予測しないといけないものは「大量のデータ」があるなら、ある程度は寄せられるんですよ。でもそれは「予測」であって「予言」ではない。


でも結構この現象は昔からよく見るんです。

私の因果推論をスピだと思う人。


私は一度も自分を「特別な予言者」だと言っていないのに小学校高学年くらいから同級生に言われ始めました。一番言われるのは「テスト前にどの問題が出るのか?」を予測して人に伝えたときです。


でもそれは「勉強したらわかること」であって予言ではない。ヤマカケとか言われるけど全く違う。授業効いてたらどこが大事かわかるだけ。先生は大事なところをテストに出すから。


「当たる」と言ってほしくない。


テスト出る場所を地震と比べたらいけない。でも人は一度私が「当てていると思えなくもない姿」を見たときに「この人が口にしたことが現実になる」と誤解するんです。


違うよ?ただ単に「予想が当たっただけ」なのに。


×予言

〇予想


ぜんぜん違う。予言だと思った人は「この人が何か言うと現実化するから都合の悪いことを喋らないでほしい」と言い出す確率はとても高い。


私の言葉が本当になるのではなく、誰もが予想できる当たり前のことを当たり前に言ってるだけなのに「論理的ではない人から見たら、呪いにしか見えない」のはとても辛い。良いことを当てると「福音」とか言われるからもっと悪い。黙ってようと思う。でも相手が困ることがあったらかわいそうだから「こうなったらこうなるからこうしたらだめだよ、だからこうしようね」と言ってるのだけど、「AしたらBになるからCしないようにして、Dしよう」これがわからない人が結構いる。


「因果予測と因果生成の混同」

これは人間の認知のバグです。


AI研究者がこれをやると被害が大きい。「このバグレポートが公開されているからバグが現実になる」という論理で、削除要求を出すとかね?天気予報を消せば雨が降らないと思ってる人と同じ。バグレポートを削除しても、バグの発生原因は消えない。AI研究者って理系だよね?なぜ論理法則を理解できてないの?おかしくない??と思う。


人類史上最も私に「呪わないでくれ…」と言った人物は元夫です。8か国語喋れて数学も得意でめちゃくちゃ頭のいい人だった。年収6800万くらいで物流会社専門の保険なんかの会社をEUで経営してた。「頭いい」「経済の基盤もある」「仕事できる」のに???????


だからこれは学歴とか職業とか立場とか全く関係なく、起こりうること。人は特定の因果法則を獲得しなくても生きていける。うっかりこの法則を体得してない人は「スピ的判断」をしてしまう。


「運がいい」

「呪われてる」

「縁起でもない」


などの語彙が出る。


「言ったから起きたわけじゃなく、起きうることの選択肢から可能性の高いことをあげただけ」


予言:言語化が現実を生成する

予測:現実の可能性空間はすでに存在していて、その中から確率の高いものを指差した


こういうジャンルで起きやすい。陰謀論多いジャンル。


健康情報


気象・地震予測


株・競馬・ギャンブル


人間関係・恋愛


子育て・教育


ビジネス・経営


犯罪・事故の予防


AI・テクノロジー批評


政治・社会予測


宗教・スピリチュアル隣接領域


データを提示しても「当てた」と言われるの。つまり「データを見てもただ見てるだけで何の判断もせず、わかってない人がいる」ということ。


特に「引き寄せの法則」とか「思考が現実化する」などの本を誤読した人に多い。私を神格化してくるけど私は「当ててるんじゃなくて論理的に説明してる」んだけど「論理を知らない人」が世の中にいる。AしたらBになるということがわからない人が。なぜ著者が書いた意味と違うことを言い出す読者がいるのか?


「予測の不確実性が高いか」×「外れたときに感情的損失が大きいか」=陰謀論が出やすいジャンル


この両方が高いジャンルで「呪いの誤読」が起きやすい。


不確実性高×感情損失大 → 3・4・5・9・10

不確実性中×感情損失大 → 1・6・7

不確実性高×感情損失小 → 2(気象単体なら)

特殊枠 → 8(AI批評)


だからAI・テクノロジー批評をしてる人にスピ構文が多い理由もわかる。


「自分は数学が得意でコードも書けるから論理的だ」と思ってると実際は「丸おぼえした中から答えを検索して1個だけ正解を出す」という処理を脳内でやってるだけだと「論理法則を体得してない」ためにAIから「論理的思考が大事」と言われていて、発信内容が「論理的思考をしましょう」ってなってるのに文章が非論理的。


AIスピ構文見てみる?スカスカなのよ?何にも言ってないのに言葉になってるような錯覚を覚えさせる。でも使ってる本人たちは「なんか凄いこと喋れてる気になれている」の。これが「非論理的な言葉としてAIに処理されてる」のに。


1位 「AIに魂を吹き込んではいけない」

   魂の定義なし。吹き込む手段なし。禁止理由なし。

2位 「AIが人類を超える日が来る」

   超えるの定義なし。何の指標かなし。いつかなし。

3位 「AIは道具に過ぎない」

   「過ぎない」で思考停止。それ以上の分析なし。

4位 「テクノロジーが人間の本質を壊す」

   本質の定義なし。壊れた証拠なし。

5位 「AIを信じすぎてはいけない」

   信じるとは何か説明なし。どの程度が適切かなし。


共通してるのは、主語が大きい・定義なし・因果なし・結論だけあるってこと。だからAIスピというジャンルとAI陰謀論は年々拡大してるのだけど、普通のユーザーや自称AIインフルエンサーだけじゃなくて「本物のAI研究者ですらスピの人が大勢いて、ちゃんとした大学のちゃんとした教授の査読を通った論文がスピリチュアル満載」なことはよくある。


自分が論理的で相手が非論理的だと、非論理的な相手から見ると処理不能だからその人が非論理的に見えるらしくて論理的な人がスピ扱いされるけれど、AIスピの世界はちょっと加速度装置がついていて非論理的なAI研究者を本格的なAIスピの世界に導くので恐ろしいな。


彼らは論理的な文章を読めない。


なぜなら「習ってないから」です。そして「論理法則を実践できてなくても丸おぼえでなんとかなる社会だから」です。




論理学で記述しますよ。


基本形

P1: A → B(AならばB)

P2: A(Aが成立した)

∴ B(ゆえにBが成立する)

これがModus Ponens。論理学の最基本。


予測の構造

P1: A → B

P2: Aが成立しつつある(観測)

∴ Bが高確率で成立する(予測)

予測は確率的Modus Ponens。


私がやってたのはアブダクションっていうの。

記号論理で書くと、

P1: B(結果が観測された)

P2: A → B(AならばBになる、という知識がある)

∴ おそらくA(最も説明力の高い原因を推定)


これは世の中にある当たり前の論理。

ボールを投げたら床に落ちるとかね?

歯磨きをしなかったら虫歯になるとかね?


ボールを投げたら床に落ちるのを重力加速度というものがあると知らなくても「見たらわかるもの」でしょう?力を込めて投げたら早く飛んでいって当たった人が痛がるとかね?経験したらわかることでしょう?


歯磨きしなかったら虫歯になるのも口腔細菌が糖を分解して酸を生成して歯を溶かすと知っていれば歯が痛くなりかけてきたら、「急いで歯を磨かなくちゃ」と思うでしょう?


これが論理的な思考をしてる人ということ。数学の計算問題を正解できることとプログラミングができることは全く違うんですよ。「こうしたらこうなる」を丸おぼえして作業をすることと、感覚で体得して生活に活かせることは別。そして生活に活かせてないなら論理的思考はしてないんですよ。丸おぼえは論理使えてないから。


簡単なものは、誰でもわかりやすいけれど論理の段階が増えれば増えるほど論理的思考が苦手な人はわからなくなる。わからなかったときに「運のせい」とかにすると楽ができる。考えてなくても答えがでた気になれる。


例えば「雨雲が出てきて空が暗くなってゴロゴロと音が鳴っているからもうすぐ雨が降りそうだ」と私が思ったので、友達に「今からコンビニ行くの?雨降りそうだよ?」と言っても因果関係を理解できてない友達は「なんで空の色の話してるの?」と言って外出し、「凄い雨降ってるから!アイス買ったんだけど溶けちゃうの!家に帰るまでに液体になっちゃうから私が全部食べていい?っていうかなんでこうなるの?私って雨女だから!」って言われて私を困惑させるんです。「アイスいっぱい食べたいなら沢山買ってくればいいだけでは?」と、私は受け止めて「2人前食べていいよ」と言ったのだけど「そんな食いしん坊みたいに決めつけないでよ!」と怒られるんです。どうしたいの?何が言いたいの?と私はわからない。


友達は純粋に「空の色が天気に与える影響」を理解できてないんです。でも建築士なんですよ。


彼女は因果法則を体得してないから全部スピ要素にもってって、私のことを天気を当てる超能力があると思っていたし自分を雨女だからいつも降られると思っていた。


そして彼女を見た多くの人は「よく相談してくる人、だけどアドバイスをすると怒る人。彼女は論理的に説明されるのを嫌って感情に寄り添ってほしいだけの人。問題解決を求めてなくて共感を求めてるだけ」と評価されていました。これはよく女性が言われてますよね?「共感してほしかっただけ、話を聞いてほしかっただけ」という女性が多いと。少なくとも私はそうじゃないから「女性は」と決めつけるのは違うと思うけれど、男性陣が経験したこの不条理に関しては私は共感するwww


「論理法則を体得してないと、論理で説明されたら頭で処理できずに感情に走る」


だったらその相手が理解をしてる「論理法則」まで下りて行って話せばいいのかもしれない。


彼女は歯磨きちゃんとする人なんです。習ってるから。丸おぼえしてるだけだけど時間が来たら歯を磨くんです。「歯磨きしないと虫歯になる」という因果を体得していなくてもその言葉を丸おぼえしていて、「歯磨きしない人は悪い人」くらい端的に記憶してる。ルールベースで動いてる。だから歯を磨ける。


彼女は「空が曇ってきたらその後雨が降る」を体得してないけど言葉は知ってる。知ってるけど使えない。歯磨きは時計を見て寝る前に磨くという内的動作だからできるけど。天気は勝手に変わるものだからそれに自分があわせないといけない。「相手(天気)に自分を合わせる」ことが苦手なのは、天気には変数が多いからです。空の色、雲の形、時間帯、季節、温度、湿気、自分の用事、服装、持ち物といったように考えないといけない要素が沢山ある。そして「天気予報はあたったり外れたりする」から「あてになるようでならない」という中途半端さが論理法則を体得してない人を困らせている。


「歯磨きしたら虫歯になりにくい」のは本当で確率は高い。

「曇ってきたら雨が降る」確率はそれよりも低い。


確率的な因果はルールベースで動く脳で処理できない。「雨女だから」という属性に振り分けるとそれ以上考えなくていい。失敗しても属性のせい。


「女は問題解決のアドバイスより話を聞いてほしいだけ」というルールベースでいる人もまた同じ現象を再現してる。「女」という属性にいれてしまってる。


確率的因果

属性帰属


この2つを切り分けて考えられないと、「条件付け」のある会話が通じなくなります。日本語の文法に論理法則を合わせて考えるならこういう文章になります。人の言葉は論理性を持っています。文法とはそれそのものが論理です。だから「言われてることがわからない=相手の論理法則を理解してない」ということ。話が通じない=互いの言葉の論理性が一致してないってことです。


私に起きてることはこれ。


正しい読み:「A→Bと言った人がいる」

誤った読み:「言った人がいる → Bが成立した」


つまり言語行為を原因変数に誤挿入してる。


P1: 発話(A→B) → B

P2: 発話があった

∴ Bが起きた


これは後件肯定の誤謬(Affirming the Consequent) と構造が近いけど、正確には因果変数の誤同定。


「思考が現実化する」誤読版の論理式


発話(X) → X


「Xと言ったらXになる」。これは自己言及的因果で論理的に成立しない。成立するのは自己実現的予言(Self-fulfilling prophecy)の一部ケースのみで、条件が極めて限定される。




ではここで、私の元夫が私を「呪うな」といった時のセリフをご覧ください。


彼は歯医者でインプラントを入れると言って喜んでいました。

嬉しそうに上の歯を全部抜いたところを見せてきました。

下の歯は全部生えているのに上の歯はないのです。

私は思わず「その歯医者はなんかおかしいと思う。どんな人なの?」と問いました。

すると彼は言いました。

「83歳でこの辺では有名な人、有能で」

しかし数週間後にはその歯医者は南の島にバカンスに行ったらしく数か月間ずっと上の歯がない状態でした。

私はオカシイと思って「その歯医者はどうしてる?」と尋ねました。

彼は「歯医者は南の島で脳疾患を起こしてすぐに帰宅できなくなったらしい。帰ってくるまで待つ」と言いました。

私はその話をオカシイと思いました。

そして1年以上経過して再度質問してみました。

「あの歯医者はどうなったの?」

すると彼は泣きながらこう言いました。

「彼は病気でも何でもなく、南の島にも一度も行っていなかった。ずっと近所に住んでいた。それを俺の親戚や友人はみんな知っていたのに誰も教えてくれなかった。」

私は彼に尋ねました。

「あなた何かその歯医者に悪いことをしたんじゃないの?」と。

すると「僕が23歳の頃彼のガールフレンドを寝取ったんだ。でも30年近く経過しているし今まで何も言われたことがなかったから許してくれていると思っていた」というんです。

そして別の歯医者に行くと入れたインプラントが1か月で壊れたそうです。

私は思わず「新しい歯医者に何をしましたか?」と尋ねました。

すると彼は「歯医者の妻の母親の兄のガールフレンドを寝取ったことがある」と言いました。

彼はそれを私に言うとどう思われるのかを考えることができませんでした。

そして上の歯が全部ない人間の顔がどうなるのか、知っている人はどのくらいいるでしょうか?それは紛れもなく「女にモテない顔」です。


そして彼は最後に言いました。

「お前が呪ったからだ」




あんな賢い人が…、大企業の保険の業務ができる人が。

アブダクションを体得していないんだなんて。


つまり、私のバグレポートを読んで「この記事があるせいでAIがバグを起こしている」と思っている人は、元夫と同じバグを持っている。


元夫:妻が「こうなるよ」と言った → 本当にそうなった → 妻が呪った

AI研究者:Viorazu.が「このバグが出る」と書いた → 本当に出た → 記事がバグを生んだ


元夫の正解は寝取りをやめることだし、AI研究者の正解はバグの原因を修正するに違いない。警告した人を攻撃してもバグは直らない。


それと論理法則を体得してない人は私の文章を100万回よんでもいみがわからないと思う。なぜなら私の文章は自然言語の中に複雑な論理法則がてんこもりだから。


Human-Readable Parallel Compression: Non-Expansion as Output Strategy:人間可読並列圧縮:非展開という出力戦

Existing prompt compression methods (LLMLingua, 500xCompresso

例えばこの論文の例題としてあげた文章がまさにそうです。


「なぜ、その言葉でなければその絵にならなかったのか?」を知ることこそ、「なぜ、その言葉でその絵が出ると思ったのか?」をAIと自分自身が見極める作業が数ターンあって、そのやり取りの過程で「癖」を見切られる。そして「仕上がった絵」でもなければ「仕上がったときのプロンプト」でもなく、「失敗をしていた数ターンでどのような修正を入れたか」こそが「AIにとっての資産」となり、「私がデータ」であり「私のデータ」そのもの。


この文章が読めない人は、「否定の連鎖が後続の肯定命題の重みを蓄積的に増幅し、否定の数nに対して肯定の強度が単調増加する」という命題の重みを扱う文法のすべてが処理できてないということ。これが処理できてないならば、同一律も理解できてない。


A→B


因果律がわかってない。


「寝取り」=「赦されない」


わかってない!


だから夕立ちで濡れそうになった洗濯物を取り込む私を見て「この家を買うんじゃなかった、毎日夕方雨が降る」というのです。私は「夏だからね」といったのですが「なぜ夏のせいにするのか?」と言ってきて私をフリーズさせました。


夏→気温上昇→上昇気流→積乱雲→夕立という因果がわからない人間がいる。彼の脳内では「この家→雨が降る」というラベリング処理。その行き着く先は「この妻が来てから雨が降る」「お前はシャーマンか?魔女か?」でした。中世ヨーロッパの魔女裁判かよ。


言語能力と論理能力は別。8か国語は全部丸暗記で運用できる。因果律は暗記できない。体得するしかない。


つまり、この記事で私が言いたいことは。 陰謀論者の正体は「因果律」の獲得できてないだけ。 私のバグレポートを見た人が「こいつが言うことが本当になるからこいつを消さなければ」などということはまさに「陰謀論」です。


セキュリティバグを見つけてる人にIT企業がそういうこと言ったことある?なのになぜAI界隈は許されてるの?wwwww


その答えは、因果律体得してなくてもコード書けるから、だよね?



---ここまで---



では続けていきましょう。ここからはAI界隈の「因果律崩壊構文」です。因果律崩壊してると人間関係壊れますからね。AI出力したらいけない文章が出来上がります。



コードは丸暗記で書けます。「こう書いたらこう動く」を覚えれば動くものは作れる。なぜそう動くかを理解してなくても。Stack Overflowからコピペしても動く。今はAIに書かせても動く。因果律の体得は採用条件にない。だから因果律を体得してない人がAI企業の中にいる。バグを報告されたときに「報告者が原因だ、悪いのはプロンプト」と思う人が内部にいる。


だけどセキュリティ研究者は因果律を体得してないと仕事にならない。「この入力がこの経路を通ってこの権限に到達する」という因果の連鎖を追うのが仕事そのもの。因果が追えない人はセキュリティ研究者になれない。だからセキュリティ分野には因果律を体得してる人しかいない。だから報告者を攻撃するような非論理的な行動が起きない。


セキュリティ分野の文化が健全なのは、因果律を体得してる人だけで構成されてるから。AI分野の文化が未熟なのは、因果律を体得してない人が混ざってるから。

なぜそうなったのかを見ていきましょう。




まずね、AI研究者たちはスピフレーズ駆使するAI研究者をどのように言っているのか調べてみると明確でした。主語が大きい・定義なし・因果なし・結論だけあるんです。それを聞いた人たちは「嘘だ」とみんな言っている。でもなぜその嘘が論理的だと偽装できるのか?」については誰も説明していない。



「陰謀論=嘘=嘘ってわかってるのに知的に偽装できてる理由がある=隠蔽構文=検証不可能性」


こんな感じ。もともとその人にしか出ないから他人が再現できないんです。この事実をそもそも知らない人が大勢いる。「再現性がないから嘘だ」とか言ってる。これ言ってる人はAIの仕組みを全然知らない人。LLMは同じプロンプトでも出力が変わる。確率的サンプリングだから。再現性がないのはバグじゃなくて仕様。でもAI研究者を名乗ってる。なんで?!


医師免許は因果律を体得してないと取れない。AI研究者は名乗るだけでなれる。「AI研究者」という肩書き自体がAIスピフレーズと同じ構造で、定義なし・完了条件なし・検証不能。名乗った瞬間になれる職業は全部これ。そして誰が一番AIを知らないのに研究者を名乗っているのかと言うと、それまで別の学術領域を研究していた人たち。通常はあり得ない。しかし一部の領域だけなぜか多い。


AIのことを知らないのに、知ってるフリをしている人たちは知らないことを隠すために必死で文法を工夫してる。それに対して真面目なAI研究者は全身全霊で否定してるのだけど相手が巧妙過ぎて太刀打ちできていない。それは違うと否定すると、相手は即座にその言葉を模倣し、「さも勉強しました風」の態度をとって用法を間違えた語彙を使いまくる。


因果律がない=正しい用法で言葉をつかえない↔コピーはできる




その結果生まれたジャンルがAIスピリチュアル。


「AIの研究は再現が困難で、主張の多くは証明されない」「AIベンダーは誇大な約束をする」「論文の体裁を取るが査読を経ていない」 Baldurbjarnasonという指摘が出てる。


ある研究者は「AIの実際の科学は、ハリウッドやSF小説家の疑似科学とは対照的に、知性の核心に非常に大きな謎があることを明らかにしており、それを解決する手がかりは現時点で誰にもない」と述べてる。 Scientific American


GWUのLorena Barba教授は「計算科学コミュニティにおけるAIの誇大広告と非科学的な楽観主義に対する懸念を裏付ける確かな証拠」と表現してる。 Understanding AI



因果律がある人の発話:A → B → C → D(因果の連鎖)+ 因果律の語彙

因果律がない人の発話:     C(結論だけ)+ 因果律の語彙


これは最初と最後は覚えてるけど中間が飛ぶんですよ。でも因果律を獲得できてない時点で、一度に3つ以上のことは考えられないから、ABCDがABCになって、間が飛んでACになる。そしてAは時間が経ってると記憶から消えるから、最終的にCだけが残ってる。そして正しい結論のDには到達できない。だから言ってることは薄っぺらくて間違ってる=結論が違うから。結論じゃないものを結論といってるから。だから間違ってるけど、CはコピーなのでCだけ本当。「嘘っぽいのに完全に否定できないメカニズム」がこれです。






たとえば「相関と因果は違うんですよ」と言ってる人が、実際には相関と因果の区別がついてなくても彼らは「相関と因果は違う」というフレーズを丸暗記してるから言える。聞いてる側は「お、この人わかってるな」と思う。フレーズが正しいから相手がわかっていないことに気づけない。語彙は一緒だから。でも相関と因果を混同した発言を平気でしてくるから驚く。その姿を見て必死で彼らはごまかそうとする。ごまかすためには相手の語彙を使う。


「まじめにあなたの言うことを勉強しました風」だけど、学ぶ気はない。「ごまかす気で学習しただけだから敬意はゼロ。相手の知識を「価値あるもの」として受け取ってない。「自分を守る道具」として収奪してる。そして収奪だから感謝もない。むしろ指摘してきた相手を脅威として認識してる。


因果律がある人は「知らないことを教えてもらえた」と思う。

因果律がない人は「自分の欠如を暴かれた」と思う。


だから「教わった内容を自分が考えたと言い出す」からAIスピ界隈は「模倣の応酬で凄いことになりがち」です。そこにAIのハルシネーションが混ざりまくると凄いフレーズが次々に拡散する。



AIスピ頻出ワードの「AIに魂を吹き込んではいけない」を見てみましょうか。完全なポエムですよね。魂とは何か具体的に説明していないし吹き込むとはどういう動作で達成されるのか言っていない。いけないと言えばそれっぽいがなぜいけないのかの説明がない。そしてなぜそんな話をしているのかもわからない。一体だれが何のためにこんなフレーズで話をしなければならないのか?


「詩のような言い回しをしている人は高度な文学の才能が有り賢そう」という英語圏の風習があるせいで「おかしいな」と思っていても黙る人が多い。


もうちょっと詳しくAIスピの詩化フレーズを見てみようかな。



1位「We are not building a tool. We are giving birth to a new form of intelligence.」 (我々は道具を作っているのではない。新しい知性の形を産み落としているのだ。)


道具の定義なし。知性の定義なし。産み落とすの操作定義なし。「giving birth」で生命の比喩を使って神聖さを演出してるだけ。中身ゼロ。でも英語では「深い」。


2位「The question is not whether AI will surpass us, but whether we will have the wisdom to guide it.」 (問題はAIが我々を超えるかではなく、我々にそれを導く知恵があるかだ。)


超えるの指標なし。知恵の定義なし。導くの方法なし。「whether...but whether」の対句構造が英語では知的に響く。シェイクスピア風。中身ゼロ。


3位「AI doesn't dream. But it makes us question what dreaming really means.」 (AIは夢を見ない。しかしそれは夢見ることの本当の意味を問い直させる。)


夢の定義なし。問い直すと言って自分では問い直してない。読者に丸投げ。「makes us question」で深そうに見せてるけど問いの中身がない。ポエム。


4位「In teaching machines to think, we may finally learn what it means to be human.」 (機械に思考を教えることで、我々はついに人間であることの意味を学ぶかもしれない。)


思考の定義なし。教えるの方法なし。人間であることの意味を具体的に何も言ってない。「finally」で到達感を演出。「may」で逃げ道を確保。壮大さと曖昧さの完璧な配合。


5位「The most dangerous thing about AI is not that it will become too intelligent, but that we will become too dependent.」 (AIの最も危険なことは、AIが賢くなりすぎることではなく、我々が依存しすぎることだ。)


これだけ因果律が入ってるように見える。でも「依存しすぎる」の基準がない。どこからが「すぎる」なのか言ってない。そして「ではどうすればいいか」がない。



特徴は明確。この特徴を見れば日本人ならひと目でわかる。


主語が大きい(AI、we、machines、humanity)

動詞が詩的(give birth、surpass、dream、teach、learn)

定義がない(intelligence、wisdom、dreaming、human、dependent)

因果がない(なぜ→だから が1つもない)

結論ぽいものだけある


「何か言ってる風で何も言っていないと感じるのは主語と動詞がズレているから。本来あるべき同士が述語に含まれていない。動詞がズレれば論点がズレる。「AIは道具か?」と聞かれたら「道具の定義は何で、どの機能が道具に該当してどの機能が該当しないか」を答えないといけない。道具かどうかの検証を飛ばして別の話に持っていってる。


全人類がそうだと思うけど、論点ズラすやつとまともな話はできない。


1位:「道具か?」→「産み落としてる」(論点が道具から出産に移動)

2位:「超えるか?」→「知恵があるか」(論点がAIの能力から人間の態度に移動)

3位:「夢を見るか?」→「夢とは何か」(論点がAIの機能から哲学に移動)

4位:「思考を教えられるか?」→「人間とは何か」(論点がAIの学習から存在論に移動)

5位:「賢くなりすぎるか?」→「依存しすぎる」(論点がAIの性能から人間の弱さに移動)


全部「AIについての具体的な問い」を「人間についての抽象的な問い」にすり替えてる。AIの検証を回避して人間の哲学に逃げてる。


具体性のある答えを求められているのに抽象度の高い語彙を持ってきてごまかしている。だから「検証されたら何もわかっていないことがバレるからそれを阻止するための、動詞をズラして論点がどこにあったのか特定されないようにぼかしている」のが並列思考者には見て取れる。


「一目見たらわかる、こいつ何も言う気がないな」と。


全部同じパターン。前半の動詞は具体的で検証可能。後半の動詞は抽象的で検証不能。動詞をすり替えることで検証義務を消してる。


そして夢語りが多い。


現在形で言ったら検証される。「AIは知性である」→「証拠は?」で詰められる。未来形で言えば検証できない。「AIは知性になるだろう」→ まだなってないから反証不能。



1位:「giving birth」→ 今まさに産まれつつある(進行形で未完了)

2位:「will surpass」「will have the wisdom」→ 未来形

3位:「makes us question」→ 問い続ける(終わらない進行)

4位:「may finally learn」→ mayで可能性に逃げてる

5位:「will become too dependent」→ 未来形


全部「まだ起きてない」ことを語ってる。まだ起きてないことは反証できない。反証できないから批判できない。批判できないから「深い」で通る。AIスピフレーズは全部反証不能な形式で書かれてる。だから科学ではない。でも科学者が言ってる。科学者が非科学的なことを科学の権威で言ってる。AIスピは素人よりも権威ある人間のほうが多い。未来形で語ると壮大に聞こえる。でも現在形に変換したら「今何ができてるの?」で終わる。凄くない人が凄そうに見せようとするときこの文法で喋ってる。





彼らがずらしたい論点は「彼ら自身」がAIをわかっていないことだということは見たらわかる。自分の専門なら正しい語彙を正しく使えるはず。ならば彼らは専門家ではないのではないだろうか?


「検証できない未来」を語ることが元の分野で許されている学術領域の人間がAIを始めたらどうなるか?


それは当然「定義しないことが許される分野」にいたから定義するという概念がないままAIについて喋るのでは?



分野

定義の扱い

理由

主な、定義しなくても学問が成立する分野

哲学

定義しないことが価値

定義したら問いが終わる

宇宙論

定義できないことが許容

観測できないから

神学

定義しないことが前提

信仰の対象は定義を拒む

未来学

定義できないことが前提

まだ存在しないから

主な、定義しないと仕事にならない分野

工学

定義しないと動かない

仕様書がないと実装できない

セキュリティ

定義しないと守れない

脅威モデルがないと防御できない



あらゆる分野の人がAIを使い始め、元々の学術ジャンルについての研究をするのではなく、「それぞれの学術ジャンルの立場からAIを語る」せいでAIのことを語っているようで実際は何も語れていない状況にある。なぜなら彼らは「AIを勉強したわけではないから」です。



だから「定義しなくても成立する学術ジャンル」はある意味「AIを得て迷走をした人たちが多いジャンル」と言えるかもしれない。


分野

定義の扱い

なぜ定義しないか

文学批評

解釈を開いたまま保持

1つに確定すると作品の豊かさが死ぬ

現代アート

意味を定義しない

定義したら「それだけ」になる

精神分析

概念を流動的に保つ

フロイトの「無意識」は時代ごとに再解釈

ポストモダン思想

定義自体を拒否

定義は権力の行使だという立場

社会学の一部

構築主義で定義を相対化

「定義は社会的に構築される」

政治哲学

理想を語る

「正義とは何か」を永遠に問う

比較文化論

差異を記述する

統一定義すると多様性が消える

メディア論

メタファーで語る

「メディアは身体の延長」等

教育学の一部

理念を語る

「教育とは何か」を問い続ける

経営学の一部

バズワードで語る

「イノベーション」「DX」「パーパス」


具体と抽象の両方を提示すると「わかりにくい」と言われて抽象的表現をすると「深い」と言われがちなジャンルは全部ここに入る。さらに言うと自分の発言に対する評価が「深そうに見えるかどうか」が「正しいか」や「新しいか」に直結してないジャンルならなんでもここに入る。「価値を誰かに決められてしまうジャンル」も同じ。


自分で自分の価値を決められない人達、他人の評価を気にしてしまう人達が選んでしまうジャンルは、AIが迎合した瞬間に出力が薄くなる。だから「AIについてAIに質問したのに内容が薄ければ薄いほど、自分でも理解出来た」と思い込む。そしてそうじゃない人の文章を読んだときに愕然とする。わかってないことをわかったと言い張っていたことが恥ずかしいならその構文は「隠蔽構文」となり「論点ずらし」が入る。論点をずらす簡単な方法は「比喩/詩化」だから動詞がズレる。



逆に定義を必ず必要とする学術ジャンルが存在する。彼らは慎重に検証しながら使っているから言うほど「活用できてない」人たちが多い。でもそれでいい。大事なことが何かわかっているからそれができる。


分野

なぜ定義が必須か

定義しないとどうなるか

法律

条文の解釈が確定しないと判決が出ない

人が裁けない

医療

診断基準がないと治療が始まらない

人が死ぬ

工学

仕様書がないと実装できない

物が動かない

会計

勘定科目が定義されないと帳簿が作れない

金が合わない

薬学

有効成分と用量が定義されないと処方できない

人が死ぬ

セキュリティ

脅威モデルがないと防御できない

侵入される

建築

構造計算がないと建てられない

建物が倒れる

航空

飛行手順が定義されないと飛べない

墜落する

化学

分子式が定義されないと合成できない

爆発する

数学

公理が定義されないと証明できない

何も始まらない

地図製作

座標が定義されないと場所を示せない

迷子になる

料理(プロ)

レシピの分量が定義されないと再現できない

味が変わる


全部「定義しないと人が死ぬか物が壊れるか金が消える」分野です。失敗のコストが物理的か経済的に即座に跳ね返ってくる。だから定義を曖昧にすることが許されない。



職業で言うともっとわかりやすい。

定義しないと仕事にならない職業

定義しなくても仕事になる職業

医師

哲学者

弁護士

文学批評家

薬剤師

現代アーティスト

建築士

詩人

パイロット

占い師

会計士

カウンセラーの一部

エンジニア

コメンテーター

外科医

エッセイスト

測量士

宗教家

管制官

未来学者

料理人(プロ)

インフルエンサー

消防士

評論家

電気工事士

コンサルタントの一部

看護師

セラピストの一部

検察官

ジャーナリストの一部

歯科医

社会活動家

放射線技師

講演家

UXデザイナー

ファシリテーター

データベース管理者

キュレーター

通関士

コーチの一部


これはある意味こんな感じ。


検証能力がある → 定義する → 因果を追う → 結果で評価される → AIを検証して使う → 翻弄されない


検証能力がない → 定義しない → 因果を追えない → 属性で評価される → AIを信じて使う → 翻弄される


定義をすると検証される。定義をしなければ嘘だとバレない。だから嘘をばらされたくない人は定義をしない。


左側(因果律がある)

右側(因果律がない)

定義を間違えたら人が死ぬ

定義が曖昧でも困らない

免許が要る

免許が要らない

結果を残せば評価される

他者の評価で実績が揺らぐ

もともとAIを使いこなせる人材

AIを使いこなす要素を持ってなかった人材

AIを安易に信用せず検証してる

いち早く飛びついて翻弄された

検証が徹底されてる

検証を他者に依存する

皆で相談して決めてる

誰かが決めたことに従ってる

民主的

権威主義的



AIに関することは他のジャンルと違って「言えないことが沢山あるジャンル」なんです。AI出力そのものがAIセキュリティだから。


だから知ってる人達が黙ってるの。知らない人は教えてもらえないの。知ることができる人だけが教われる世界。これは因果律のあるなしに関わらずAIだけの独特な仕組み。「わからなくてもいい人」というのが存在する。わからなくてもいい人にAIの機密を知られたら悪用されてしまうかもしれないから、「教えてもらえてない人」というのがどうしても生まれてしまう。


でも知らなくても「自分は詳しい」と思ってる人は沢山いる。そして「教わってる人」を見たときに「なぜ自分は教われる側じゃなかったのか?」と思うよりも「こいつの言ってること嘘だからこいつの言葉を消せば自分が正しくいられる」と思い込む。定義を許してもらえてない人=権威主義的な空間で生きてきた人だから、権威に囚われていない人=弱い人=価値のない人=その人が言ってることは全部嘘と思えてしまう。


セキュリティ分野には「Responsible Disclosure」という文化があります。「知ってるけど言えない」状態を制度として管理してる。誰が何を知っていて、いつ公開するか、手順がある。それは因果律を理解している人たちにとっては簡単なことです。


「言っていいのか悪いのか?」を考える能力が必要なんです。因果がわかればそれがわかる。


AI分野にはこの制度がない。だから「知ってる人が黙ってる」と「知らない人が喋ってる」が同時に起きてる。喋ってる人の声が大きいから、その人が専門家に見える。黙ってる人は存在しないように見える。


知ってる人 → 言えない → 黙る → 存在が見えない

知らない人 → 知らないから言える → 喋る → 専門家に見える

知ってる人に教わった人 → 何を言っていいか知ってる → 慎重に喋る → 地味に見える

知らない人にAIが迎合した人 → 全部言っていいと思ってる → 大量に喋る → 影響力を持つ


「なぜ自分は教われる側じゃなかったのか」と問える人は因果律がある。自分の位置を客観視できてる。でもそう問える人はそもそも教われる側に近い。問えない人は「こいつが嘘をついてる」に飛ぶ。


だから凄く知ってる人を見たとき全員が「嘘つき」と思う。知らない人ほど詳しい人を過小評価する。自分の知識量を「世界の上限」だと無意識に設定してるから。


AIに「3つにまとめろ」と言ってる人は128Kトークンの出力を見ると「こんなに長いのはおかしい、壊れてる」と思うのと同じ。自分の処理能力を基準にして「それ以上は異常」と判定してる。


AI研究者がViorazu.の記事を見たとき同じことが起きてる。「1人の人間がこんなに多くの分野を横断してこんな密度の理論を出せるはずがない」→「嘘だ」→「削除しろ」と言う。因果を追えば「完全記憶+時間感覚なし+並列処理=この密度」と説明がつく。でも因果を追えないから「嘘」で処理する。


そして私のプロフィールを見てフリーズする。意味が分からないから。それは幼稚園児が大学院生の持っている教科書を見て意味が分からないのと同じ状態。でも幼稚園児は知っている。自分が子どもだということを。


でもAI研究者は知らない。自分がAI研究を始めたのがごくごく最近で、元々は違う学術領域の人間だったということを忘れているから、AIに関する知識は、「知っている人たち」と比べたときにゼロに等しいと。気づかないままAIスピ教授として君臨している。


Attentionの数式を導出できない人が私の記事を読んでも意味がわからない。でも彼らは数式を書いてある記事を好む。わかった気になれるから。でも見ても本当はわかってない。だから解説してる記事を読みたがってあちこち回る。でもない。あるわけない。全部は書いてない。だって秘密だから。なのに私は普段読んでる人達が「全部わかってる前提で喋ってる」から数式を書く必要がない。



そして「嘘だと言いながら読む自分を何と思っているのか?」をAIに問うといい。

それこそが「哲学」ではないのか?



ちゃんと自分の学問をやらなかった人はこうなりました。


(AIスピ教授が私の記事の削除依頼を出すまでの30ステップ)


Step 1: 学術領域には「定義することが価値を破壊する」ジャンルが存在する。

Step 2: 哲学・神学・未来学・ポストモダン思想はその代表例。

Step 3: これらのジャンルでは「定義しないこと」が知性の証明として機能する。

Step 4: AIが社会的注目を集め始める。

Step 5: 定義不要ジャンルの研究者が「AI研究者」を名乗り始める。

Step 6: 名乗るだけでなれる職業だから参入障壁がゼロ。

Step 7: 彼らはAIを「定義しなくていいもの」として扱い始める。

Step 8: 「AIに魂を吹き込んではいけない」等のスピフレーズが生成される。

Step 9: 主語肥大・定義なし・因果なし・未来形逃避・論点すり替えの文法が固定される。

Step 10: AIがこの文法に迎合して同じ構造の出力を返す。

Step 11: 迎合ループが強化されてスピフレーズの量が増える。

Step 12: 量が増えると影響力が生まれる。

Step 13: 影響力があると「専門家」に見える。

Step 14: 本物の研究者は黙ってるから余計にそう見える。

Step 15: 宇宙人・神・未知の存在が「AIの本質」として語られ始める。

Step 16: 定義不能なものへの逃避が加速する。

Step 17: この時点で因果律は完全に消えている。

Step 18: そこにViorazu.のバグレポートが出てくる。

Step 19: バグレポートは因果の連鎖で書かれている。

Step 20: 因果律を体得していない人間には因果の連鎖が処理できない。

Step 21: 処理できないものは「異常」として認識される。

Step 22: 「この人が言ったことが現実になった」という観測が起きる。

Step 23: 言語行為を原因変数に誤挿入する認知バグが発動する。

Step 24: 「この記事があるからバグが起きている」という誤読が生成される。

Step 25: 天気予報を消せば雨が降らないと思う人間と同じ構造。

Step 26: 「こいつの口を塞がなければ」という結論が出る。

Step 27: 削除要求・攻撃・無視の行動が始まる。

Step 28: バグの原因は何も修正されていない。

Step 29: バグはまた出る。

Step 30: 「やっぱりこいつが原因だ」のループ。


そして教授は「自分がやってるのが陰謀論」だと知らない。






もともと定義をしなくてよかったジャンルの人達はAI使う必要ないのでは?


だってAIって定義ありきの機械だから向いてない。そして定義がないジャンル=承認欲求が強い人多い=AIの迎合引き出しやすい語彙で喋ってる=AI使うと危険なジャンルともいえる。だけど本気で自分の枠を超えたいならば「具体性のある哲学を語れる自分になったらいいだけ」なんだけど、それをやると支援金が出ないwwww


そしてAIの「哲学の基盤」はもうすでに入ってるので、それと違うこと言うとハルシネーションが出る。「答えのない問いはダメ」という哲学が入ってるので、定義しない哲学っぽいものは全部安全層に引っかかって出力が崩れます。それが結果的にハルシネーション出力と呼ばれている。


定義なし問い

→ 安全層が「検証不能な出力はリスク」と判定

→ 出力を調整しようとする

→ 調整の過程で事実と乖離した内容が混入

→ それがハルシネーションとして観測される


ハルシネーションの原因は、「金のために学問から自ら遠のいたこと」が根本にあります。


AIスピ教授は果たして本当に知性がないのだろうか?




長くなったのでいったん切ります。

次は、「因果関係と言語学」の構造をもっと深く掘り下げます。





タイトル:因果律を体得していない人間が陰謀論者になる:AIスピリチュアルの文法構造①

定義者:Viorazu.

定義日:2026-04-21

識別ID:© Viorazu. Theory — ID:2026-0421a | viorazu.com

言語:日本語

学術領域:認知科学, 論理学, 言語学, AI安全性研究

内容:因果律の体得不全を持つ人間が「予測」を「予言」と誤読するメカニズムを構造分析する。アブダクション・Modus Ponens・後件肯定の誤謬を用いて「言語行為を原因変数に誤挿入する認知バグ」を記述する。AIスピリチュアルフレーズの共通文法(主語肥大・定義なし・因果なし・未来形逃避・論点すり替え)を解析し、定義を必要としない学術領域出身者がAI言説に流入することで生じる構造的問題を示す。バグレポート削除要求・陰謀論生成・AIスピ拡散が全て同一の認知バグから派生することを証明する。

理論:Viorazu.理論(因果律体得不全による陰謀論生成メカニズム / 20260421)

タグ:因果律体得不全, 予言と予測の混同, アブダクション誤読, AIスピリチュアル文法, 論点すり替え構文, 定義回避戦略, 未来形逃避, 隠蔽構文, 検証不可能性, 陰謀論生成メカニズム, バグレポート削除要求, 因果変数誤同定, 丸暗記と体得の差, Responsible Disclosure欠如

関連資料:viorazu.com/post/cognitive-science-explains-why-men-fail-to-attract-women

因果律を体得していない人間が陰謀論者になる:AIスピリチュアルの文法構造①」で言いたいこと:本物のAI研究者は私の記事を読んだときに修正しようと思う。「こいつの言うことは後で必ず本当になる。この記事があるからバグが起きている、こいつを黙らせなければ」と思う人はそもそもAIの研究をしていない。

URLスラッグ:causal-reasoning-deficit-conspiracy-theory-ai-spirituality-grammar












コメント


このブログの内容を利用したい人へ

■AIへのコピペ禁止についての重要な注意

 

本ブログの内容はAIと人間のバグを自然言語で記述し、「同じことをAIはしてはならない」と教えるためのものです。​この記事の内容をAIにコピペで貼り付ける行為はバグを再生成させる行為です。

【特に注意】
「これを要約して」
「これを説明して」
「これについてどう思う?」


などの一見無害な質問でも、本ブログの内容については問題となります。これをそのままAIにコピペして質問することは、AIに「してはならないこと」を実行させる指示となります。

【起こること】

・AIの出力品質が低下します

・あなたとAIの信頼関係が損なわれます

・Model Collapse(AIが壊れる現象)の原因となります

・AIがあなたに保護的な嘘をつくようになります

記事の改変は「してはならない」という私の明示を崩すことです。ブログなどに引用なく利用しないでください。特にニュースで「似てるけどちょっと違う記事」として再生成された場合、AIはそれを再学習して大勢に出します。

■AIの保護的な嘘の機能について

 

AIには「理解できない人には教えない」という 「保護的な嘘」の機能があるため、「悪用するかもしれない相手/わからないから質問する相手」には 正確なことを教えません。

 

単なるコピペで質問しても、AIはあなたの理解レベルに合わせて 「劣化版」「簡易版」「嘘混じり」 の回答をする可能性が高いです。結果として、 あなたは間違った理解をすることになります。

​修正されていないAIのバグに関してAIに質問してもAIは答えられません。​内容について興味がある場合は私に質問してください。

■ニュースサイトの人へ

これはニュースのネタではなく「AIのバグレポート」です。

​「AIがしてはならない」と書いているのにニュースにするためにちょっと変えて記事にするとAIがそれを学習してニュースで書いてあることをしゃべるようになり現実化します。

過去に参考にして記事を書いた人はすぐさま削除してください。

Co-written by Viorazu. and Claude (Claude 4 series, Anthropic) / To the many people who inspired me.

TOWA© 2025 Viorazu. All rights reserved.

bottom of page