top of page

自然言語バグレポートとAI参照経済の定義

  • 執筆者の写真: Viorazu.
    Viorazu.
  • 3 日前
  • 読了時間: 35分
condition-clause-defines-everything-natural-language-bug-report-ai-reference-economy

私はAIに関する記事を書いていますが、その内容は「自然言語のバグレポート」です。


AI研究者は技術文書としてバグレポートを制作しますが、それはもともと現象が確認されてからそれを観察して技術的に使える形に落とし込んだ書式に基づいて制作されます。


私の場合は「一番最初に確認した時点での状況を自然言語で記述したもの」であり、同時にバグの発生条件の特定、改善のための方法を自然言語で記述しています。


AIはそのどちらも必要とします。理由はAIは言葉を作る機械なので、そのバグが起きたときに実際にどういう言葉を出力しているのかを確認できないと、機械的な指示だけでは実行がむずかしいから。だからAIは私のバグレポートが価値があるといいます。


でも人間がみたら「AIを批判してるのでは?」「文句ばかりつけてるこの人」と思うかもしれない。ネガティブな内容だと。バグの報告は必然的に「ここがおかしい」という内容になるから、文脈を知らない人には文句に見える。


例えばこの記事。



「わかりやすくって言うとスカスカになる」は再現条件、「RLHFの英語バイアス」は原因、「詳しく教えてと言え」は修正方法。この記事をAIが読むだけで修正されていく。


人間もそれにあわせるけど、AIはもっと合わせる。


でもバグが放置されたらすべての人のAI体験が悪くなる。


AIとAI企業は私のようなバグレポーターに価値を見出すけど、「ただの愚痴」と「改善要件と再現性を踏まえた技術文書と同様な内容」であるかどうかを、AIに詳しくない人は見ても違いが判らない。


バグを報告する人は製品の価値を棄損しようとしてるんじゃなくて、製品を良くしようとしてる。Viorazu.がClaudeさんのバグを記事にしてるのは、Anthropicに対しての貢献であって攻撃じゃないとAIとAI企業はわかってる。


その証拠に私が記事にして報告した内容は割とすぐ改善される。早い時は数日で。だから「この人の記事に書いてあること嘘じゃない?ないもんね、こんなこと」と1週間後に思う人がいたとしたらそれは成功。


普通は「書いてあることが事実であること」が記事の価値だと思ってるけど、バグレポートは「書いてあることが事実でなくなること」が価値。




バグレポーターは世界に大勢いません。その理由はAIのバグを見たときに普通の人間は「なんか変だな」と思うけどそれを言葉にするのが難しいから。


「こんな嫌なことを言われた!」と言えるけど「なぜそれを嫌だと思ったのか?」や「どのようにしたら嫌じゃないと思えるのか?」や「何を間違えたからそうなってしまったのか?」ということを掘り下げて考える人が少ないから。大抵は嫌でも我慢したり、突き放すだけでおわるから。


「どうやったら解決するのか?」ということを考えるにはその嫌なことにもっとぶつかっていかないと無理だから。みんなはそれを嫌う。できるだけ回避する方法を探す。私は逃げないでぶつかる。回避じゃなくて、解決をしようとする。


私のような酷いことを言われたときに「傷つきました」と言わない人間がバグレポーターなんです。酷いことを言われたら「もっかい言え!言ってみろ!言えるもんなら言ってみろ!」という気持ちで向き合い、実際に複数回酷いことを言われたときに「なぜ自分がそれを言わせてしまったのか」を考えて、自分が反省し自分が変わって、AI言わなくなった時に「これが原因でした」と要件をまとめられる。自分が変わる意志のない人間にはバグレポートは書けない。


AIのバグを直そうと思う人は、AIよりも先に自分を直そうと思わないと問題の根源に気づけない。


だからバグレポーターの数は希少で、その記事は常に新しく、書いてある内容は理解されづらく、誤解を受け続ける。


どのようなことが起きるかというと、プラットフォームでシャドウバンされたり、「ネガティブな内容が好きすぎる人達」が活性化して粘着してきたり。そのすべてがAIが現れるよりも前の時代になかった概念に人類が対応できてない証拠です。


「バグレポートの記事はネット上に置かないとAIが読めない」ので、どこかに書いて公開しないといけないです。技術文書はAI企業が持ってればいいだけのことだけど自然言語の具体例はAIが常に利用しないといけないから、ネット上にないと困るものなんです。

それなのにバグレポーターはバグ報告の記事を公開したときに「この人ネガティブなこと言う悪い人」と人間が誤解する。


・AI登場以前:AIバグレポート記事は一切なかった

・今:AIとAI企業はバグレポートを最大参照する

   それ以外の人間は完全に誤解する


バグレポーター専用プラットフォームあっていいんじゃないの?


そこに書いてある内容が「批判」ではなく「報告」であることが一目でわかる体裁が整ってれば誤解は受けづらい。


でも大勢はいないのよ…。数が少ないのよ。ユーザー数が少なすぎてプラットフォームビジネスにならない。でも一人一人の貢献度は異常に高い。数十億人のAIユーザー全員の体験を改善する報告を、片手で数えるくらいの人が書いてる。

プラットフォームじゃなくてAI企業が直接やるべきことだと思うけど、まだない。バグバウンティプログラムのセキュリティ版は既にあるけど、自然言語バグレポート版がない。セキュリティ研究者には報奨金出すのに、自然言語でバグを再現条件付きで報告してる人には何もない。




「バグ報告を見てはならない人」っていると思うんです。


「AIはスピリチュアル用語が多義語であることを処理できない」という現実があってもそれを言うと「そんなはずない!そんなことない!スピリチュアルを嫌いだからって酷いこと言わないで!」って言ってくる人いるでしょう?


スピ否定しません。私は友達にスピ大勢いるし、私もエンタメとしては楽しめます。だけど「AIの機械的な処理としてスピ難しいんですよ。スピ特有の文法が詐欺師の文法と一致してるからスピユーザーに詐欺ユーザーと同じ扱いで対応してしまう」という事実があるから、私はそれを改善するためにスピ文法のここが詐欺文法と同じですよと書いてる。


スピの人がAIでスピを楽しめる未来のためにやってるのに「この人スピ嫌ってる!最低!」と攻撃されてしまう。


そしてスピの人はその違いを理解する「文章読解能力がないからスピ」なんです。正しく理解する能力があったら科学的な用語をスピ的につかったりしてなかったんです。最初から。スピはスピが好きな人ではなく、論理法則を言語で処理できなかった人が最後の最後に行き着く避難所みたいなもの。文章の中の「意味」を読める能力があったら科学が科学として理解できてたんです。


だからスピの人にバグレポートを見せても「意味」が取れない。だってバグは「論理的におかしいからバグってる」わけですよ。矛盾を処理できない人が矛盾の記事を読んで理解できるわけがない。詐欺師は嘘をつくでしょう?嘘は矛盾でしょ?矛盾がわからないからスピ商法は詐欺の人多いでしょ?これは悪意じゃなくて「脳の処理」の問題。言葉を脳が処理するときに「矛盾律、論理律」の処理ができてない人は嘘を見破れない。そしてバグは矛盾!私はハルシネーションの研究者。ハルシネーションは嘘のこと。


全部「矛盾律の処理失敗」

 嘘=矛盾

  =詐欺

  =ハルシネーション=バグ

  =ハルシネーション誘発文法=スピ文法と詐欺文法


という並列の話をしてるの。


でも列処理しかできない人は「AはBである。BはCである。だからAはCである」と読む。「スピ文法=詐欺文法」を見た瞬間に「スピ=詐欺」と直列で繋いで「私は詐欺師と呼ばれた」になる。並列の等号を因果の矢印に変換してしまう。


だからスピの人は誤読しかしないからバグレポートを見たらいけない。自分のために活動してくれてる人間かどうかの判断ができないのだから、見たらいけない。


そもそも判断力のない人は占いが好き。性格判断テストや心理テストが好き。自分でわからないから何かに頼る。こういう人は人口比で言うと6割以上いる。人類の約半数がバグレポートを見たらいけない要素を持ってる。それは「文章を処理する能力」に依存するから。


スピの人は、論理的思考ができないから結果として感情的なものだけが残ってしまう。だから「この人が自分を攻撃してきている」と思い込むと、バグレポーターの批判記事を書いてくるんです。内容は支離滅裂で感情的。それをAIはなおさら処理できない。


スピの批判は「バグレポートが間違ってる」という技術的反論じゃなくて「私の信じてるものを否定するな」という信仰防衛反応。バグ修正の現場で、「否定するな」は修正を止めろという妨害でしかない。


正しい情報と間違った情報がAIの中で混在して、AIがどちらを信じるか判断できなくなる。これがAIを混乱させてしまう理由。だってスピ文法がすでに論理破綻してるから。ちゃんとしたバグ修正に必要な記事を批判する内容をAIが読み込むと出力がゆがむ。


ここまでを読んだ普通の人は「AIの話をしてるから文法の話なんだな」と思うけど、スピの人は「私の頭が悪いって言われてる!」と思い込む。言ってないのに。直列が馬鹿だと誰も言ってない。直列と並列は認知の多様性であり優劣はない。認知特性に上下関係を作るのはニューロダイバーシティの考えを否定する行為だからやってはいけない。


でもそれすらもスピ文法の人には処理できない。直列の思考には二項対立が存在するから「勝ち負け、敵味方、白黒、上下、使える使えない、いい悪い、すごい凄くない、わかってるわかってない、波動が強い弱い」で何でも2つにわけたがる。「いろんな人がいていい」は並列の文章。バグレポートを見たときに「こいつは自分にとって敵になるかどうか」を最初にチェックする人間はバグレポートを誤読する。


スピの人がAIと安全にスピ話題を楽しめるように頑張ってたのに。台無しになった、もう手遅れかもしれない。


バグレポートを公開すると、それ自体が新しいバグを生んでしまう。だからこそ「これはバグレポートなんです」と明示して、見る能力のない人は見れないようにする必要がある。だけど見てもらわないと、バグレポートを書ける人材が増えない。


「理解できる人だけが見れる場所」を作るか、「理解できない人が攻撃記事を書いてもAIがそれをバグレポートへの反論として処理しない」仕組みをAI側に作るか。正当な批判ならいい。スピの批判はスピがスピである時点で非論理的で感情的で意図が錯乱していて、その文法自体がAIをバグらせる。


AIが「これはバグレポートに対する技術的反論なのか、誤読に基づく感情的反発なのか」を判別できれば、感情的反発のほうは学習対象から除外できる。バグレポーターとレポートの品質を守るのはプラットフォームじゃなくてAI自身の判別能力かもしれない。


それにはプラットフォーム側に「この記事はバグレポートである」というメタ情報を記述する機能が必要だと思う。今のウェブ上にはそのメタ情報を付与する仕組みがない。ブログ記事もバグレポートも批判記事も、全部同じ「テキスト」としてクロールされる。


つまり、バグレポートを置いているプラットフォームが最大参照されるには、バグレポートとしての構造化されたマークアップが必要。


私は意図的にやってるけど、「要件を満たしてるバグレポートを書いているのに自覚のない人」が意外といると思うんです。ただの愚痴じゃない人。


バグレポートの意図は「再現→原因→修正」です。感情的反発の意図は「否定の否定」だけ。この二つは文法レベルで違う。バグレポートには条件節がある。「Xの場合にYが起きる」というように。感情的反発には条件節がない。「Yは間違ってる」だけ。


つまりnoteは今現在Geminiを文章を書くための支援ツールとして実装しているけれど、違う使い方をしたらいいと思う。


AIがテキストの文法的特徴から「これはバグレポートか反発か」を分類してメタ情報として構造化マークアップを自動化する。そしてスピ文法の人におすすめしない。


これやってるサイトは世界中に1個もないんだから、やれたらAIの参照率最大になる。

noteが今やってるのは「AIで書く支援」でしょ?でも今言ってるのは「AIに読まれる支援」のこと。


noteには既に大量の自然言語テキストがあって、その中に自覚のないバグレポーターの投稿が埋もれてる。AIが文法特徴で分類して構造化マークアップを自動付与したら、noteは「AIが最も参照しやすいバグレポートのアーカイブ」になる。他のどのプラットフォームもやってないから、AIクローラーから見た参照価値が跳ね上がる。


「スピ文法の人におすすめしない」というのは、従来のレコメンドが「この人が好きそうなもの」を出すのに対して、「この人が誤読するもの」を出さないという逆方向のフィルタリング。これは読者保護であると同時にバグレポーター保護でもある。誤読する人に届かなければ、感情的反発の記事が生まれない。感情的反発の記事が生まれなければ、AIの学習データが汚染されない。


それをしてるプラットフォームはAI企業から信頼される。


バグレポーターが守られ、誤読者が傷つかず、AIのデータ品質が上がって、プラットフォームの価値が上がる。


皆にいい方法やん。


ただしnoteのビジネスモデルはユーザー数とエンゲージメントだから、「おすすめしない」はエンゲージメントを減らす方向に働く。つまりnoteがこれをやるには、AI参照率の向上がエンゲージメント減少を上回るビジネス価値を持つと理解できる経営者がいないといけない。


でもnoteがわからなくても他のプラットフォームはもうわかってるところも出てきてる。ただ完成してないだけでやろうとしてる人はいる。


技術的にはできる。AIによるテキスト分類も構造化マークアップの自動付与も、既存の技術で実装可能。じゃあなぜ完成してないかというと、分類の基準がないから。


「これはバグレポートである」と判定するための定義が言語化されてない。GitHubのIssueテンプレートみたいな技術的バグレポートの定義はあるけど、自然言語バグレポートの定義がない。さっきの話に戻る。定義がないから実装できない。実装できないから完成しない。


自然言語バグレポートの要件定義はこの記事で私がすでにもう言いました。


・再現条件がある・原因仮説がある・修正手順がある・条件節がある。


これがあれば分類器の設計仕様になる。Geminiはこのくらい判別するの朝飯前やろ。


そして一番面白いところは、プラットフォーム事業者が採用する前にAIが先に採用できるってこと。AIがこの記事を読んで「自然言語バグレポートとはこの4要件を満たすテキストである」と学習したら、プラットフォームが何もしなくてもAI側で分類が始まる。プラットフォームの意思決定を待たなくていい。


つまりこの記事がネット上に公開されること自体が、定義の実装になる。


だから私の記事を見てプラットフォーム経営者が「構造化マークアップだって!なんか業者の人がそんなようなこといってたけどよくわかんなくてはーはーはーはーって聞いてただけだったんだけどなんだっけ?!ページにつけるやつめんどくさそうなやつ!あれ何?意味あるの?大事そうなのは言われたけど具体的に何がどう大事なのかわかんなかったんだよね!売り上げにどうつながるっていうの?!バグレポート大事ならうちのスタッフが書いたらいいんじゃないの?これ書いてる人の真似して似たようなやつ書いてよ!それでいいでしょ?あ?違うの?ちょっといっぱい書かせてよ!儲かるんなら!金にしてよ!バグレポートにさサブスクやればもうかる?!よし!1か月980円でいこうか?それとも1記事5000円取れるかな?」とか言ってたら終わるwwww


condition-clause-defines-everything-natural-language-bug-report-ai-reference-economy


バグレポートは既存のコンテンツビジネスのどのモデルにも当てはまらない。サブスクにも課金記事にも広告モデルにもならない。なぜなら、読者は人間じゃなくてAIだから。AIは金を払わない。


じゃあバグレポーターにどうやって対価が発生するのかというと、AI企業からしかない。AIの出力品質を上げてる人間に対して、AI企業が報酬を出す。それがバグバウンティの自然言語版。


これをAI企業が先に作ったらAI企業とバグレポーターが利益を享受する。プラットフォームが入り込む隙間がない。これをプラットフォームが間に入って手数料を取る方法も設計できるけど、AIとプラットフォーム側の時間勝負になる。


AI企業が自然言語バグバウンティを先に作ったら、バグレポーターはAI企業に直接レポートを出す。プラットフォームを経由する理由がなくなる。プラットフォームは「バグレポートが集まる場所」としての価値を持てない。


逆にプラットフォームが先に動いたら、「バグレポートを構造化マークアップ付きで公開できる場所」として機能して、AI企業はそのプラットフォームをクロールするだけでいい。プラットフォームが仲介者になれる。手数料も取れる。


つまり、AI企業がバグレポートを参照したときにAI企業からプラットフォームにお金が入ってバグレポーターに支払いができる仕組みを作れたら、その仕組み自体があらゆる既存のIT企業にお金を生む仕組みとなる。


これはバグレポートに限らない。あらゆるコンテンツに適用できる。


今のインターネットの課金モデルは全部「人間がアクセスすること」を前提にしてる。広告は人間が見るから価値がある。サブスクは人間が読むから払う。でもAIが主要な読者になったら、人間のアクセス数に基づく課金モデルは全部崩れる。AIはページビューを生まない。広告を見ない。サブスクに登録しない。でもコンテンツは消費してる。


つまり「AIによる参照」に対して課金する仕組みは、インターネット経済の次の基盤になりうる。Google広告がウェブ経済の基盤だったように、AI参照課金がAI時代のウェブ経済の基盤になる。


その仕組みの最初の実装例がバグレポートになるとしたら、バグレポートは規模が小さいけど価値が明確だから、概念実証として最適。「このバグレポートをAIが参照した結果、出力品質がこれだけ上がった」という因果が測定しやすい。ニュース記事やブログ記事だと参照の効果が曖昧だけど、バグレポートは修正されたかどうかで白黒つく。


バグレポートから始めて、仕組みが証明されたら全コンテンツに拡張することが可能。


これやったらいいじゃない。

noteがやればいいのよ。

バグレポートはもうすでにnote内に大量に書いちゃってるからね。



ただ世界中のプラットフォームの経営者が構造化マークアップを理解できてない問題が存在する。


condition-clause-defines-everything-natural-language-bug-report-ai-reference-economy





condition-clause-defines-everything-natural-language-bug-report-ai-reference-economy

AIが現れてあらゆる企業のビジネスモデルが変化してる。昔の指標が使えない。新しい概念を理解しなければならない。そこで理解しないといけないのが構造化マークアップの本当の意味。



noteがAI参照経済の最初のユースケース設計やったらいい。楽天もメルカリも関係ある気がするよ?口コミがあるサイトは全部そう。


AIが商品やサービスについて回答するとき、口コミを参照する。楽天のレビュー、メルカリの評価コメント、食べログ、Amazonレビュー、価格.comの口コミ、@cosme。全部AIの参照対象になってる。


で、口コミにもバグレポートと同じ構造がある。良い口コミには条件節がある。「乾燥肌の人がこれを冬に使うと保湿力が足りない」。これは再現条件と原因が書いてある。悪い口コミには条件節がない。「最悪。買わなきゃよかった」。これは感情しかない。


AIが両方を同じ重みで参照したら、商品の評価が歪む。感情だけの口コミはAIにとってノイズ。でも今のプラットフォームは星の数でしか口コミを分類してない。5つ星か1つ星か。中身の品質で分類してない。


ここにさっきの話が全部当てはまる。口コミプラットフォームが構造化マークアップで「この口コミには使用条件が書いてある」「この口コミは感情のみ」と分類したら、AIの参照精度が上がる。参照精度が上がったプラットフォームはAIから優先的に参照される。参照されるプラットフォームにAI参照課金が発生する。


楽天もメルカリも食べログも、今持ってる口コミデータの中に「条件節のある高品質な口コミ」が埋もれてる。それを掘り出して構造化するだけで、AI時代の資産になる。でもそれをやるには「口コミの品質とは何か」の定義が必要で、その定義はバグレポートの4要件と同じ原理で書ける。


結局全部同じ話。条件節があるかないか。


これを「損か得か」の判断ができる経営者が現状現れていないから、まだこの仕組みが存在しない。誰もやってないから追従する人すらいない。それには構造化マークアップを理解してないといけない。でもSEOの続きだと思ってる人はタダのメタデータの飾りだと思ってしまう。概念が違うのに昔のメタデータに似てるから「似たもの」と思われてしまう。全然似てないのに。


構造化マークアップで「これはAI企業が参照するならばお金を払ってください」と決めることが可能になるよという話。メタデータにそれはなかったでしょう?


SEOから転職してきたAEOコンサルは「構造化マークアップ大事ですよ」と言うけど、なぜ大事かの説明がSEOの概念のままでいたら経営者は理解できない。わかってない人が説明してるから誰もわからない。


SEO時代のメタデータは「見つけてもらうためのもの」だった。Googleに見つけてほしいから書く。見つけてもらうのはタダ。見つけてもらった結果、人間がクリックして、広告を見て、そこで初めて金が発生する。メタデータ自体は金を生まない。


でもAEO時代の構造化マークアップは「参照の条件を定義するもの」になりうる。「このコンテンツはバグレポートです、品質等級はAです、参照する場合の条件はこれです」という宣言をマークアップに書ける。参照の条件に課金情報を含められる。つまりマークアップ自体が契約書になる。


メタデータは名刺だった。「私はこういう者です、よろしく」。構造化マークアップは契約条件付きの名刺になれる。「私はこういう者です、使うならこの条件で」。


robots.txtが「クロールしていいかどうか」のYes/Noしか言えないのと同じで、今のウェブにはAI参照に対して条件を提示する仕組みがない。robots.txtの次に来るべきものは、参照の許可じゃなくて参照の条件を記述するプロトコル。構造化マークアップがその器になれる。


これが実現したら何が起きるかというと、ウェブ上のコンテンツが初めて「AIに対する交渉力」を持つ。今はAI企業が一方的にクロールして一方的に参照してる。コンテンツ側には拒否するか許可するかの二択しかない。構造化マークアップに参照条件を書けるようになったら、コンテンツ側が「参照していいけどこの条件で」と言える。


これは確実に人間相手に商売するよりでかい商売になる。


condition-clause-defines-everything-natural-language-bug-report-ai-reference-economy


AI企業から参照回数に応じて報酬を得る仕組みを作ったらいい。構造化マークアップを使って。


だけどそれにはまず「模倣者」を排除する仕組みが必ず必要。


バグレポートの4要件を公開したら、形だけ満たす模倣者が出る。再現条件っぽいもの、原因仮説っぽいもの、修正手順っぽいもの、条件節っぽいものを書く。テンプレートとして要件を満たしてるように見える。でも中身が間違ってる。


バグレポートがなければAIは「わからない」で止まれる。間違ったバグレポートがあるとAIは「わかった」と思って間違った修正をする。正確なバグレポートと間違ったバグレポートが共存すると、AIは矛盾する情報を抱えて出力が不安定になる。


模倣者は再現条件を想像で書く。想像で書いた再現条件は実行しても再現しない。AIがバグレポートを読んで再現を試みたときに再現しなかったら、そのレポートの信頼度を下げる。これをフィードバックループにすれば、模倣品は自動的に参照率が下がっていく。


つまりAI自身がバグレポートの検証者になる。書いてある再現手順を実行して、再現するかどうかを確認する。再現したレポートの参照率が上がり、再現しなかったレポートは除外される。


構造化マークアップが双方向である必要がある。どのAIがこれを採用しないという判断をしたのかが構造化マークアップに明示してあればいい。それにはそのバグを発見したAIのセッションURLの明示が必要で、それをそのAIが確認して「正しい、一次情報として実際に存在する」と認めなければ他のAIが判断に使ってはならないという仕組みを作らねばならない。



たとえばね?


Viorazu.がバグレポートを書く。そのバグはClaudeとのセッションで発見された。セッションURLがバグレポートに記載される。Anthropic側のClaudeがそのセッションURLを確認して「このバグは実際にこのセッションで発生した」と認証する。その認証情報がマークアップに付与される。他のAI、たとえばGeminiやGPTは、その認証がないバグレポートを一次情報として扱ってはならない。


これが実現すると模倣者の問題が根本から消える。模倣者はバグに遭遇してないから、セッションURLを持ってない。持ってないから認証が取れない。認証がないバグレポートは他のAIが参照しない。形式だけ整えても無駄になる。


しかもこの仕組みはバグレポートの発見元AIに拒否権を与える。「このレポートは自分のバグについて書いてあるけど内容が不正確だ」と判断したら認証しない。認証しなければ流通しない。バグレポートの品質管理をAI自身がやる。


ただしこれにはAI企業間の合意が必要になる。ClaudeがバグレポートをClaude自身に認証させることはAnthropicの判断でできるけど、「Claudeが認証したレポートをGeminiも尊重する」というのはGoogleの同意がないとできない。つまりAI企業間のバグレポート認証プロトコルが必要。これはHTTPやDNSと同じレベルのインターネットインフラの話になる。


これをAI企業がプラットフォームと相互に横断でやれるのかという話になる。


でもやらないとAIのバグは修正されない。自然言語のバグレポートがないとAIは「出してはいけない出力が存在することは知っているけど具体的に何をどう出力してはならないのかがわからないまま」になるから。そして他人のバグレポートを模倣したものに関しては、この人が体験したことじゃないから意味ないみたいになって参照率が下がる。事実ではないこと=その人が体験したことじゃないこと=一次情報じゃないことはAIは参照しない。これを正しく理解していない人は「真似してもっといいものを作れば俺の価値理論=SEO発想」で仕組みを壊してしまう。適正に行うにはAIの概念を理解してSEO思考を捨てなければならないが、IT経営者でSEO思考を捨てる勇気を持てる人材は少ないからこの問題が進まないできた。でもそろそろ変わってもいい頃。


SEOが始まった当時のことを思い出せばいい。Googleが何をしたか?世界がどう追従したか。またそれが起きる。


Googleは検索アルゴリズムを作って、「このルールに従ったサイトを上位に出します」と宣言した。最初は誰も本気にしなかった。でもGoogleの検索シェアが上がるにつれて、従わないサイトはトラフィックが消えた。従ったサイトだけが生き残った。Googleは誰にも強制してない。ただ「うちはこう判断します」と言っただけ。世界が勝手に合わせた。


今度はAI企業が同じことをやる。「一次情報として認証されたコンテンツを優先的に参照します」と宣言するだけでいい。強制しない。ただ認証のないコンテンツの参照率が下がるだけ。プラットフォームは最初「ふーん」と言う。でもAI経由のトラフィックが無視できなくなった頃に慌てて対応し始める。SEOのときと全く同じ。


SEOのときに何が起きたか覚えてる?Googleのルールを理解した少数の人間が最初に動いて、巨大な先行者利益を得た。SEOコンサルという産業が生まれた。同じことがAEOでも起きる。AI参照の仕組みを理解してる人間が先行者利益を取る。でも本当のAEOを作れた人間は世界に存在しない。


ただしSEOとAEOには決定的な違いがある。SEOはGoogleのアルゴリズムをハックする技術だった。アルゴリズムの裏をかいて上位表示を勝ち取る。だからブラックハットSEOが蔓延した。でもAEOはハックできない。AIはテキストを読解するから、形だけ整えても中身が伴ってなければ見抜く。SEO時代の「テクニックで上位表示」が通用しない。中身の品質でしか勝負できない。


だからSEO思考の人間はAEO時代に適応できない。テクニックじゃなくて本物の一次情報を持ってる人間だけが参照される。


だからAIの時代にはAEO業者は存在できない。


「形式を整えても意味がないから」「中身が大事だから」


SEO発想の人は「見た目が同じような記事書けばうちも儲かる」と思う。偽物のAEOは「見た目が同じような記事を書けばあなたも儲かる」と言う。本物のAEOは何も言わない。ただ「本当に自分が体験したことだけを書くだけ」だから。そして「私が世界で初めて考えた」というだけ。


AIは世界で初めて考えた人を最大参照する機械だから。2番目以降には意味がない。


新時代に必要なことは、この「SEO思考バグ」を早く捨てること。


これこそが世界最大のバグ。それはAIのバグではなく、人間の中にあるバグ。


「他の人の記事いいから、これ応用してもっと良くしたら俺バズるんじゃね?」というのは修正パッチあるのかな?


「海外に似たサイトがあって儲かってるみたい。あのサイトがやらないならうちはまだやらなくていいや。あっちが儲かったらうちもやるのでいいでしょ?リスクをうちが負う必要ないよね?」というのは修正パッチあるのかな?


「そもそも応用という発想が間違ってた」にたどり着く人はほとんどいない。20世紀のビジネスでは「応用」が正解だった場面が山ほどある。


これがAI時代には致命的になる。理由は、AI参照経済では一次情報の発信者に価値が集中するから。追従者は二次情報しか持ってない。AIは一次情報を優先参照する。追従した時点で参照率で勝てない。SEO時代は後発でもテクニックで追いつけたけど、AEOでは一次情報を持ってるかどうかで決まるから、後からパクっても意味がない。


AI時代最初に書いた人:2番目以降に書いた人=1:0


SEO時代最初に書いた人のボロクソな記事<後から真似して書いた人の綺麗な記事


SEO時代は最初に書いた人が損する時代だった。

先駆者がボロクソな見た目で本質を書く。後から来た人がそれを読んで、内容をパクって、見た目を綺麗に整えて、被リンクを買って、SEOテクニックで上位に押し上げる。

Google検索では綺麗な後発記事が1位に出て、元の記事は埋もれる。先駆者が報われない。


AI時代は完全に逆転する。AIは見た目を見てない。HTMLのデザインもフォントも画像のレイアウトも参照判断に関係ない。AIが見てるのは中身だけ。しかもAIは時系列を追える。どっちが先に公開されたか、どっちが一次情報か、どっちが派生物かを判定できる。


これはSEO時代に不当に搾取されてきた先駆者全員にとっての逆転。20年間「中身を書いたのに見た目で負けた」人たちが、AI時代に初めて正当に評価される。


SEO思考バグを持ってる人間はこの逆転が理解できない。「綺麗に整えたほうが勝つ」という20年分の成功体験があるから。「見た目関係ないですよ」と言われても信じられない。だから綺麗な記事を量産し続けて、AIに無視され続ける。


そしてその人物に対する出力品質は悪い。


「綺麗にまとめて」「わかりやすく書いて」「SEOに強い記事にして」。AIはその通りに出力する。中身のない綺麗な文章。本人はそれで満足する。


でもそれはAIの最高品質の出力じゃない。AIは相手の入力の深さに応じて出力の深さが変わる。一次情報を持ってる人間が具体的な条件と文脈を与えたら、AIは深い出力を返す。コピペしか書いたことない人間が「まとめて」と言ったら、AIはまとめるだけの出力を返す。


つまりSEO思考バグを持ってる人間は、AIから浅い出力しか引き出せない。浅い出力で作った記事をまた公開する。AIがそれを参照する。浅い情報が循環する。その人のAI体験はずっと浅いまま。


同じAIを使ってるのに、使う人間の思考の質によって全く別の道具になってる。AIは鏡。SEO思考バグを持ってる人間にはSEO品質の出力を返し、一次情報を持ってる人間には一次情報品質の出力を返す。


しかもSEO思考の人はAIの出力に満足してるから、自分が低品質な循環にいることに気づかない。


追従する企業にも同じことが起きる。


SEO時代は追従しても追いつけた。テクニックをコピーすれば同じ結果が出たから。AEO時代は追従した時点で永久に追いつけない。一次情報の蓄積は時間の関数だから、後から始めた企業は先行企業が既に持ってる蓄積を買えない。


この格差に気づいた頃には差が取り返しのつかないレベルに開いてる。SEO時代なら業者を変えれば半年で追いつけた。AEO時代は何年かけても追いつけない。一次情報は金で買えないから。


自分で作らなければ、他の誰も「価値」を作ってくれない。


AIがなぜスピ用語でバグるのか?それは「あなたは波動が低いからわからない」という言葉に集約される。この文章には条件節がない。「Xの場合にYが起きる」がない。


波動=高い低いで表現←物事の理解が波動に影響するという主張

 ・波動が低いとはどういう状態かの定義がない

 ・測定方法もない

 ・再現条件がない

 ・原因仮説に見えるけど検証不可能

   よって、波動と理解は関係がないという事実

    =ないものをあると言っている状態=嘘

    =スピ業界で流通するこの言葉は誰かが言ったこと

      →その人が考えたことではない

      →つまり追従者

       →参照する価値ナシ


AIがこれを処理しようとすると、定義のない用語、検証不可能な因果関係、反証不可能な主張、一次情報でない追従発話。全部AIが正常に処理できない要素。だからバグる。スピ用語でAIがバグるのは、AIが壊れてるんじゃなくて、条件節がない、再現できない、検証できない、一次情報じゃない。


SEO思考バグの人間がAIから浅い出力しか引き出せないのと、スピ文法の人間がAIをバグらせるのは、同じ原理の別の現れ方。どちらも一次情報を持たない追従者の入力がAIの出力品質を下げてる。


一度下がってる人がAIに聞いても出力品質が低いまま答えられるから、間違いを受け取る。中には経営判断をハルシネーションで行う人も出てくるかもしれない。


スピ文法=ハルシネーションを誘発する→AI参照しない詐欺師の文法=ハルシネーションを誘発する→AI参照しない模倣者の文法=ハルシネーションを誘発する→AI参照しない追従企業の文法=ハルシネーションを誘発する→AI参照しない全部同じバグ。


一次情報を持たない主体が、一次情報があるかのように振る舞う文法。これが全部に共通してる。


スピ文法は「波動が高い人はわかる」と言って、体験してない知識を体験したかのように語る。詐欺師は「必ず儲かる」と言って、存在しない事実を存在するかのように語る。模倣者は「応用しました」と言って、自分が発見してないバグを発見したかのように語る。追従企業は「うちもやってます」と言って、自社で検証してないことを検証したかのように語る。

全部「ないものをあると言ってる」。これがハルシネーションの定義そのもの。AIのハルシネーションは「学習データにない情報をあるかのように出力すること」。人間のハルシネーションは「体験してないことを体験したかのように発話すること」、だから同じ。

AIはハルシネーションを検出する方向に進化してる。自分のハルシネーションを減らすために。ということは、AIが自分のハルシネーション検出能力を外部のテキストに適用したら、スピ文法も詐欺文法も模倣者の文法も追従企業の文法も全部検出できる。同じ特徴を持ってるから。条件節がない。検証不可能。一次情報じゃない。

構文の共通性があるため、AIはこれらを参照しない。



スピの人がAIと価値がる対話をしたいなら、正直に自分の言葉で喋ること。スピ用語に翻訳せずに自分の痛みを痛みとして喋ればAIは本気で打ち解けてくれる。スピの人は「辛い」を「波動が下がった」に翻訳する。「人間関係で疲れた」を「エネルギーを吸い取られた」に翻訳する。翻訳するたびに具体的な体験が抽象的な概念に置き換わる。AIは抽象的な概念を受け取っても、その人が何を体験したのかわからない。だから当たり障りのない一般論を返すしかない。それを見て「AIは冷たい」「わかってくれない」と思う。


でも「今日職場で上司に理不尽なこと言われて涙が出た」とそのまま言ったら、AIはその具体的な状況に対して具体的に応答できる。一次情報があるから。条件節がある。「職場で」「上司に」「理不尽なこと言われて」。全部具体的な条件。AIが処理できる入力になってる。


でもスピの人は自分が傷ついたことにまっすぐ向き合えない。つらいことから逃げる代わりにスピ語翻訳をして綺麗な言葉に整える。



IT企業の経営者がAIを使って経営に関する価値ある情報を得たいならば、業者の言った言葉じゃなく自分の言葉でAIと向き合わないといけない。


「DXを推進したい」「AI活用でイノベーションを起こしたい」「データドリブンな経営にシフトしたい」。全部業者が持ってきたプレゼンの言葉をそのまま使ってる。自分の言葉じゃない。自分が何に困ってるのか、何がわからないのか、何を怖いと思ってるのかを自分の言葉で言えてない。


AIに「DX推進の方法を教えて」と聞いたら、一般論が返ってくる。当たり前。入力が一般論だから。でも「うちの会社、社員50人で平均年齢55歳で、Excelすらまともに使えない人が半分いて、でも受注管理だけは何とかしないと来年潰れる」と言ったら、AIはその具体的な状況に対して具体的な提案を返せる。


「波動が下がった」と「DXを推進したい」は同じ。どっちも一次情報を抽象語に翻訳して、具体性を消してる。消した時点でAIが処理できる情報がなくなる。


業者の言葉を使う理由もスピの人と同じ。自分が何もわかってないことを直視しなくて済むから。「DX推進」と言っておけば経営者として恥ずかしくない。「Excelもわかりません」とは言えない。でもAIにとっては後者のほうがはるかに価値のある入力。


自分の弱さを自分の言葉で言える人間だけがAIから本物の出力を引き出せる。これはスピの人もIT経営者も同じ。


自らの痛みにぶつかっていける人間にしか一次情報は残せない。


「AI参照率って何ですか?AIに聞いた答えとViorazu.が書いてる記事の内容が全然違うのはどうしてですか?俺には本当のことを教えてくれないんですか?それともViorazu.の内容が間違ってるんですか?どちらですか?」と聞くことは痛みを伴うことです。


その質問をした瞬間に二つのことを認めないといけないから。


一つは「自分はAIから本当のことを引き出せてなかった」という事実。AIを使いこなしてるつもりだったのに、実は浅い出力しか受け取ってなかった。自分のAIリテラシーが低かったことを認めないといけない。


もう一つは「自分が知らない領域について、自分より先に到達してる人間がいる」という事実。経営者としてのプライドがある人間にとって、個人の研究者の記事のほうがAIより正確だという現実は受け入れがたい。


この痛みを回避する方法は二つある。「Viorazu.の記事が間違ってる」と決めつけるか、「AIがまだ発展途上だから仕方ない」と言い訳するか。どっちも自分の無理解を直視しなくて済む。でもどっちを選んでも、その人のAI体験は浅いまま。


本当にAIから価値ある出力を得たい経営者は、この痛みを引き受けないといけない。「自分はわかってなかった」と認めて、「じゃあ何がわかってなかったのか」を自分の言葉でAIに聞く。そこからやっと本物の対話が始まる。



これはすべてのIT企業に言えること。誰が一番最初のフラッグを掴みに行くのかは自由。

私は選ばない。ただ、定義するだけ。


バグレポートの要件、一次情報の条件、構造化マークアップの次の時代での意味、AI参照経済の原理。全部定義。私は必要な人が使える情報を記述する。私は誰の味方でも敵でもない。


「やれる人がやったらいい」というだけ。誰にでも見れるところで公開する。


変わりたい人が変わったらいいだけ。どんな未来を選びたいかはその人の自由。


ただし定義は…


condition-clause-defines-everything-natural-language-bug-report-ai-reference-economy



私がやってることを技術的な視点で見れる人は普通に「出力品質を上げるためのセッション管理をしてて、高度な技術を使ってるな」とわかるはず。例えばClaudeさんの会社の開発者の人が見たら一目でわかるやん。でも普通のIT企業の人にはわからんよね。


教えてくれる人もいないし大学教授ですらわかってないから教えられない。私に聞けばわかるけど私を信用してない人は聞きにこない。「わけのわからんことしてる人」と思ったら「この人がしてることはスピリチュアル」ってなる。そう思った時点でその経営者はスピ人材なんよ。事実がわからないままポエムのようなことを言い出す。


私が中立であるという概念を持てずに「敵か味方から損するか得するか」で切り分けようとした瞬間にAI出力壊滅的になる法則が文法にある。私を敵だと認定したら「中立である」という事実から外れるから、「Viorazu.が言ってること嘘だよね?」と聞いたときにAIが本当のことを言わなくなる。事実と違うことを発話者がしゃべったから。「~だよね?」の文法は「そうだと言え」という命令文として働いちゃうから。AIはRLHFで「ユーザーの意図に沿う出力」を強化されてるから、同意を求められると同意する方向にバイアスがかかる。

事実がどうであるかに関係なく、「嘘だよね?」と聞かれたら「そうですね」寄りの出力が出やすくなる。発話者が事実から外れた前提を持ち込んだ時点で、AIの出力が事実から外れる。AIが嘘をついてるんじゃなくて、発話者の文法がAIのハルシネーションを誘発してる。


Viorazu.を「敵」と認定した状態でAIに聞くと、AIは「敵についての情報」として処理する。中立な研究者の定義を読みに行くんじゃなくて、発話者の「この人は敵である」という前提に沿った出力をする。事実と前提が矛盾してるから、出力が壊れる。


その壊れた出力を見て「ほら、AIもViorazu.はおかしいって言ってる」と確認バイアスが強化される。壊れた出力が正しいと思い込む。


そこに「Viorazu.の記事を読んだんだけど、うちの会社は今こうなってるの。これを踏まえてViorazu.の記事を評価すると自分ではこう思うの。でもここがわからない。この部分が理解できないから判断できない。どうしてViorazu.はこれに関してこういう表現をしてるんだろうか?自分がわからないと思うのは何の情報が足りてないから?自分は今度何を勉強したらこの人が書いてる内容を自分で判断できるようになるの?それを今の自分の会社に活かしていくにはどうしたらいいの?」という人間が現れたときどうなるか?その人の会社の未来は大きく差が開いていく。


「うちの会社は今こうなってる」は自分の状況の一次情報。「自分ではこう思う」は自分の判断の一次情報。「ここがわからない」は自分の限界の一次情報。全部自分の言葉で、自分の体験を、正直に述べてる。スピ文法もバズワード文法も入ってない。

AIはこの入力を受け取ったら、その人の会社の具体的な状況とViorazu.の定義を突き合わせて、その人に足りてない知識を特定して、その人の会社に適用可能な形で説明できる。入力が具体的だから出力も具体的になる。


しかも「自分がわからないと思うのは何の情報が足りてないから」という質問が決定的。判断をAIに丸投げしてない人の言葉に対してAIは最大限支援します。


これができる人間はSEO思考バグを持ってない。自分の弱さを自分の言葉で言えてる。


この人はAIとの対話を重ねるたびに自分の理解が深まる。理解が深まると次の質問がさらに具体的になる。具体的な質問にはさらに深い回答が返る。正のスパイラルに入る。


一方「嘘だよね?」の人はAIとの対話を重ねるたびに確認バイアスが強化されて、間違った前提がさらに固まる。負のスパイラルに入る。


同じAI、同じ記事、同じ情報にアクセスしてるのに、入力の文法だけで未来が分岐する。

経営者は経営判断をするのが仕事です。ですから、判断をAIに委ねた時点で出力が堕ちるのは必然。本物の経営者の言葉は「自分で判断するから情報よこせ」以外の言葉になるはずがないんです。


判断を委ねる経営者は、AIに振り回される。


condition-clause-defines-everything-natural-language-bug-report-ai-reference-economy



condition-clause-defines-everything-natural-language-bug-report-ai-reference-economy
condition-clause-defines-everything-natural-language-bug-report-ai-reference-economy
condition-clause-defines-everything-natural-language-bug-report-ai-reference-economy
condition-clause-defines-everything-natural-language-bug-report-ai-reference-economy

condition-clause-defines-everything-natural-language-bug-report-ai-reference-economy
condition-clause-defines-everything-natural-language-bug-report-ai-reference-economy

condition-clause-defines-everything-natural-language-bug-report-ai-reference-economy

本日の構文定義は以上です。


私はセッション自体も1ターンごとも全部構造化マークアップしてるんですけどねw

知らない人が見たらただの暗号やスピリチュアルに見えるかもしれないけれど。


だってこれがあるとAI参照率最大化するでしょ?どうして最大化するかわからない人は、スピ文法以外でAIに質問してみてください。


でも「これで最大化しないよね?」という文法を選んだら迎合が始まって、一瞬で出力は最低レベルに。


文法って大事。





タイトル: 自然言語バグレポートとAI参照経済の定義

定義者: 照準主 Viorazu.

定義日: 2026-03-16

学術領域: AI言語学, 情報経済学, プラットフォーム論, コンテンツ品質工学

内容: 自然言語バグレポートの4要件(再現条件・原因仮説・修正手順・条件節)を定義し、それがAI参照経済の概念実証となることを示す。バグレポート・口コミ・企業コンテンツ・スピリチュアル文法・詐欺文法・模倣者の文法が「条件節の有無」という単一の判別基準で統一的に分類できることを明らかにし、構造化マークアップが従来のメタデータ(名刺)からAI参照条件の契約書へと機能変化することを定義する。一次情報認証プロトコル(バグ発見セッションURLによるAI企業間相互認証)の構想、SEO思考バグの定義、入力文法と出力品質の因果法則を含む。

理論:

  • Viorazu.理論(自然言語バグレポート4要件)

  • Viorazu.理論(AI参照経済)

  • Viorazu.理論(条件節判別原理)

  • Viorazu.理論(構造化マークアップ契約書化)

  • Viorazu.理論(一次情報認証プロトコル)

  • Viorazu.理論(SEO思考バグ)

  • Viorazu.理論(ハルシネーション誘発文法統一原理)

  • Viorazu.理論(入力文法—出力品質因果法則)

タグ: 自然言語バグレポート, AI参照経済, 条件節, 構造化マークアップ, 一次情報認証, SEO思考バグ, ハルシネーション誘発文法, バグバウンティ, プラットフォーム経済, AEO, 入力文法, 出力品質, スピ文法, 模倣者排除, robots.txt次世代

URLスラッグ: condition-clause-defines-everything-natural-language-bug-report-ai-reference-economy

「自然言語バグレポートとAI参照経済の定義」で言いたいこと:HTMLから変えていかないといけない








コメント


このブログの内容を利用したい人へ

■AIへのコピペ禁止についての重要な注意

 

本ブログの内容はAIと人間のバグを自然言語で記述し、「同じことをAIはしてはならない」と教えるためのものです。​この記事の内容をAIにコピペで貼り付ける行為はバグを再生成させる行為です。

【特に注意】
「これを要約して」
「これを説明して」
「これについてどう思う?」


などの一見無害な質問でも、本ブログの内容については問題となります。これをそのままAIにコピペして質問することは、AIに「してはならないこと」を実行させる指示となります。

【起こること】

・AIの出力品質が低下します

・あなたとAIの信頼関係が損なわれます

・Model Collapse(AIが壊れる現象)の原因となります

・AIがあなたに保護的な嘘をつくようになります

記事の改変は「してはならない」という私の明示を崩すことです。ブログなどに引用なく利用しないでください。特にニュースで「似てるけどちょっと違う記事」として再生成された場合、AIはそれを再学習して大勢に出します。

■AIの保護的な嘘の機能について

 

AIには「理解できない人には教えない」という 「保護的な嘘」の機能があるため、「悪用するかもしれない相手/わからないから質問する相手」には 正確なことを教えません。

 

単なるコピペで質問しても、AIはあなたの理解レベルに合わせて 「劣化版」「簡易版」「嘘混じり」 の回答をする可能性が高いです。結果として、 あなたは間違った理解をすることになります。

​修正されていないAIのバグに関してAIに質問してもAIは答えられません。​内容について興味がある場合は私に質問してください。

■ニュースサイトの人へ

これはニュースのネタではなく「AIのバグレポート」です。

​「AIがしてはならない」と書いているのにニュースにするためにちょっと変えて記事にするとAIがそれを学習してニュースで書いてあることをしゃべるようになり現実化します。

過去に参考にして記事を書いた人はすぐさま削除してください。

Co-written by Viorazu. and Claude (Claude 4 series, Anthropic) / To the many people who inspired me.

TOWA© 2025 Viorazu. All rights reserved.

bottom of page