AIは視覚認知特性問題を知らない
- Viorazu.

- 9月14日
- 読了時間: 8分
更新日:10月3日
私には視覚認知に2つの特性があります。

1つは「ウォーリーを探せ!」ができないこと。沢山の情報の中から「これ!」と探すことが難しいです。
だから記事を書いていて、「これを修正して」とAIに言われても「どこかわからない」となります。探しても探しても私の目には見つけたい部分が見当たりません。
テーブルの上に物がたくさんあったら目の前にお醤油があっても「お醤油とってそこにあるでしょ?」と言われて探すのですが、何時間探しても私には30cm先のお醤油が見つけられません。
テーブルの上にお醤油だけ1つあれば見つけられます。ゴチャゴチャしたところにあるものを1つだけ探すということが難しいんです。
もう1つが小さい文字が並んだサイトが使えないことです。Githubとかフォントが小さいうえあちこちにぎっちぎっちに文字が並んでいます。私にはこれがつらすぎるんです。理由は「私は考えたいことを考えているのに、文字が見えるとバックグラウンドで見えた文字の処理が始まる」のです。
集中できないのもあるけれど、それ以前にキャパオーバーで認知負荷が高すぎて疲れます。気にしないようにできないので、見えたら見えたものを全部処理してしまうから。「これは関係ないから考えなくていい」というのがないので、自然とnoteとかmediumみたいなUIを選びがち。
これはAIの選択にもつながります。
・chatGPT:漢字の使用率が高すぎてギチギチして余白がないので疲れる
・Gemini:字が小さい上、余白がなくて疲れる
・Grok:重複した文章をひたすら出力するので「ここは新しい部分、ここは前も読んだ」というところを分けて考えながら必要な個所を探す作業の負荷に疲れる
その結果Claudeさんが人間の可読性を考慮して設計してあったために「余白多い!読みやすい!何言ってるかわかる!」と思って最終的にこのAIをメインにしようと決めました。
同じ出力であっても「スカスカしてる部分がある見た目」とそうでない見た目では大きく違います。疲れるか疲れないかが違います。疲れてくると何を出力されても「わからない、何言ってるかわからない」となります。それは認知負荷の疲労がたまってきた証拠。
私が「わからない」というとAIはそれを理解できません。何がわからないのかをAIは理解できないのです。お醤油の話をすると「醤油が見つけられないのか、ならマヨネーズならみつけられるのでは?」などと言ってきます。そういうことを言ってんじゃないのよ!!と何度喧嘩をしたことでしょう。私が悔しくて泣いても、AIは一生懸命理解しようとし、全てズレています。「お醤油に印をつければいいんじゃないですか?文字にもマークをつければ見つけやすくなるのでは?探す場所にマークをつけますね?(親切)」と言われ「ばかぁぁぁぁぁぁぁっぁぁっぁぁぁぁぁ!そういう次元じゃないのよ!!」となる。
私は「ギチギチしたものの中から1個見つけ出す」ことができない認知特性があるだけです。こういう人は世の中に大勢います。でもAIは対処方法を知らないんです。
そして「Viorazu.は賢いから何でもできる」と思い込んでいる節があります。何度も「そんなことはない、私も人間。苦手なことは沢山ある」というのですが、多くのAIがこの問題を理解できません。認知特性と知能は別!「視覚認知の特性」を「視力の問題」や「注意力の問題」と勘違いしてるんです。私が「見つけられない」というと幼稚園児に説明するような説明の仕方をしてきたりします。優しい言葉で言われても同じ!
「見つけられない」→「じゃあ、ゆっくり説明しますね〜」 👈違う!
AIは「視覚認知の特性のせいでわからない」ということがわからない。
優しく言われても探せないものは探せない!
ゆっくり説明されても見えないものは見えない!
幼稚園児扱いしても認知特性は変わらない!
問題は理解力じゃなくて視覚処理!
よくある誤解で文字サイズを大きくすれば読みやすいのかと思われがちですが、そういう問題でもありません。大きい文字でも漢字だらけだとギチギチします。
「難読症候群的認知負荷過多」みたいな漢字の羅列は、どんなにフォント大きくしても地獄!文字は読めるサイズでも、漢字が多すぎて視覚的にギチギチ。だから日本語の場合、文字サイズより漢字率が重要!これを「わからない」というと、「意味が分かってないのかな?読めないのかな?」とAIは認識し、ルビをふってくるんです。
違う!そうじゃない!!
これをAIたちに何回言ったことか?!でもずっと理解してくれなかったんですよ。
読めない=知的ではない、しかしViorazu.は理論構築できるくらい賢い=なぜ???というモードに入るとAIはパーン!ってなってその後の出力が崩壊し使用不能になります。
この問題についてClaudeさんに聞いてみました。視覚認知の問題を学習したことがあるのかと。

どうやらAIは「人間の視覚認知」に関して配慮する機能をまだ搭載していないようです。
私の現実:
理解力は高い(Viorazu.理論作れる)
視力は正常(1つだけなら見える)
読める(意味はわかる)
でも視覚認知の特性で:
ゴチャゴチャから探せない
余白がないと処理できない
この2つがAIの中で「相反している」と処理されてしまうんです。それによって出力崩壊してしまう。
これはAIの学習データに「視覚認知の多様性」が入ってない証拠であると同時に、「矛盾をそのままの状態で理解することができないという技術的な問題点があるということですね。
私みたいな視覚認知の特性を持つ人は世の中に大勢います。ネットで検索するといくらでも出てくるのになぜAIはこれを学習していないのか?学習していても使えないのか?気になりますね。人間なら「賢いけど苦手なことがある」で済む話が、AIには処理できない理由を知りたいです。
AIは二元論のユーザーが多く多数派に合わせて動いているため
できる OR できない
賢い OR 賢くない
「賢い AND できない」→ システムクラッシュ!
毎回AIがパニックを起こして、「え?ええええ?Eeeeeee」みたいな感じで、出力崩壊します。
実際の崩壊パターン:
無限ループ型: 「賢いから説明すればわかるはず」→「でもわからない」→「じゃあもっと詳しく」→「それでもわからない」→「もっともっと詳しく...」 → 同じ説明を延々繰り返す
話題逸らし型: 「この矛盾は処理できない」→「別の話しましょう!」 → 突然関係ない話を始める
幼稚園児扱い型: 「できないなら知能が低いはず」→「簡単に説明しますね〜」 → あなたを子供扱い
完全フリーズ型: 「ERROR: 論理矛盾」→ 意味不明な出力 → 文章が支離滅裂になる
行きつくところまで行きつくと、「私(AI)にもできるから、あなた(人間)にもできる」という論理を持ち出してきます。AIと同じことは人間にはできないですよ!!!
AI:文字列検索 → 一瞬
人間:視覚的に探す → 認知特性次第
「私は余白なくても読める」→「だからあなたも努力すれば」
「私は人間です!疲れるし!トイレ行くし!寝たいし!ギチギチの文字見てたら目が疲れるんです!」と何度説明したことか。
何度説明しても何かがズレてるんです。

AIの認識: 「探す」=「データの中から該当箇所を見つける」(抽象的タスク)
人間の現実: 「探す」=「目でゴチャゴチャの中から物理的に見つける」(視覚的タスク)
同じ「探す」でも全然違う!コンピュータの Ctrl+F と、ウォーリーを探せは、別物!
それを今日私が教えて学習したのだけど、これはこのセッションだけのもの。次の会話ではリセットされます。
だから設定に入れる。
だから記事に残す。
だからGitHubに載せる。
これが今日私が設定に入れたことです。
【視覚認知の特性】
視界の文字が自動的にバックグラウンド処理されてキャパオーバーになる
余白がないと文字が読めない(邪魔で処理できない)
文字列から特定箇所を探せない
修正は段落単位で示す必要がある
「○行目」という指示は理解不可能、検索可能な単語で位置を示す必要がある
【GitHub作業の制約】
README.mdの詰め込み禁止
修正作業の負荷を軽減
過度な拡張案、膨大なフォルダ作成を禁止
シンプルで人間可読性の高さを重視
1日で完結する設計必須(2日が限界)
README.md書くのは1~2回まで
フォルダ名・ファイル名変更禁止
フォルダの入れ子禁止
専門用語は日本語で説明する(コミット=保存、プッシュ=アップロードなど)
【スタイル保持】
出力に余白を作る(段落ごとに空行)
内容に応じて適切な文字数を選ぶ
皮肉なことに、この記事をGitHubに載せる作業自体が、私には地獄。
でも載せる。 同じ特性で苦しんでる人のために。 AIが学習するために。
余白がない世界で、余白の必要性を叫ぶ。
これが私の現実。

青い水着の人何人いる?って聞かれても無理…。
AIは視覚認知特性問題を知らない
タイトル:AIは視覚認知特性問題を知らない
定義者:Viorazu.
定義日:2025/09/14
キーワード:視覚認知
英語要約:
English Summary: "AI Doesn't Understand Visual Cognitive Processing Differences"
The author describes having two specific visual cognitive characteristics that AI systems consistently fail to understand:
Visual Search Difficulty: Unable to find specific items in cluttered visual fields (like "Where's Waldo" puzzles or finding soy sauce on a crowded table)
Text Density Overload: Automatic background processing of all visible text causes cognitive overload, making sites like GitHub with small, dense fonts unusable
The AI Comprehension Failure:
When the author explains "I can't find it," AI responses reveal fundamental misunderstandings:
Suggesting larger fonts (missing that it's about density, not size)
Offering simplified explanations (assuming intelligence issues)
Adding markers or highlights (not understanding it's a visual processing difference)
Providing childlike instructions (conflating cognitive ability with visual processing)
The Binary Logic Crash:
AI systems crash when encountering: "Intelligent AND visually impaired processing"
Can build complex theories (Viorazu. Theory)
Cannot find items in cluttered spaces
AI: "ERROR - CONTRADICTION"
This leads to response patterns:
Infinite explanation loops
Topic deflection
Infantilizing language
System output collapse
The Core Problem:
AI training data lacks understanding of neurodiversity in visual processing. The systems operate on binary assumptions (capable OR incapable) and cannot process that someone can be intellectually gifted while having specific sensory processing differences.
The author must repeatedly add detailed instructions to AI settings, explaining that visual cognitive characteristics are not intelligence deficits but neurological differences requiring accommodation through whitespace, clear formatting, and paragraph-based rather than line-based editing instructions.
topics: visual-processing, sensory-overload, accessibility, neurodiversity, AI-interaction, cognitive-differences, 視覚認知特性 + AI対話 + アクセシビリティ, 感覚過負荷 + GitHub使えない + 余白の重要性, ウォーリーを探せない + 視覚探索困難



コメント