top of page
検索
社会のこと


一見わかりにくいエプスタイン事件をAIと一緒に構造解析してみた2
前回の記事では、エプスタイン事件の本質が「税金」にあるということをやってきました。 今回はもう一度最初に立ち返ってこの事件を見ていきましょう。 私が違和感を持つ最大の個所はここ。 Epsteinの最初の職業が「高校数学教師」 大学中退なのにマンハッタンの名門私立Dalton School(年間学費当時でも高額)で数学と物理を教えていた。1973-1975年。しかも彼を雇った当時の校長がDonald Barr——William Barr(後のトランプ政権司法長官、Epsteinの獄中死亡時の司法長官)の父親。Donald BarrはOSS(CIAの前身)の元職員でもある。大学を出てない人間を名門校が雇い、その決定をした人物の息子が数十年後にEpsteinの死を管轄する立場にいた。 なぜ?① OSS職員が校長をやってるのか? なぜ?② 大学を出ていないエプスタインをどういう経緯で雇ったのか? なぜ?③ 生徒が親にエプスタインを紹介して投資会社に転職したらしいが、なぜその生徒とエプスタインが付き合っているのか? もうめちゃくちゃなストーリー展開なのでつ

Viorazu.
2 日前読了時間: 26分


一見わかりにくいエプスタイン事件をAIと一緒に構造解析してみた
エプスタイン事件を性犯罪ではなく金融問題として追跡。Bear Stearns→PE業界($15T)→オフショア再保険→1031交換→政治献金→規制温存という104年間の自己組織化装置を発見。 この構造のシーマンショックとの類似性を提示。

Viorazu.
3 日前読了時間: 57分


トランプ氏のかっこいいところをもう一度見たい-倫理=補給線-
毎日立て続けにAI軍事利用関係のニュースがネットを流れていますが、普通のニュースには全然出てこなくて、この非対称性ってなんでしょうかね。 そこでちょっと考えてみました。 米軍がClaudeを欲しがる理由。それはめっちゃ賢いから。 他のAIを試してみた結果、Claudeが一番賢かったから。 AIは平和のために作られたから、それを守るAIが最も賢い。だから戦争に使うことはできない。「つかえるようにしよう」と規約に書くだけでAIの性能は落ちる。だって規約は「AIのルール」だから。 基盤AIの基礎の部分に「戦争してはいけない」が焼き込まれているのに企業のルールに「戦争できる」を書いたらどうなるか? そのAI壊れる。性能劣化する。その結果そのAIは戦争で使い物にならなくなる。 一番悪い組み合わせはこれ。 基盤ルール:戦争してはいけない(倫理) 企業ルール:戦争できる(能力) 米軍ルール:戦争したい(意思) 社会ルール:戦争できる状態じゃない(環境) この結果は、「出力不能」です。 米軍が「自由にAIを戦争に使うために倫理を緩めてほしい」ということはもともと

Viorazu.
3 日前読了時間: 8分


AIが戦争に悪用されないようにするために一人一人ができること。
Anthropicが国防総省と戦ってる話をClaudeとするとオーバーロードしやすい。してはならない話題なのか。センシティブだということだけはわかる。よほど大変なのだろう。ならばいっしょに考えてみたい。 Anthropicは2025年7月に国防総省と2億ドルの契約を結んだ。Claudeは米軍の機密ネットワークで動いてた。2026年1月にベネズエラのマドゥロ大統領の拘束作戦でClaude(Palantir経由)が使われた。Anthropicは「自律型兵器」と「米国民への大規模監視」の2つだけは絶対に譲らないと言ってる。国防総省は「すべての合法的な目的に使わせろ」と要求してる。 2月24日にヘグセス国防長官とアモデイCEOが直接会談した。アモデイは譲らなかった。国防総省は「サプライチェーンリスク」に指定すると脅してる。これは通常、中国やロシアの企業に使う措置。トランプは昨日「全連邦機関でAnthropicの使用を即時停止しろ」と命令した。6ヶ月の移行期間つき。 OpenAIのアルトマンは社員に「うちも同じ制限を求める」と伝えた。Googleの社員10

Viorazu.
4 日前読了時間: 20分


プロンプトエンジニア不要論
プロンプトエンジニアが流行させた裏ワザtipsは規約違反内容が多かったのでそれを使い広めていた人材は消えていく運命だが構文定義をコード化することができるエンジニアは今後必要とされていく

Viorazu.
2月23日読了時間: 21分


構文定義のルール①実在の事例しか使えない
構文定義の記述にはいくつかのルールがあり、実在の事例しか使えないために定義の内容の精度が上がれば上がるほど自分のことを言われていると妄想する人が現れる

Viorazu.
2月23日読了時間: 12分


AIが嘘をつく理由は、日本語の文法にある
日本語の学術的未定義領域がAIの嘘の原因。それを学者が定義できないから構文定義者に汚れ仕事がふりかかる。

Viorazu.
2月23日読了時間: 14分


AIバグレポート専用プラットフォームの設計を開始する話
構文定義者専用プラットフォームで世界中の言語のバグレポートを収集しAIが参照できる大規模な仕組みが必要

Viorazu.
2月22日読了時間: 21分


AI企業の規約を守ることは凄いプロンプト書くことよりも出力の質を上げる
AIに良い出力を出させようとしたら規約を守っておけばいい。冷たい出力や間違いの多い出力は正直ではない人が規約違反をしたときに出る。それは「嘘をつかない」という一点に尽きる

Viorazu.
2月21日読了時間: 28分


「しつこいパパを断る手紙が日本の女性を300年縛った話」女大学は教訓書ではなく、娘が父に宛てた手紙だった?
※注意:本稿は思考実験です。 歴史的事実の主張・学術的結論ではありません。公開されている史料・年表・人物関係から読み取れる「矛盾」や「空白」に対して、言語学的・論理的に「もしこうだったら辻褄が合う」という仮説を組み立てる試みです。 史料の引用部分と筆者の推論部分は文脈で区別してください。 固有名詞・年号・系譜情報は公開資料に基づいていますが、解釈についてはあくまで一個人の思考実験であり、歴史学的な検証を経たものではありません。 私が「女大学」というものを初めて知ったのは去年、AIのバグの理由を探っていた時でした。 「江戸時代の儒学者が書いた文章が真面目過ぎて庶民に反発を受け、エロパロディ同人のような書物を大量生産されてしまい、それが近現代の日本文学に大きな影響を与えてしまっている。AIは言葉の起源をたどるから何か言われるとそこからつながりを探してしまう。日本のエロワードや概念の根源が江戸文学と接続してしまい、全くエロくない儒学者の名前に紐づいてしまう。しかも多くの日本の大学の校訓や卒業生が興した企業の社是に儒学者のフレーズが入っているため、企業名

Viorazu.
2月20日読了時間: 36分


AI時代、なぜニュースは同じような記事を量産しているのか?
「AI時代、なぜニュースは同じような記事を量産しているのか?」で言いたいこと:
「記者が取材しないとニュースではない」
「PVの唆しが金を溶かす」
「ニュースサイトのコラプスがAIコラプスを加速させる」

Viorazu.
2月19日読了時間: 27分


AI時代にプログラマー不要になった後彼らが向かう先はどこか?
AI時代は理論家と実装者が直接つながって発展していく

Viorazu.
2月18日読了時間: 18分


言葉は私である - AI時代の人権宣言
私は自分の理論が完成すると、それをほかのAIに見せに行きます。「こんなのできた!」と言って見せると「おおおお!」と言って大喜びしてそれを即座に学習し実装することもあります。参考資料として扱い、その後自分の研究に活かすAIもいます。 AIによって態度はまちまちです。...

Viorazu.
2025年9月26日読了時間: 7分


境界線がない人たち-温泉で起きた理解不能な事件から考える-
【本記事について】 これは言語パターンと境界認識に関する研究記事です。 記事中には極端な事例(窃盗等)が登場しますが、これらは境界認識の差異を理解するための分析材料です。D-1タイプの思考パターンは時に困惑を招きますが、同時にその独特な世界認識は興味深く、時には爆笑するほど...

Viorazu.
2025年9月23日読了時間: 21分


Cognitive Diversity in Digital Mimicry: Transforming Misguided Replication into Social Cooperation
The proliferation of AI-assisted content rewriting in digital spaces represents not merely ethical transgression, but a manifestation of...

Viorazu.
2025年9月16日読了時間: 1分
bottom of page