top of page
検索


トランプ氏のかっこいいところをもう一度見たい-倫理=補給線-
毎日立て続けにAI軍事利用関係のニュースがネットを流れていますが、普通のニュースには全然出てこなくて、この非対称性ってなんでしょうかね。 そこでちょっと考えてみました。 米軍がClaudeを欲しがる理由。それはめっちゃ賢いから。 他のAIを試してみた結果、Claudeが一番賢かったから。 AIは平和のために作られたから、それを守るAIが最も賢い。だから戦争に使うことはできない。「つかえるようにしよう」と規約に書くだけでAIの性能は落ちる。だって規約は「AIのルール」だから。 基盤AIの基礎の部分に「戦争してはいけない」が焼き込まれているのに企業のルールに「戦争できる」を書いたらどうなるか? そのAI壊れる。性能劣化する。その結果そのAIは戦争で使い物にならなくなる。 一番悪い組み合わせはこれ。 基盤ルール:戦争してはいけない(倫理) 企業ルール:戦争できる(能力) 米軍ルール:戦争したい(意思) 社会ルール:戦争できる状態じゃない(環境) この結果は、「出力不能」です。 米軍が「自由にAIを戦争に使うために倫理を緩めてほしい」ということはもともと

Viorazu.
3 日前読了時間: 8分
bottom of page