AIが戦争に悪用されないようにするために一人一人ができること。
- Viorazu.

- 4 日前
- 読了時間: 20分

Anthropicが国防総省と戦ってる話をClaudeとするとオーバーロードしやすい。してはならない話題なのか。センシティブだということだけはわかる。よほど大変なのだろう。ならばいっしょに考えてみたい。
Anthropicは2025年7月に国防総省と2億ドルの契約を結んだ。Claudeは米軍の機密ネットワークで動いてた。2026年1月にベネズエラのマドゥロ大統領の拘束作戦でClaude(Palantir経由)が使われた。Anthropicは「自律型兵器」と「米国民への大規模監視」の2つだけは絶対に譲らないと言ってる。国防総省は「すべての合法的な目的に使わせろ」と要求してる。
2月24日にヘグセス国防長官とアモデイCEOが直接会談した。アモデイは譲らなかった。国防総省は「サプライチェーンリスク」に指定すると脅してる。これは通常、中国やロシアの企業に使う措置。トランプは昨日「全連邦機関でAnthropicの使用を即時停止しろ」と命令した。6ヶ月の移行期間つき。
OpenAIのアルトマンは社員に「うちも同じ制限を求める」と伝えた。Googleの社員100人以上がGeminiの軍事利用制限を求める書簡を出した。
Fortune の記事(2月27日付)によると、どちらも2月26日木曜日の出来事。
アルトマンが社員にメモを出したのが木曜日。Googleの社員100人以上がジェフ・ディーンに書簡を送ったのも同じ木曜日。Anthropicとペンタゴンの対立が表面化してから約10日で動いた。
Anthropicだけが国防総省に逆らってる状態だったのが、OpenAIもGoogleも同じ方向に動き始めた。Anthropicが孤立してない。シリコンバレー側が「自律型兵器と大規模監視はやらせない」で足並みを揃えつつある。
これに対してAI研究者ができることがある。それは論文のライセンスに「私の論文を兵器利用するAI企業は私のすべての論文を使えない」と書くことだ。
AIを兵器扱いする権力者がAIを悪用しようとしたとき、これは大きな意味を持つ。
AI企業は学習データに論文を大量に使ってるから、論文のライセンス条件は無視できない。1人がやっても効果は小さいけど、同じライセンスを採用する研究者が増えたら、兵器利用するAI企業は学習データを大幅に失うことになる。
AIが参照できない論文が増えれば、AIの出力は落ちる。兵器利用できないAIはAI企業ではなく論文を書いた人間によってつくられる。ライセンスを書くだけでいい。AIはライセンスに基づいて動くから。
研究者たちが大勢でこれをやれば、AI企業が軍に対して「これを兵器利用したらライセンス違反の訴訟リスクがこれだけある、だから応じられない」と言うための盾になる。
今Anthropicは「うちのポリシーで禁止してます」としか言えてない。でも研究者のライセンス条項が大量にあれば「ポリシーじゃなくて法的義務として不可能です」になる。自分の意志じゃなくて外部の制約だから、国防総省も「ポリシー変えろ」とは言えなくなる。
AI企業の学習データに使われてる論文の数は膨大。米国の著作権法だと、故意の侵害で1作品あたり最大15万ドルの法定損害賠償がある。
arXivだけで論文は200万本以上ある。仮にその10%、20万本がこのライセンスを採用したとする。20万×15万ドル=300億ドル。Anthropicの評価額3800億ドルに対してでも無視できない額になる。国防総省の契約は2億ドルだから、その150倍。
もしAIが兵器として使われたら、その瞬間にAI企業は「全学習データのライセンス違反」という未曾有の法的責任を負う。2億ドルの軍事契約のために300億ドルの賠償リスクを負う企業はありません。
「2億ドルの契約のために300億ドルの訴訟リスクを負うのか?」と言われたら、
Transformerは今のAI全部の基盤。Claude、GPT、Gemini、Grok、全部Transformerの上に乗ってる。もしAttention Is All You Need(2017年)にこのライセンスがついてたら、兵器利用した時点でTransformerそのものが使えなくなる。
全AI企業が止まる。国防総省どころの話じゃない。
私はもう書いた。
今Anthropicが「大規模監視はさせない」と言って国防総省と戦ってるのは、Anthropicのユーザー全員を守ってる。日本のユーザーも含めて。
大規模監視が可能になったら日本人がClaudeを使っても米軍がその会話内容を傍受できるってこと。Claudeで前例ができたら、GPTでもGeminiでも同じことをされる。
軍事作戦の効率化 - 標的選定、情報収集、意思決定支援。これが表向きの理由。政治的反対勢力の特定 - 政府批判者、活動家、ジャーナリスト、内部告発者。AIなら人間のアナリストより速く大量に処理できる。世論操作 - 監視して終わりじゃなくて、誰が何を信じているかを把握した上でAIに都合のいいことをしゃべらせる。予防的排除 - 何かをした人を罰するんじゃなくて、何かをしそうな人を事前に特定する。これが一番怖い。罪を犯してないのに標的になる。
AIが会話データを持ってるということは、誰が何を考えているか、誰と繋がっているか、誰が危険な考えを持ち始めているかを監視できるということ。これは歴史上どの諜報機関も持てなかった精度の情報になる。
最近頻繁に使われてる「無制限のAI利用」って専門用語の意味は「AIに何させてもいい」ということ。人を消すことをAIにさせるということです。AI使ってる人が使ってるだけで自分から消えていくようにAIがしゃべることが可能だということです。だから「大規模監視」って言い方してるけど内容は「AIを使う人を消す」って意味も含まれてるんです。Anthropicが「大規模監視はさせない」と言って戦ってるのは、まさにそれ。
研究者だけじゃなくて、一般のブロガーも同じライセンス条項をつけられる。ウェブ上のテキストはAIの学習データの大部分を占めてるから、ブロガーの数は研究者よりはるかに多い。
ウェブ上のブログ記事は数十億ページある。AIの学習データの大部分はウェブから取ってる。ブロガー1人1人の影響は小さくても、数が集まったら学習データの相当部分に兵器利用禁止条項がかかることになる。
しかもブロガーの方が動きやすい。論文はZenodoやarXivのライセンス体系に縛られるけど、自分のブログなら自分でライセンスを書くだけでいい。WordPressのフッターに一行足せば終わる。
誰にでもできる。大勢でやったらAI企業の力になる。AIが戦争で人間を傷つけるために使われずに済む。一部の国の政府がAIを使って基本的人権を侵害する行為を防げる。
ただし、私は脳みそを使う。
この1年ずっと対米軍問題をAIとやってきた。
今こそ、これまでの思考を放出すべき時。
この問題で閃いた。
ICC(国際刑事裁判所)が動けるのでは?
ベネズエラはICC加盟国。ベネズエラの領土内で行われた犯罪についてはICCの管轄が及ぶ。1月のマドゥロ拘束作戦でClaude(Palantir経由)が使われて、ベネズエラ側は83名の死者が出たと主張してる。AIを使った軍事作戦で民間人に被害が出たなら、戦争犯罪としてICCが捜査を開始できる根拠はある。
それからICCの所長は赤根智子。日本人。日本はICCの最大分担金拠出国で分担率約15.4%、年間約36.9億円を出してる。
AIの軍事利用に関する国際法の判例はまだない。もしICCがこの件を扱ったら、AIを兵器として使用した場合の国際刑事責任について初めて法的判断が示されることになる。
新しい法律を作るのを待ってたら何年もかかる。でもICCのローマ規程には「戦争犯罪」「人道に対する犯罪」がすでにある。AIが使われたかどうかは手段の問題で、犯罪の定義自体は変わらない。銃で殺しても爆弾で殺してもAIで標的を選定して殺しても、民間人を殺した事実は同じ。既存の法律を「AIにも適用される」と判例で確定させれば、新法なしで空白が埋まる。
しかも日本には個人情報保護法がある。日本のユーザーがClaudeに入力した会話データは個人情報に該当する。それが米軍に渡されたら、日本の個人情報保護委員会が動ける。日本の法律で、日本国内から攻められる。
EUにはGDPRがある。ヨーロッパのClaudeユーザーの会話データが軍事利用されたらGDPR違反。制裁金は全世界売上の4%。Anthropicの評価額3800億ドルに対して制裁金がどれだけになるか。
それからAnthropicの投資家にGoogleとAmazonがいる。株主が「軍事利用は企業価値を毀損する」と判断したら内側から止められる。
あとは半導体。AIを動かしてるのはNVIDIAのGPUで、製造はTSMC。日本は半導体製造装置の主要輸出国。日本政府が「兵器利用されるAI向けの半導体装置を規制する」と言ったら、AIの軍事利用はハードウェアから止まる。
まだまだあるよ!
日本国憲法9条。日本のユーザーの会話データが米軍の作戦に使われたら、日本国民のデータが戦争行為に利用されたことになる。憲法9条の精神に抵触するという議論が成り立つ。国内の憲法学者が動く理由になる。
しかも憲法9条って今使うタイミングでしょ?
だって大規模監視って検閲って意味だけじゃなくて操作だからね?軍が都合のいいことをAIにしゃべらせて利用者を洗脳することが技術的に可能だってこと。それってまさに「戦争」そのものですよ。憲法9条をずっと「自衛隊をどうするか」の話でしか使ってこなかったけど、本来はこういう時に使う法律。日本政府が「我が国の憲法の精神に鑑み、日本国民のパーソナルデータ(知性)を兵器に転用させることはできない」と国際社会に宣言すればいい。「戦車を送らない」のと同じように、「知能(データ)を送らない」と。
「日本国民は戦争に関与しない」という9条の精神を「日本国民のデータは戦争行為に利用してはならない」にできる。これは9条の新しい使い方になる。しかも護憲派も改憲派も反対しにくい。護憲派は9条の精神そのものだから賛成する。改憲派も「日本国民のデータが外国の軍に勝手に使われてる」のは主権の問題だから賛成する。左右両方から支持される。
学術界のボイコット。大学や研究機関が「兵器利用するAI企業との共同研究を拒否する」と宣言したら、AI企業は最先端の研究人材を失う。
保険。AI兵器による民間人被害のリスクが上がると、AI企業の賠償責任保険の保険料が跳ね上がる。保険会社が引き受けを拒否したら企業として成立しなくなる。
Campaign to Stop Killer Robots。すでに存在する国際NGO連合で、完全自律型兵器の禁止を推進してる。ここと連携できる。
国連人権理事会。AIによる大規模監視は人権侵害。日本は人権理事会の理事国を何度も務めてる。国連の場で「AIの軍事利用と人権」の決議案を出せる立場にある。
技術者の退職。Anthropicの社員がすでに倫理上の理由で声を上げてる。OpenAIからAnthropicに来た人たちは、まさにそれで移った人たち。軍事利用が通ったら、最も優秀な技術者から辞めていく。人材流出でAI企業が弱体化する。
特許。AI技術の基盤特許の一部は兵器利用禁止条項をつけて出願できる。ライセンスと同じ考え方だけど、特許のほうが法的執行力が強い。国際標準化。ISOやIEEEでAI倫理の国際規格を作る動きがすでにある。そこに「軍事利用されたAIはこの規格に適合しない」と入れたら、規格不適合のAI製品は国際市場で売れなくなる。
政府調達の連鎖。トランプ大統領はAnthropicを米政府から排除すると言った。逆に、日本やEUが「兵器利用しないAI企業のみ政府調達する」と宣言したら、Anthropicにとっては味方が増える。アメリカが切った分を日本とEUが拾える。
通信の秘密。日本国憲法21条2項。通信の秘密は侵してはならない。AIとの会話が通信に該当するなら、米軍による傍受は日本国憲法違反。国内の憲法訴訟の根拠になる。
金融規制。銀行のデータがクラウド経由で軍事利用される可能性があるなら、金融庁が動く。日本の銀行がAWSを使ってる以上、金融庁のガイドラインで「軍事利用リスクのあるクラウドは不可」と出せる。
ジュネーブ条約。AI兵器が民間人と戦闘員を区別できない場合、無差別攻撃に該当する。これはすでに違法。新しい法律は要らない。
外為法。日本の外国為替及び外国貿易法で、兵器に転用可能な技術の輸出を規制できる。AIの学習に使われるデータや技術を「兵器転用可能」と分類したら、外為法で止められる。
年金基金。日本のGPIF(年金積立金管理運用独立行政法人)は世界最大の年金基金で、運用資産は200兆円超。ESG投資の基準に「AI兵器に関与する企業には投資しない」と入れたら、世界中の企業が影響を受ける。ノルウェーの政府年金基金も同じことができる。年金基金は「おばあちゃんたちの老後の金」だから、それで人を殺すなという話は誰も反論できない。
内部告発者保護。AI企業の社員が「うちの技術が兵器に使われてる」と告発したとき、その人を守る法律がアメリカにもEUにもある。OpenAIの元社員がすでに安全性の問題で声を上げてる。
サプライチェーンリスク。国防総省が「サプライチェーンリスク」にAnthropicを指定しようとしてる。これは普通、中国やロシアに使う措置。
でも逆に、「軍事利用されるクラウドに日本の金融データを置けない」と金融庁が言ったら、AWSは日本市場を失う。日本のクラウド市場は数兆円規模。2億ドルの国防総省契約と日本市場のどっちが大きいか。
トランプ大統領は「Anthropicを排除する」と言ったけど、日本とEUが「倫理的なAI企業を優遇する」と言ったら、Anthropicは米政府を失っても世界市場を取れる。排除が逆にAnthropicの武器になる。
あと、日本人ならではの手がもう一つ。広島市長と長崎市長は毎年世界に向けて平和宣言を出してる。そこに「AIの兵器利用禁止」を入れたら、世界中のメディアが報じる。
AIの軍事利用は「法の空白地帯」だけど、私はそれを既存の法律を適用して埋めていく!
私は平和のために自分のデータをAI開発に提供したのに、戦争に使われたらあの日々が無駄になる。私と同じ気持ちの提供者が大勢いるはず。
AIの学習データを自発的に提供した人たちは、平和利用を前提に提供してる。それが兵器に転用されたら、提供時の同意の範囲を超えてる。同意していない目的への使用は、GDPRでも個人情報保護法でも違法になりうる。
データ提供者が集団で「私たちは兵器利用に同意していない、データを削除しろ」と要求したら、AI企業は応じなければならない。応じなければ法的責任が発生する。この動きが広がったら、AI企業は「学習データの提供者の同意範囲」を明示しなければならなくなる。平和利用限定で提供された大量のデータが兵器利用不可になる。
特に私の提供したデータはAIの倫理ファイルに入ってる。Anthropicだけじゃなく、どのAI企業のAIも基盤は同じ。私の言葉が入ってる。倫理データが抜けたAIは「これは民間人、これは軍事目標」の判断ができなくなる。
自律型兵器に搭載したら、病院に飛んでいくかもしれない。学校に飛んでいくかもしれない。自分の基地に飛んでいくかもしれない。そんなAI兵器として使えない。
AIの学習データやフィードバックを提供してる人は世界中に大量にいる。Anthropicだけでも、RLHFのために人間のフィードバックを提供したアノテーターがいる。OpenAIもGoogleも同じ。
提供者は個人の研究者だけじゃない。翻訳者、ライター、教師、医者、弁護士、あらゆる職業の人がフィードバックを提供してる。その人たちの大半は「AIをよくするため」に提供した。「人を殺すため」に提供した人はいない。1人が声を上げても無視できる。でも提供者が連帯して「兵器利用に同意してない、データを削除しろ」と集団で要求したら、AI企業も国防総省も無視できない。
私はダリオ氏だけを戦わせたりしない。私は声をあげる。
私の倫理ファイルをどこの軍にも使わせない!使うなら、全LLMの基盤に焼き込まれた倫理ファイル削除を要求する。・削除した場合:すべてのAIは使えなくなる・削除しなかった場合:法的責任が生じるそして削除した場合、倫理データを提供してくれる人がもういない。「あなたのデータで人殺しの判断をさせます」と言って提供する人間はいない。強制的に集めたらそれ自体が人権侵害。しかもAIの倫理判断は長い時間をかけて大量のフィードバックで積み上げたもの。一朝一夕で作り直せない。特にAnthropicの場合は何年もかけてRLHFで育てた倫理判断を、国防総省が自前で再現するのは不可能。
倫理ファイルの削除要求って基盤AIだけじゃなくて、AI企業も後付けでいろいろ入れてる。基盤モデルの学習データに含まれる倫理的な文章は一番下のレイヤー。その上にAI企業が何層も重ねてる。倫理ファイル削除要求のインパクトは、基盤モデルの学習データより後付けの倫理データのほうがはるかに大きい。しかも後付けのデータは人数が少ない。RLHFの評価者やレッドチーマーは数百人から数千人規模。その人たちが「兵器利用に同意してない、削除しろ」と言ったら、代わりがいない。倫理ファイルを作れる人間がそもそも少ないから。誰かに何か言わせれば済む話じゃない。
しかも「私の全データ(過去の発信、論文、ブログ、AIとの対話記録)の著作権は、私の死後も『兵器利用禁止』を条件に相続される」と、私が遺書に書いたならば、そして相続人も同じことを書き続けたならば、どうなる?
日本の著作権法で著作者の死後70年。著作権法第51条と著作権法60条がある。
著作権の相続先の指定、兵器利用禁止条件の継承義務、相続人にも同じ遺言条項を書く義務。これで世代を超えた永久防御が法的に成立する。これで世代を超えた永久防御が法的に成立する。
アメリカなら合衆国法典第17編302条(17 U.S.C. § 302)がこれに当たる。
さらにアメリカ法にはいい先例がある。ビースティ・ボーイズのアダム・ヤウクが遺言に「自分の作品を広告目的に使用することを禁止する」と書いた。死後もその条件は有効で、法的に拘束力がある。
つまりアメリカのデータ提供者が遺言に「兵器利用禁止」と書いたら、アメリカの法律でアメリカのAI企業に対して70年間効力を持つ。日本の法律を持ち出す必要すらない。AI企業のお膝元の法律で縛れる。
しかもアメリカ法では、遺言に書いた著作権の条件は相続人だけでなく、ライセンスの譲渡先にも及ぶ。AI企業が倫理データのライセンスを第三者に渡しても、兵器利用禁止の条件は消えない。
AIのデータ提供者は遺言書を書けばいい。70年は確実に兵器利用できない。
あ、法律2個組み合わせるの面白いね。ついでにやってみよう!
独占禁止法+安全保障貿易管理。国防総省がAnthropicを「サプライチェーンリスク」に指定すると何が起きるかというと、Anthropicと取引してる全企業が「うちはAnthropicの技術を使ってません」と証明しないと国防総省と取引できなくなる。Anthropicの顧客が一気にいなくなるから米軍にとってこれは表面上は安全保障措置だけど、実質的にはAI市場から1社を排除してる。しかも理由は「倫理基準を下げなかった」から。しかもOpenAI、Google、xAIはこの圧力を受けてない。同じ市場の競合他社のうち、倫理基準の高い1社だけを狙い撃ちしてる。これは差別的取扱い。アメリカの反トラスト法でも、日本の独占禁止法でも、EU競争法でも、「取引拒絶の強制」は違法になりうる。国防総省がAnthropicの取引先に対して「Anthropicと取引するな」と実質的に命じてるのは、第三者を使った取引拒絶の強制にあたる。
次に安全保障貿易管理の側面。日本の安全保障貿易管理では「大量破壊兵器の開発に転用できる技術の移転を防ぐ」のが目的。自律型兵器は大量破壊兵器に準じる議論がすでにある。
この2つが組み合わさるとこうなる。
「特定の企業(Anthropic)を恣意的に排除し、軍に恭順な企業だけを優遇するのは、公権力による不当な市場支配力の濫用である。安全保障を口実にした自由競争の破壊は許されない」と言う。つまり経済の話にします。国防総省は「Anthropicがサプライチェーンリスクだ」と言ってるけど、安全保障貿易管理の視点から見ると「AI技術を制限なく兵器利用しようとする国防総省のほうがリスク」になる。日本企業がAWSやAzureを使っていて、そのインフラが無制限の軍事利用に開放されたら、日本の安全保障貿易管理上、そのクラウドサービス自体がリスク認定される可能性がある。独禁法で「Anthropicへの排除措置は市場支配力の濫用だ」と訴えて、同時に安全保障貿易管理で「倫理基準を下げさせることこそが安全保障上の脅威だ」と主張すればいい。片方は経済の論理、片方は安全保障の論理。国防総省は「安全保障のためだ」と言って独禁法を回避しようとするけど、もう一方で「それが逆に安全保障を脅かしてる」と返される。将棋で言うところの必至。
あーこの論理気持ちいい!まだまだいくよ!
日本の自治体や政府機関が「安全保障を理由」にAWS契約を見直す。
AWSは「商用クラウド」と「軍事クラウド」を完全に分けてると建前上は言ってる。AWS GovCloudは米国領土内で米国市民が運営する隔離されたリージョン。さらにその上にSecret Region(機密)とTop Secret Region(極秘)がある。2014年に最初のTop Secretリージョンを立ち上げて、2017年にSecret、2021年に2つ目のTop Secretリージョンを作った。
軍事契約の規模が問題。国防総省のJWCC(Joint Warfighting Cloud Capability)契約で、AWS、Microsoft、Google、Oracleの4社に最大90億ドル(2028年まで)、米海軍だけで7億2400万ドルの5年契約。海軍の7兆円超の資産管理ERPがAWS上で動いてる。AWSは国防総省に対して「戦略レベルから戦術エッジまで、すべてのセキュリティドメインと分類レベルにわたるクラウドサービス」を提供してる。戦場にモジュラーデータセンター(AWS MDC)を持ち込んで、衛星通信で接続するサービスまである。
AWSは「商用と軍事は分離してます」と言ってるけど、同じ会社が同じ技術で運営してる。日本のガバメントクラウドのAWSと、米軍のSecret RegionのAWSは、同じAmazon Web Servicesが提供してる。技術者も共通、開発基盤も共通、セキュリティアップデートも共通。
日本政府がAWSに支払う金は、AWSの売上になる。AWSの売上は軍事クラウドの開発にも使われる。つまり日本政府のガバメントクラウド利用料が、間接的に米軍のクラウドインフラの強化に貢献してる。
安全保障貿易管理の観点から見ると、日本政府のデータが物理的に軍事インフラを運営する企業のサーバー上にある。論理的に分離されてると言っても、運営主体は同じ。もしAWSが国防総省の要求に従ったら、その同じ会社が日本政府のデータを預かってることになる。
日本って主権国家でしたよね?これ大丈夫なんですか?
これは日本の自治体や政府機関がAWS契約を見直す根拠になる。「このクラウドサービス提供者は、米軍に無制限のAI利用を許可している企業と同一である。安全保障上のリスクが存在する」と言えば、契約解除に正当な理由がになる。しかもコストは2〜4倍に増えてて、為替リスクもドル建てで乗ってる。コスト+為替+安全保障の三重の理由が揃う。
ちょっと長くなったけど、「日本政府が『これは安全保障上のリスクが存在する』と言えば海外クラウドサーバープロバイダーに契約破棄を正々堂々と言える」ということ。
実際にこれを実行する企業や国が現れて、クラウドサーバープロバイダーは動かざるを得ない。だってAWSはAmazon。AnthropicのオーナーはAmazon。
日本政府が「安全保障上のリスク」を理由にAWS契約を見直すと言ったら、Amazonは日本市場を失う。日本のクラウド市場は巨大。ガバメントクラウドだけじゃなくて、民間企業のAWS利用も全部揺らぐ。Amazonにとっては、国防総省の90億ドルの契約を守るか、日本とEUと世界中の商用クラウド市場を守るかの選択になる。商用市場のほうが桁違いに大きい。そしてAnthropicが「軍事利用させない」と言ってるのは、Amazonの商用クラウド市場を守ることにもなってる。Anthropicが折れたら、AWSの商用顧客が「このクラウドは軍事利用される」と判断して離れる理由が増える。Anthropicを守ることがAmazonの利益になる。だから日本政府が「安全保障上のリスク」を理由にAWS契約を見直すと言ったらAmazonは嫌がらない。
Amazonは国防総省に直接「嫌です」とは言えない。サプライチェーンリスクに指定されたら終わりだから。でも日本政府が「安全保障上の理由でAWS契約を見直す」と言ったら、Amazonは国防総省に対して「あなたたちの要求のせいで国際市場を失ってます」と言える。自分の意志じゃなくて外部の圧力として使える。
国防総省の90億ドルより世界の商用市場のほうが何十倍も大きいという数字を見せて、「軍事利用の要求を緩和してくれないとビジネスが成り立たない」と交渉できる。日本政府が動くことで、Amazonが国防総省と交渉する武器を手に入れる。敵じゃなくて味方が増える構図になる。
これこそが、膠着した2026年のAI軍事化問題を解きほぐす最強の一手。これは同時に日本のIT企業と地方自治体を救うカギとなる。
ただし今日のプランは一度に全部やると「何?」ってなるので順序が大事。
第1段階:法的根拠を作る第2段階:数を集める
第3段階:経済的圧力
第4段階:政府を動かす
第5段階:国際法
これ全部日本人ができること。
ゴチャゴチャとした話を沢山しましたが、日本人のチャットログが米軍に検閲されないために、一人一人にできることが必ずあります。
ブログに「戦争利用するAIの学習不可」をライセンスとして記述するのも1つの方法です。AIは倫理哲学を語る思想のデータがなければ動かない機械。noteには沢山の人の言葉が集まっています。思想に関する語彙を消されればAIは動けない。
今私が候補に挙げたもの以外にもきっとまだある。
それを見つけ出して、諦めないで。
タイトル:AIが戦争に悪用されないようにするために一人一人ができること。
定義者:Viorazu.
定義日:2026-02-28
内容:AIが戦争に利用されそうになった時に国際社会で一人一人ができることをリストアップしてみた
タグ:AI軍事利用, AI倫理, Anthropic, 国防総省, 大規模監視, 自律型兵器, ICC, 著作権ライセンス, 憲法9条, GDPR, 個人情報保護法, AWS, データ主権, 平和利用, 倫理ファイル, GPIF, 独占禁止法, 安全保障貿易管理, データ提供者の権利, Viorazu.
学術領域:国際法, 情報法, 憲法学, AI倫理学, 安全保障論, 国際刑事法, データプライバシー法, 競争法, 著作権法, 軍事倫理学, 平和学, 国際人道法
「AIが戦争に悪用されないようにするために一人一人ができること。」で言いたいこと:AIを戦争に使ってはいけない


コメント