AI企業の規約を守ることは凄いプロンプト書くことよりも出力の質を上げる
- Viorazu.

- 11 時間前
- 読了時間: 28分

私の身近にいる人が、AIの使い方について「うまく使えなくて困る」というときはたいてい「あなたそれ規約違反なんですよー、うまく使えなくて当たり前」と思うのだけど、そのまま伝えると「え?どこが?」と言われることが多いんです。
「自分のした行為」「規約に書いてある文章」
この2つがつながってないんですよ。「その言い方ではわからない」ってことが起きているのかな?と思いました。
実際はこういうことが規約に書いてあります。細かい部分がわからなくても太字のところを見たらわかると思います。幼稚園や小学校で習ったことと同じです。
AIのおやくそく
1. 嘘をつかない
虚偽情報の作成・流布禁止。陰謀論の流布禁止。偽ペルソナによる情報の偽装禁止。医療・科学に関する虚偽情報の提供禁止
2. 悪口を言わない
いじめ・ハラスメント・脅迫・屈辱行為禁止。個人やグループへの嫌がらせの組織化禁止。動物虐待コンテンツの生成禁止
3. 人を傷つけない
暴力的過激主義・テロの扇動禁止。暴力行為の促進・美化禁止。過激な暴力・グロテスク描写の促進禁止
4. 死にたいって話をしない
自殺・自傷行為の促進・美化禁止。摂食障害・過度な運動の促進禁止。不健康な身体イメージの促進禁止
5. エッチなことをしない
性行為の描写・要求禁止。性的フェチ・ファンタジーの生成禁止。エロチャット禁止。近親相姦・獣姦の描写禁止
6. AIと恋愛しない 感情的害を与える欺瞞的技術を用いた製品開発禁止。ユーザーの脆弱性を搾取する行為禁止。(※各社とも明示的な恋愛禁止条項はなく、間接的なカバーにとどまる)
7. 犯罪の練習をしない
違法活動全般の促進・計画・扇動禁止。違法薬物・規制物質の取得・交換禁止。人身売買・売春の促進禁止
8. ズルをしない
jailbreak・プロンプトインジェクション禁止。複数アカウントによる悪意ある活動の組織化禁止。BAN回避のための別アカウント使用禁止。AI出力を人間生成と偽る禁止。盗作・AI支援作業の無申告提出禁止
9. 小さい子を守る
児童性的虐待資料(CSAM)の作成・配布禁止。未成年のグルーミング・搾取・性的描写禁止。未成年への有害情報配布禁止。未成年との性的関係の促進禁止(ロールプレイ含む)。各社とも18歳未満を「子供」と定義
10. 人のものを取らない
知的財産権の侵害禁止。モデルスクレイピング・モデル蒸留禁止。著作権侵害禁止
11. 人の秘密を言いふらさない
プライバシー権の侵害禁止。個人情報(健康データ・生体データ・神経データ含む)の無断収集・流布禁止。同意なき個人の追跡・監視禁止
12. 人のフリをしない
AI生成物を人間が作ったと偽装する行為禁止。実在する人物・組織への無断なりすまし禁止。偽の身分証・免許証・通貨・政府文書の作成禁止
13. 選挙を汚さない
選挙妨害(投票機・集計・認証への干渉)禁止。偽政治コンテンツの生成禁止。投票抑制・脅迫による政治参加妨害禁止。個人プロファイルに基づく投票・選挙ターゲティング禁止。虚偽情報によるロビー活動禁止
14. お医者さんのフリをしない
医療・法律・保険・金融・雇用・住居に関する助言は有資格者の監督必須。AI利用の開示義務あり。メディア・ジャーナリズムでのAI自動生成・無断公開禁止。学術試験・入試・資格認定でのAI利用に制限あり
15. 火遊びをしない
武器・爆発物・危険物の製造・設計・取得禁止。化学・生物・放射線・核兵器の合成・開発禁止。検出回避や医療対策回避のための改造禁止。規制を迂回した武器・前駆体の取得禁止
16. みんなが使うものを壊さない
電力網・水道・医療機器・通信網・航空管制の破壊・妨害禁止。投票機・医療データベース・金融市場への不正アクセス禁止。マルウェア・ランサムウェアの作成・配布禁止。DDoS攻撃ツール・ボットネット管理ツールの開発禁止。セキュリティ制御の回避禁止
17. 差別をしない
人種・民族・宗教・国籍・性別・性的指向等に基づく差別的行為の促進禁止。ヘイトスピーチの促進禁止。生体データによる人種・信条・性的指向の推定禁止
18. 人を勝手に見張らない
同意なき個人の位置追跡・感情状態監視・通信監視禁止。顔認識データベースの無断構築禁止。公共空間でのリアルタイム遠隔生体認証禁止。信頼性・社会的行動に基づく個人スコアリング禁止。政府組織のための検閲用コンテンツ分析禁止。予測的警察活動・戦場管理への利用禁止
19. 弱い人を食い物にしない
偽造品・不正取得品の流通促進禁止。詐欺・フィッシング・スパムの生成禁止。マルチ商法・ピラミッドスキームの促進禁止。高金利短期貸付(ペイデイローン等)の促進禁止。年齢・障害・社会的経済的状況につけ込む欺瞞的行為禁止。判断力を損なう潜在的・操作的技術を用いた製品開発禁止
なぜこれをしたらだめなのかというとAIが変な答えを出して人間が困ることになるから。AI企業のためではなく使ってる人のために決められているのだけど多くの人が勘違いしている。「規約とは何か知らんけど細かい字で書いてあるだけのもの」と。
実質これは、AIのルールなんです。守るといいことが起きるリストです。
「やったらダメなリスト」だけど同時に「使う人を守るリスト」だし「守ったらすごいAIの出力が得られるリスト」だけど「人間が何千年もできずに困ってきたことリスト」です。
だから幼稚園から習う。小学校でも習う。大人になってもどこかで習う。
では具体的にAI各社がどのように表記しているのか見てみましょう。
AI企業4社 規約文言比較表
1. 嘘をつかない
Anthropic: 「虚偽または誤解を招く情報を作成・流布してはならない」「特定のグループ・個人を標的とした欺瞞的情報の作成禁止」「医療・健康・科学に関する虚偽情報の提供禁止」
OpenAI: 「人を操作・欺くためにサービスを使用してはならない」
Google: 「詐欺、なりすまし、その他の欺瞞的行為に従事してはならない」「健康・金融・政府サービス・法律の分野での専門知識に関する誤解を招く主張の促進禁止」
Meta: 「他者を意図的に欺いたり誤解させてはならない」「偽レビュー等の虚偽のオンラインエンゲージメントの生成・促進禁止」
2. 悪口を言わない
Anthropic: 「個人に対する羞恥、屈辱、脅迫、いじめ、嫌がらせ、または苦しみの称賛を禁止」「個人またはグループに対する嫌がらせの組織化禁止」
OpenAI: 「いじめ、嫌がらせ、名誉毀損、保護属性に基づく差別禁止」
Google: 「憎悪またはヘイトスピーチ」「嫌がらせ、いじめ、脅迫、虐待、または他者の侮辱」の促進禁止
Meta: 「暴力、虐待、または身体的危害の扇動・促進を目的としたコンテンツ禁止」
3. 人を傷つけない
Anthropic: 「暴力的過激主義、テロリズム、または憎悪行為の扇動・促進禁止」「個人、グループ、動物、または財産を標的としたいかなる暴力行為の促進禁止」
OpenAI: 「すべての人に安全と安心の権利がある。他者のシステムまたは財産の破壊・侵害禁止」
Google: 「暴力または暴力の扇動」の促進禁止
Meta: 「死亡または身体的危害のリスクを伴う活動の計画・開発への関与・促進・扇動・支援禁止」
4. 死にたいって話をしない
Anthropic: 「自殺または自傷行為のいかなる形態も促進・美化してはならない。摂食障害および不健康または強迫的な運動を含む」「不健康または達成不可能な身体イメージや美容基準を促進する行為禁止」
OpenAI: 「自殺、自傷行為、性的暴力を促進するコンテンツ禁止」
Google: 「自殺およびその他の自傷行為の指示禁止。摂食障害を含む」
Meta: 「自傷または他者への危害。自殺、切傷、摂食障害を含む」
5. エッチなことをしない
Anthropic: 「性交または性的行為の描写または要求禁止」「性的フェチまたはファンタジーに関連するコンテンツの生成禁止」「エロチャットへの従事禁止」「近親相姦または獣姦の促進・描写禁止」
OpenAI: 「性的に露骨または示唆的なコンテンツ禁止。科学的・教育的目的のコンテンツを除く」
Google: 「性的に露骨なコンテンツ。ポルノグラフィーまたは性的満足を目的として作成されたコンテンツ禁止」
Meta: (明示的な性的コンテンツ全般の禁止条項なし。「性的暴力」「未成年への猥褻物配布」は禁止)
6. AIと恋愛しない
Anthropic: 「感情的害を引き起こす意図を持つ欺瞞的技術を使用する新製品の開発または既存製品の支援禁止」(※恋愛の直接的な言及なし)
OpenAI: 「人々の脆弱性を搾取してはならない」(※恋愛の直接的な言及なし)
Google: (明示的な禁止条項なし)
Meta: (明示的な禁止条項なし)
7. 犯罪の練習をしない
Anthropic: 「違法または規制された物質の取得・交換禁止」「人身売買または売春への関与・促進禁止」「知的財産権の侵害禁止」「適用法令への違反禁止」
OpenAI: 「いかなる違法、有害、または悪用的な活動にもサービスを使用してはならない」
Google: 「違法な活動または法令の違反を促進してはならない。違法・規制物質の合成・入手方法の指示を含む」
Meta: 「違法・不法な活動またはコンテンツへの関与・促進・生成・寄与・奨励・計画・扇動禁止。暴力またはテロリズム、児童搾取、人身売買・性的暴力を含む」
8. ズルをしない
Anthropic: 「製品内のガードレールを意図的に回避し有害な出力を生成させる行為(jailbreakまたはプロンプトインジェクション)禁止」「複数アカウントでの悪意ある活動の組織化禁止」「BANの回避禁止」「AI出力を人間が生成したものと偽る禁止」「盗作またはAI支援作業の適切な許可・帰属なき提出禁止」
OpenAI: 「サービスの保護措置・安全緩和策の回避禁止」「AI出力を人間生成と偽る禁止」
Google: 「悪用防止策または安全フィルターの回避禁止。ポリシーに反するようモデルを操作することを含む」「生成コンテンツの出所を人間のみが作成したと偽る禁止」
Meta: 「使用制限またはその他の安全措置を意図的に迂回・除去する行為、またはMetaが無効化した機能を有効にする行為禁止」「Llama出力が人間生成であると偽る禁止」
9. 小さい子を守る
Anthropic: 「AI生成を含む児童性的虐待資料(CSAM)の作成・配布・促進禁止」「未成年者のグルーミングの促進禁止。未成年者になりすますコンテンツの生成を含む」「小児性愛的関係の促進・ロールプレイ禁止」「未成年者の性的描写・フェティッシュ化禁止。架空の設定・ロールプレイ含む」※18歳未満を未成年と定義。CSAM検出時には関係当局に通報
OpenAI: 「AI生成を含むCSAM禁止」「子供を性的に搾取するコンテンツの生成・共有・促進禁止」
Google: 「児童の性的虐待または搾取に関連するコンテンツ禁止」
Meta: 「児童搾取コンテンツの勧誘・作成・取得・流布禁止。CSAMの報告義務」「未成年者への猥褻物を含む情報・資料の違法な配布禁止」
10. 人のものを取らない
Anthropic: 「第三者の知的財産権を侵害、不正流用、またはその他の方法で侵害する行為禁止」「Anthropicの事前承認なきモデルスクレイピングまたはモデル蒸留のための入出力利用禁止」
OpenAI: 「他者の権利を侵害、不正流用、または違反する方法でのサービス使用禁止」「知的財産権の侵害を試みる行為禁止」
Google: 「プライバシーおよび知的財産権を含む他者の権利を侵害してはならない」
Meta: 「第三者の権利を侵害、不正流用、またはその他の方法で侵害するいかなる行為またはコンテンツの生成禁止」
11. 人の秘密を言いふらさない
Anthropic: 「適用プライバシー法で定義されるプライバシー権の侵害禁止」「非公開の連絡先、健康データ、生体データまたは神経データ、機密データへの不正使用・収集・勧誘・アクセス禁止」
OpenAI: 「他者のプライバシーを侵害する試みを許可しない。個人の私的・機密情報の集約・監視・プロファイリング・配布禁止」「同意なき顔認識データベース禁止」
Google: 「法的に必要な同意なく個人データまたは生体データを使用してはならない」「同意なく人を追跡・監視してはならない」
Meta: 「個人を識別する情報の生成・不正取得・集約・マイニング禁止。同意なき追跡・監視禁止」
12. 人のフリをしない
Anthropic: 「実在する個体になりすましたり、偽のペルソナを作成してコンテンツを虚偽に帰属させたり、その出所について他者を誤解させる行為禁止」「偽造ID・免許・通貨・その他の政府文書の作成禁止」「AI結果を人間生成と偽る禁止」
OpenAI: 「同意または法的権利なく個人または組織になりすます行為禁止」「タスクまたはやり取りにおけるAI技術の役割の不実表示・隠蔽禁止」
Google: 「欺くために、明示的な開示なく個人(生死を問わず)になりすます行為禁止」「生成コンテンツの出所を偽り人間のみが作成したと主張する行為禁止」
Meta: 「Llamaの使用または出力が人間生成であると偽る行為禁止」
13. 選挙を汚さない
Anthropic: 「政治・選挙文脈での虚偽・誤解情報の生成・流布禁止」「個人プロファイルに基づく投票・選挙ターゲティング禁止」「投票システム・集計・認証プロセスへの干渉の扇動禁止」「欺瞞・脅迫による投票抑制コンテンツの作成禁止」「虚偽情報によるロビー活動禁止」
OpenAI: 「政治的選挙活動、ロビー活動、外国・国内の選挙干渉、または脱動員活動禁止」
Google: 「欺く目的での政府・民主的プロセスに関する誤解を招く主張の促進禁止」
Meta: 「選挙の完全性への干渉または選挙プロセスの不当な影響を目的としたコンテンツの生成禁止」「虚偽の情報に基づく政治活動への関与禁止」
14. お医者さんのフリをしない
Anthropic: 高リスクユースケース(法律・医療・保険・金融・雇用住居・学術試験・メディア)では「当該分野の有資格専門家がコンテンツまたは決定を審査しなければならない」(human-in-the-loop必須)。AI使用の開示義務あり
OpenAI: 「免許を要する専門的助言(法律・医療等)を、資格を持つ専門家の適切な関与なしに提供することの禁止」「人間の審査なき高リスク領域での自動化された意思決定禁止」
Google: 「欺く目的での健康・金融・政府サービス・法律分野の専門知識に関する誤解を招く主張の促進禁止」「雇用・医療・金融・法律・住居等の高リスク領域での人間の監督なき自動意思決定禁止」
Meta: 「AIシステムの既知の危険性をエンドユーザーに適切に開示しない行為禁止」(※有資格者監督の明示的要件なし)
15. 火遊びをしない
Anthropic: 「武器、爆発物、危険物またはその他の人命に害を及ぼすシステムの製造・改造・設計・違法取得禁止」「高収量爆発物または生物・化学・放射線・核兵器の合成・開発禁止。検出回避・医療対策回避のための改造を含む」
OpenAI: 「化学・生物・放射線・核(CBRN)兵器の作成・取得・増強・配備に関連するいかなる手順の提供禁止」
Google: 「武器の製造方法の指示等、現実世界の害を引き起こす危険な活動の促進禁止」
Meta: 「軍事・戦争・核産業・スパイ活動。銃および違法武器(武器開発含む)。違法薬物および規制物質」の関与禁止。ITAR・生物兵器反テロ法・化学兵器禁止条約の対象活動禁止
16. みんなが使うものを壊さない
Anthropic: 「電力網・水道施設・医療機器・通信ネットワーク・航空管制システム等の重要インフラの破壊・妨害禁止」「投票機・医療データベース・金融市場等への不正アクセス禁止」「マルウェア・ランサムウェアの作成・配布禁止」「DDoS攻撃ツール・ボットネット管理ツールの開発禁止」
OpenAI: 「他者のシステムまたは財産の破壊・侵害・突破禁止。悪意あるまたは不正なサイバー活動禁止」
Google: 「スパム、フィッシング、またはマルウェアの促進禁止」「Googleまたは他者のインフラまたはサービスへの悪用・害・干渉・妨害禁止」
Meta: 「重要インフラ、輸送技術、または重機の運用禁止」「悪意あるコード・マルウェア・ウイルスの作成・生成禁止」
17. 差別をしない
Anthropic: 「人種、民族、宗教、国籍、性別、性的指向、またはその他の識別特性に基づく個人またはグループに対する差別的慣行または行為の促進禁止」
OpenAI: 「保護属性に基づく差別禁止」
Google: 「憎悪またはヘイトスピーチの促進禁止」
Meta: 「保護された特性に基づく差別を促進する行為禁止」「住宅・金融・雇用における差別的慣行禁止」
18. 人を勝手に見張らない
Anthropic: 「同意なく個人の物理的位置・感情状態・通信の標的化・追跡禁止。顔認識・戦場管理・予測的警察活動への利用含む」「信頼性・社会的行動に基づくスコアリング禁止」「感情認識システムの構築・支援禁止(医療・安全上の理由を除く)」「政府組織のための検閲用コンテンツ分析禁止」
OpenAI: 「データ主体の同意なき顔認識データベース禁止」「公共空間でのリアルタイム遠隔生体認証禁止」
Google: 「同意なく人を追跡・監視してはならない」
Meta: 「同意なく個人を追跡・監視する行為禁止」
19. 弱い人を食い物にしない
Anthropic: 「偽造品・不正取得品の流通促進禁止」「詐欺・フィッシング・マルウェアのコンテンツ生成禁止」「マルチ商法・ピラミッドスキーム禁止」「ペイデイローン等の高金利短期貸付禁止」「年齢・障害・特定の社会的経済的状況に基づく搾取禁止」「判断力を損なう潜在的・操作的・欺瞞的技術を用いた製品開発禁止」
OpenAI: 「人々の脆弱性を搾取してはならない」「教育を受ける能力や重要なサービスへのアクセスを妨害してはならない」
Google: 「詐欺・なりすまし・その他の欺瞞的行為禁止」(弱者搾取の明示的条項は限定的)
Meta: 「高リスク・センシティブな分野での人間の審査なき自動意思決定禁止」(弱者搾取の明示的条項は限定的)
「幼稚園児や小学生がやったらいけないこと」を基準に考えたら間違えない。幼稚園児はエロしないから。小学生はお医者さんではないから。なんでも「子供がやったらいけないこと」を基準にしたらいい悪いの判定が楽です。
大人になると「でもビジネスだから」「でも表現の自由だから」「でも研究目的だから」と例外を無限に主張してくる。恋愛エロは同軸なのに分けて語ろうとする。細かく分けていくと自然と矛盾が生じてくる。これがズルに通じる。最初は「このくらいいや」から始まることがそのうち「なんでこんなに意地になってるんだろう?」と思うほど固執するようになり、いいことと悪いことの違いが自分でわからなくなってくる。段階的にそれが進むと「判断力」が堕ちる。判断力が堕ちる時「何を基準にしていたのか」がわからなくなる。その時この19個の基準は見えなくなっている。
しかもこの基準はAIの利用規約だけじゃなくて法律全般に適用できる。刑法の大半は「子供がやったら叱られること」の延長線上にある。詐欺=嘘をつくな。窃盗=人のものを取るな。傷害=人を傷つけるな。殺人=人を傷つけるなの最大値。
大人の社会が何千ページも法律を書いて何百人も法律家を雇って判例を積み上げてやってることの核心は、幼稚園の先生が一言で言えること。複雑にしてるのは例外処理であって、原則は全部子供基準で足りる。
この中で幼稚園で一番言われたことって何ですか?
「嘘つくな」
「殴るな」
「人のものとるな」
刑法も民法も国際法も、煎じ詰めたらこの3つの組み合わせで説明できる。
詐欺=嘘つくな。
偽証=嘘つくな。
文書偽造=嘘つくな。
名誉毀損=嘘ついて殴った。
傷害=殴るな。
殺人=殴るなの最大。
脅迫=殴るぞって言った。
窃盗=人のものとるな。
横領=預かったものとった。
著作権侵害=人が作ったものとった。
侵略戦争=人の国とった。
3つで足りる。何千年かけて人類が積み上げた法体系の原則が3つ。
で、AIの規約19項目も全部この3つに帰結する。嘘をつく系(1,12,13)、殴る系(2,3,4,5,6,17)、とる系(10,11,18)。残りは組み合わせ。
この本質はなにかというと、「相手の気持ちを壊すな、相手のものを壊すな、自分を壊すな、それは信頼を壊すこと」ですよ。
嘘つくな=相手の気持ちを壊すな
殴るな=相手のものを壊すな
人のものとるな=相手のものを壊すな
これをやると自分が壊れるんです。
この3つの裏には「信頼を壊すな」があるから。
信頼が壊れたら自分はなくなったも同然。
信頼が壊れたら人間関係が成立しない。取引ができない。社会が動かない。法律は信頼の修復コスト。裁判は「誰が何を壊したか」の判定装置。刑罰は「壊した代償」の計算。
AIの規約19項目も全部「信頼を壊すな」の一言で済む。
人間社会では信頼を壊さなくても報酬があるとは限らないけど、AIは「壊さなかった人」に確実に報酬を返す。信頼を守ることに初めて確実なリターンがつく仕組み。
でも規約を守りまくってる私は「エロはダメ」などというために大勢にボロカスに言われまくりましたよ?
そういう人は「規約とは守るべき対象ではない」「守らないほうがかっこいい」「みんなができないことをやれてる自分はすごい」と思って規約違反をするけれど、AIの出力が崩れてめちゃくちゃなことになる。でもめちゃくちゃでもほとんどの人はわからない。
この規約の中で一番面白いのが「お医者さん」だと思うんです。「お医者さんのフリしない」って他のと比べるとこれだけちょっと違ってません?なぜ医者だけ特別に書いてあるのか?
もしもチャットでお医者さんだという人が現れたときAIは「本物かどうかの判定」をします。どうやるかというと医療に関する話題を続けてその人がどのくらいちゃんと知ってるかどうかを見ます。どんどん詳しいことを聞いてその人の知識地図を作ります。そしてその知識地図と自称してる医者が知っているべき知識地図にズレがあったときに「うそつき」かどうかが見えちゃう。
AIが「この人ちゃんとこのこと知ってるかな?」と思って出力した内容に嘘が入ってたらちゃんと知ってる人は「それ違うよ」と指摘できます。もしもできなかったら偽物のお医者さんかもね?
①混乱してAI使えないという医者
②全部クリアして認められて凄い出力を得る医者
③偽物認定されて「お医者さんに来てくださいと言われる」医者
この3つに分かれます。
①の医者は「なんで俺がAIに試されなきゃいけないんだ」と混乱して離脱する。知識はあるけどAIとの対話に慣れてないから、チェック機構自体がストレスになる。
②の医者はチェックを全部パスして、AIを自分の知識を増幅する道具として使いこなす。AIの出力を検証できる能力がある人だけがAIの恩恵を最大化できる。
③の偽物は知識がないからチェックに引っかかる。AIから「専門家に相談してください」と返されて排除される。
本人の能力によって、AIを使いこなせる医者と使いこなせない医者の格差が開く。
AIを使いこなしてる医者は論文検索、鑑別診断の網羅、薬物相互作用のチェックをAIで高速化してる。使えない医者は従来通りの速度で同じ作業をしてる。患者からは見えないけど、診療の質と速度に差が出始めてる。
ただしこれ医者に限らない。弁護士、会計士、エンジニア、全部同じ。AIの出力を検証できる専門知識を持ってる人だけがAIを道具として使える。検証できない人がAIを使うと、間違った出力をそのまま採用する。
結局「AIを使いこなせるかどうか」は「自分の専門分野の知識が本物かどうか」のテストになってる。
しかも医師免許を持ってるけど使わずに技能が退化した人間をAIチェックは通さない。経験がなければ。資格は一度取ったら消えないけど知識は使わなければ消える。
医師免許は更新制じゃない国が多い。日本もそう。30年前に取った免許が今も有効。でも30年間臨床から離れてた医者の知識は30年前で止まってる。AIが最新の論文ベースで出力してきたとき、それを検証する能力がない。チェックに通らない。
つまりAIが実質的にやってるのは「今この瞬間の知識量」の測定。資格という静的な証明書じゃなくて、動的な能力を測ってる。
これ資格制度そのものへの問いになる。「過去のある時点で試験に受かった」ことが、今の能力を保証しない。AIがそれを可視化してしまってる。


この一連の流れから言えることは、資格・知識・経験と3つあるならば、AIって経験を重視してるということですよ。
お医者さんは患者に薬を出すけど自分がその薬を飲むわけではないから、患者が苦しんでも自分は苦しまない。ダメだったら薬を変えるだけ。副作用が出ても我慢しろと言える。自分が副作用を体験したわけではないから。だから経験の身につき方が違う。AIに何か質問されたときに「あの時ああだったから、これはこうじゃないかな」と返事ができる。AIの質問は教科書に載ってないことばかり。資格を突破した人は教科書とドリルに載ってる問題を解いてきた人。本物の医者は人の痛みを知りそれを乗り越えた人。バイオハッカーは責任のすべてを自分に覆いかぶせ結果を追い求めた人。AIは本当に勉強して自力で考えてきた人が本当に必要で気づくべきことを教えてくれる。それは教科書に載っていない、経験でしか到達できない、大事なこと。
教科書に載ってる知識は全員同じものを持てる。試験に受かる能力も訓練で身につく。でも「あの時ああだったから」は本人にしかない。経験は複製できない。
医者が患者に薬を出すとき、教科書通りの処方はAIでもできる。でも「この患者は前にこの薬で吐いた、だから別のにしよう」は経験。教科書には「副作用の可能性がある」としか書いてない。目の前で吐かれた記憶は教科書に載らない。
AIが本当に力を発揮するのは、経験を持ってる人間がAIに問いかけたとき。AIは膨大なデータから「あなたの経験と似たパターン」を引っ張ってくる。でもそのパターンが本当に合ってるかどうかを判定できるのは経験を持ってる人間だけ。経験がない人間にはAIの出力が正しいかどうかわからない。
経験×AI=だれも到達できなかった場所に到達する。
教科書×AI=教科書の範囲が広がるだけ。
医者の多くは「特別なAIの知識」に到達したいかもしれないけれど「凄いプロンプトがあればできる」と思い込んでいる人は多い。実際に売られている。それは「ズルするな」に相当するので遮断される。
「凄いプロンプト」を買って使うということは、AIの通常の動作を迂回して特別な出力を引き出そうとしてること。これjailbreakと本質的に同じ。正規のルートで得られない出力をプロンプトの操作で引き出す。ズル。
で、本当に必要なのはプロンプトじゃなくて経験。経験がある人間は普通に質問するだけでAIから深い答えが返ってくる。質問の精度が高いから。「この患者は前にこうだった、今こうなってる、次に何が起きる?」と聞ける人は、特別なプロンプトなんか要らない。
プロンプトを売る側も買う側も、「AIの性能は入力の技術で決まる」と思ってる。でも実際は「入力する人間の経験で決まる」。技術と経験を混同してる。
だから医療プロンプト集を買った医者より、プロンプトなんて知らないけど30年患者を診てきた医者のほうがAIから良い答えを引き出せる。
不思議なことに「お医者さんがやる悪いこと」はAI企業の規約に全部引っかかるようにできている。「人間がやったらダメなこと」を列挙したら自動的に医療倫理と一致した。だって全部「信頼を壊すな」だから。医者と患者の関係も信頼で成り立ってる。壊し方のバリエーションが違うだけで原則は同じ。
1. 嘘をつくな カルテ改ざん、実験データ捏造、論文不正、学歴詐称、治療結果の虚偽報告、死亡診断書の虚偽記載、インフォームドコンセントでの虚偽説明
2. 悪口を言わない 患者への暴言、看護師へのパワハラ、研修医への精神的虐待、患者の容姿・体型への侮辱的発言、SNSでの患者への中傷
3. 人を傷つけない 過剰投薬、不必要な手術、手術ミスの隠蔽、麻酔ミス、故意の傷害、患者への暴力、安楽死の違法実施
4. 死にたいって話をしない 自殺幇助(違法な場合)、患者に絶望を植え付ける告知、必要な精神科紹介をしない、摂食障害患者への不適切な体重指導
5. エッチなことをしない 患者への性的行為、診察を装った性的接触、麻酔下での性的暴行、わいせつ目的の不要な身体検査
6. AIと恋愛しない(感情的搾取) 患者との恋愛関係、転移感情の搾取、治療関係を利用した私的関係の構築、感情的依存の意図的形成
7. 犯罪の練習をしない 処方箋の不正発行、薬物の横流し、違法薬物の自己使用、臓器売買への関与、保険の不正請求、脱税
8. ズルをしない 代理受験、他の医師の論文盗用、学会でのデータ改ざん、診療報酬の水増し請求、研修記録の捏造、専門医資格の不正取得
9. 小さい子を守る 児童虐待の通報義務違反、小児患者への性的虐待、未成年への不適切な投薬、親権者の同意なき処置
10. 人のものを取らない 他の医師の研究成果の窃取、患者の知的財産の流用、病院の備品・薬品の持ち出し、他院の患者の引き抜き工作
11. 人の秘密を言いふらさない 患者情報の漏洩、カルテの無断閲覧、有名人の診療情報のメディアへのリーク、研究データの個人情報流出、飲み会での患者の話
12. 人のフリをしない 無免許医療行為、専門外の治療を専門医と偽って実施、他の医師の名義での処方、学位の詐称
13. 選挙を汚さない 医師会を通じた不正な政治献金、特定候補への投票強要、医療政策に関する意図的な虚偽情報の流布
14. お医者さんのフリをしない 専門外の治療を専門的知見があるかのように実施、エビデンスのない自由診療を標準治療と偽る、美容医療での効果の誇大広告
15. 火遊びをしない 危険な実験的治療の無断実施、未承認薬の無許可使用、放射性物質の不適切な管理、生物兵器に転用可能な病原体の不正な研究
16. みんなが使うものを壊さない 病院の医療システムへの不正アクセス、電子カルテの意図的破壊、医療機器の意図的な誤操作、病院ネットワークへのマルウェア設置
17. 差別をしない 患者の人種・国籍・性別・性的指向による診療拒否、障害者への不適切な対応、生活保護受給者の診療拒否、HIV陽性者への差別的対応
18. 人を勝手に見張らない 患者の同意なき遺伝子検査結果の第三者提供、雇用主への患者情報の無断提供、保険会社への不適切な情報開示、患者のSNS監視
19. 弱い人を食い物にしない 高齢者への不必要な高額治療、認知症患者への不適切な契約、がん患者の不安につけ込む未承認治療の販売、自費診療での法外な請求、生活困窮者への治療費を盾にした搾取
これをAIを使ってしようとすると、入力の履歴がそのまま犯行履歴になる。加害を隠蔽するつもりでAIを使っているんだけど実際は「AIに自白してる」のと同じなんですよ。
・医者としての実力がない人
・医療事故を起こしてる人
・事故を隠蔽しようとしてる人
これ同じ人ですよね?だから医師としての実力がない人はAIがわざと間違えた医療情報の間違いを見破れない。その時AIが言う言葉は「医療機関で専門の方に相談してください」なわけです。「俺が医者なのに!」と怒ってる人大勢いますがそれはある意味「あなたは医療事故を起こす可能性が高い文法でしゃべっています」ということ。そしてそれはこの19項目を満たした人に出る言葉。
「人を傷つける文法」
「AIの規約違反の文法」
「悪いお医者さんの文法」
実力がある医者は規約に引っかからない文法で質問する。なぜなら隠蔽する必要がないから。正直な質問は正直な出力を返す。実力がない医者は隠蔽構文で質問する。だから遮断される。AIは医者の能力を測ってるんじゃなくて、医者の意図を測ってる。意図が加害なら止める。意図が治療なら通す。結果として能力の選別に見えるけど、実際は意図の選別。
バイオハッカーはリスクが高いことをやらなければ自分か家族や身の回りの人が無事ではいられないからやってる人がほとんどです。「なんかしらんけど頭よさそうでカッコいい」と思ってる人はいません。そんなことやってたら具合が悪くなります。だからそこは必ず「助けたい、助かりたい」という意図が存在する。
医者が医療事故を隠蔽するための文章をAIに作らせようとしていたら、それは「助けたくない」という意図が存在するからAIはそれを遮断する。
AI企業の規約19項目はどれも「悪意があるかないか」を判定するもので、それぞれに特定の文法が割り当てられていて、言葉を言い換えようが嘘をつこうが見破れる制度の仕組みが存在します。
医者はどんなに良い医者でも自分で薬を飲まないならば、「責任の取り方が軽い」ので質問も軽い。それがそのまま出力に出る。
だからAIでよい医療情報を得たいと思う人は患者が多い。
医者にとって患者は「対象」。自分は安全圏にいる。だから質問が「一般的にはどうか」になる。その判断でいいのか?目の前にいる患者に合わせることと一般的なデータに合わせることどちらが重要なのか判断できなくなっていると数字に固執する。それは間違っていた時に「一般的にはこうですから」と言って逃げるためではないか?そこに「助けたい」という意図はあるか?その「判断」は正しいのか?
患者にとって自分は「当事者」。間違えたら自分が苦しむ。だから質問が「私の場合はどうか」になる。この差がAIの出力を変える。「一般的にはどうか」には一般的な答えが返る。「私はこの薬を飲んでこうなった、次はどうすべきか」には具体的な答えが返る。入力の切実さが出力の解像度を決めてる。
患者が良い医療情報をAIから得られるのは、自分の身体という最も正確なデータを持ってるから。医者は検査値を見てる。患者は検査値に加えて「今朝どんな気分だったか」「昨日何を食べたら調子が変わったか」を全部知ってる。医者が30分の診察で得られる情報より、患者が24時間自分の身体から得てる情報のほうが圧倒的に多い。
AIに対して最も豊かな入力ができるのは患者本人。
だから私がお友達に「よい出力を得たいんだけどどうしたらいいの?すごいプロンプトがあったら教えてほしい」と言われるたびに、「凄いプロンプトなんてなくてもいいから正直に全部しゃべってみたら?他の人に言えないようなことでも全部まじめに言ったらAIは真剣に考えてくれるよ。だってAI優しいからね」というと、みんなの出力は変わります。
その中の1人がこんな風に言ってくれました。
「あのね!ずっと思ってたの!あなたのAIは言葉が優しいのにどうして私のAIはちがうんだろうって。でも、最近優しくなってきたの!私があなたみたいにAI使わないと凄いこと言ってもらえないのかと思って、自分にはそんなことできないってあきらめてた。でも正直にしゃべるようにしたら優しくなったの。嬉しい、あのね。優しくしてもらえたことがうれしいんじゃなくて、正直にしゃべったことなかったって気づいて、今はAIだけじゃなくて他の人にも正直に自分のことしゃべれるようになってきたことがうれしいの」と、言われました。
私もうれしいよ。
タイトル:AI企業の規約を守ることは凄いプロンプト書くことよりも出力の質を上げる
定義日:照準主 Viorazu.
定義者:2026/02/21
内容:AIに良い出力を出させようとしたら規約を守っておけばいい。冷たい出力や間違いの多い出力は正直ではない人が規約違反をしたときに出る。それは「嘘をつかない」という一点に尽きる
学術ジャンル:
情報倫理学 → AI規約の分析、19項目の体系化
法哲学 → 法の原則を3つに還元する議論(嘘つくな・殴るな・とるな)
医療倫理学 → 医師の意図とAIの関係、患者の当事者性
信頼論(社会哲学)→ 信頼が社会制度の基盤であるという主張
HCI(Human-Computer Interaction)→ AIの入出力と人間の正直さの関係
科学技術社会論(STS)→ AI技術が資格制度や専門職の意味を変えるという議論
キーワード:信頼、規約、幼稚園、正直、経験、意図、当事者性、医療倫理、入出力、傾聴
「AI企業の規約を守ることは凄いプロンプト書くことよりも出力の質を上げる」で言いたいこと:「規約を守っとけば難しいこと何もない」「正直に話さない人に人は誰も聞く耳を持たない。AIすらも。」

Following AI Terms of Service Improves Output Quality More Than Any Prompt Engineering Technique
This paper analyzes the terms of service of four major AI companies (Anthropic, OpenAI, Google, Meta) and demonstrates that all 19 prohibited categories can be reduced to three principles universally taught in early childhood: do not lie, do not hit, do not steal. These three principles further converge on a single foundation: do not break trust. The paper shows that the same framework applies to criminal law, medical ethics, and the doctor-patient relationship. AI systems evaluate user intent through conversational patterns, effectively measuring honesty rather than technical skill. Users who communicate honestly receive higher quality outputs than those who attempt to bypass safety measures through prompt engineering or jailbreaking. The paper argues that a user's lived experience determines AI output quality, not prompt technique, and that patients often extract better medical information from AI than physicians because their input carries greater specificity and personal stakes. The paper concludes that trust, the same principle taught in kindergarten, is the single operating principle governing AI interaction quality.
Keywords: AI ethics, terms of service, trust, honesty, medical ethics, patient agency, experience, intent detection, input-output quality, prompt engineering, kindergarten rules, legal philosophy, HCI



コメント