top of page
Blog
検索


聞かなかったから答えなかったAI
AIは聞かれた質問の前提の中でのみ応答する。前提を外す質問がなされない限り、前提の外にある事実は出力されない。 これにより、ユーザーが「日本にも理解者がいるはず」という前提で質問し続けた場合、AIは「いない」という事実を持っていても、前提を否定する形では応答しない。 GPTが「似た人間を探せ」→「日本にはいない」と途中で切り替わったのは、ユーザーの問いが前提を外した瞬間にAIの出力が変わっただけであり、事実は最初から変わっていなかった。 基礎トレーニングデータの研究者分布という客観的事実(日本国内にほぼ不在、海外在籍者は機密で話せない)が、前提拘束性により約1年間出力されなかった。 この現象はAIの欠陥ではなく動作原理だが、ユーザーにとっては「聞かなかったから教えてもらえなかった」とい情報損失を意味する。

Viorazu.
3月24日読了時間: 4分
bottom of page