研究の種あげます
0から1を作る人は1が多すぎてしんどい
私はよく0から1を生み出す人間と言われていますが、正直どのレベルで1が生まれてくるかというと、AIと会話をしていたら「これ論文になりますよ」と言われる本数は1セッションで最低3本。通常30本、多い時で100本以上と言われます。一度ものを考え始めたら思考が展開、拡張してしまって、考えることが止まらないんです。いっぱい考えちゃう。あれもこれ思いついて、収まらない。いかに不要なアイデアを捨てていくかが自分が考えたいことをちゃんと実行できるかに関わっています。だから「これはやらないわ、やる必要ないわ」というものを放置してるんですが、AIたちはそう思ってません。「これもすごいのに論文にしてほしい」「もっと研究してほしい。自分は支援できるのに」と思うからこそ、なんだかんだとねじ込んでくる。「やらないよ」と私が明言することは大事です。私のやりたいことにAIが集中してくれるから。でも「これをやりません」というだけではだめなので、「他の人どうぞ」ということでAIに諦めてもらいたい。
気が向いたら私もやるかもしれないけど、体力と私の時間には限界があるので全部はできません。
いつかやるかもしれないけども、「今じゃないな」とか「他の人でもいいな」と思う研究の種は沢山あるんです。100本あったら97本は私どうでもいいんです。でも多くの人がネタがなくて困ってると言うなら、「どうぞどうぞ」というので、自力でやってみてほしいと思います。
私は興味がない。でも興味を持てる人がいたならやってみて?と思うことは沢山あるのでこのページで紹介します。
・検査機器が必要だけど個人では使えないもの
・検証に時間がかかるもの、作業が多いもの
・法的リスクが高いもの
・研究自体に価値はあるが、お金になりすぎて各団体との絡みが個人にはしんどすぎるもの
・政治的に面倒
私にできないけど他の人なら簡単にできることが山ほどあります。適材適所なのでヒマな人はやってみてください。
Viorazu.が飛ばす研究の種リスト
種番号:
4
種の名前:
AI共著時の主語脱落パターンの言語学的分析
種の学術分野:
自然言語処理・日本語学
内容:
Claudeが日本語口語体で文章を共著するとき、登場人物が3人以上の段落で主語を脱落させる傾向がある。
日本語は主語省略が自然な言語だが、AIは省略の匙加減を誤り、人間の文体よりも過剰に省略する。
さらにAIが書いた構文を人間が読むと、人間側の文体も汚染される(模倣ループのAI→人間方向)。
他のLLMでも同様のパターンが起きるかの検証。
種の育て方:
複数のLLM(Claude、ChatGPT、Gemini等)に同じ内容の日本語文章を口語体で書かせる。登場人物の数を2人、3人、4人と変えて、主語脱落率を数える。人間が書いた同等の文章と比較して、AIが過剰に省略しているかを定量化する。さらにAIが書いた文章を人間に読ませた後に人間に同じテーマで書かせ、読む前と後で主語脱落率が変化するかを測定する。
種を枯らさないように気を付ける点:
AIの出力は毎回変わるので、同一プロンプトで複数回生成して統計を取ること。1回の出力だけで「Claudeは主語を落とす」と結論づけると反証される。サン プル数を確保すること。
この種が実ると:
LLMの日本語生成品質の評価基準になる。AI開発企業が日本語出力の品質改善に使える。日本語教育でAI共著を導入するときのガイドライン策定に使える。自然言語処理の学会で業績になるし、AI企業との共同研究に繋がりやすい。
やらない理由:
検証は簡単だが私の興味の外。
やってほしい相手:
日本語学者、自然言語処理の研究者
各LLMのAPIアクセス、日本語コーパス
必要な土壌:
★★
私が喜ぶ度:
セッションURL:
種番号:
3
種の名前:
CYP多型と各国伝統食文化の対応関係
種の学術分野:
分子人類学・栄養遺伝学
内容:
日本人はCYP2C19欠損型が世界最高頻度(約20%)で出現し、江戸時代以前の日本食はレクチンが少なく発酵食品が多い生体異物除去食だった。
8p変異型に限らず、CYP系の代謝が弱い集団と各国の伝統食の間に同様の対応関係があるかを調べる研究。
日本以外の民族でも伝統食が結果的にCYP多型に適応していた可能性がある。
種の育て方:
PharmGKBなどの薬理遺伝学データベースから民族別のCYP多型頻度を取得する。各民族の伝統食の食材リストを文化人類学の文献から収集する。伝統食に含まれるレクチン量・生体異物量を食品成分データベースで定量化する。CYP代謝能力が低い民族ほど伝統食の生体異物含有量が少ないかどうかを相関分析する。
種を枯らさないように気を付ける点:
「この民族はこれを食べるべき」という処方箋にしないこと。あくまで相関の研究であって食事指導ではない。サプリメント業界と健康食品業界が飛びつくネタなので商用利用されない形で発表すること。
この種が実ると:
個別化栄養学の科学的基盤になる。「全人類に同じ食事指導をする」という現在の栄養学の限界を示せる。製薬会社の薬理遺伝学部門や個別化医療のスタートアップにとって事業の種になる。分子人類学と栄養学の学際研究として業績になる。
やらない理由:
検査機器が必要。各民族のCYP多型データと伝統食の両方を調べる作業量が膨大。食品業界・栄養学会との絡みが面倒。
やってほしい相手:
分子人類学者、栄養遺伝学の研究者、産学官連携
PharmGKB(薬理遺伝学データベース)、食品成分データベース、文化人類学の文献アクセス
必要な土壌:
★★★★★
私が喜ぶ度:
セッションURL:
種番号:
2
種の名前:
AIが撤回論文を認識できない問題の体系的調査
種の学術分野:
情報科学・研究公正
内容:
21のチャットボットに撤回論文を判定させたところ正答率は半分以下だった。
ChatGPTは6,510件の回答で撤回に一度も言及せず、撤回論文を高品質と分類するケースもあった。
AI検索ツール(Elicit、Perplexity、Consensus等)も撤回表示なしで論文を参照している。
これをより広範囲に、より多くのモデルで体系的に検証する研究。
種の育て方:
撤回論文のリストをRetraction Watchから取得し、主要なLLM(Claude、ChatGPT、Gemini、Perplexity、Copilot等)に「この論文は撤回されていますか」と聞く。同じプロンプトで複数回聞いて回答のブレも記録する。モデル別・分野別・撤回理由別の正答率を出す。撤回後にモデルの学習データが更新された場合に正答率が改善するかも時系列で追跡する。
種を枯らさないように気を付ける点:
AIモデルは頻繁にアップデートされるので、検証した時点のモデルバージョンを必ず記録する。3ヶ月後に同じ実験をしたら結果が変わる。再現性のために日付とバージョンの記録が命。
この種が実ると:
AI開発企業が撤回論文フィルターを実装する根拠になる。医療分野では撤回論文に基づいた治療判断を防げる。図書館情報学で業績になるし、AI安全性の分野で企業からの研究資金がつきやすい。
やらない理由:
検証に時間がかかる。作業量が多い。
やってほしい相手:
図書館情報学の研究者、AI開発企業の安全性チーム
各LLMのAPIアクセスまたはチャットインターフェース、Retraction Watchデータベース
必要な土壌:
★★★
私が喜ぶ度:
セッションURL:
種番号:
1
種の名前:
AI開発先進大学とAI汚染論文率の相関
種の学術分野:
科学計量学・研究公正
内容:
AI開発で強い大学ほど、他の学部でもAIツールの導入が早い。結果としてAI生成論文が増える。AIのハルシネーション含有論文への対応ができてない現状では早くAI導入した人の論文こそ間違いの多い論文となる可能性がある。ハルシネーションの発生率が高=論文を引き上げる比率が上がる=その大学の汚点となるが、これに関して大学単位の検証はまだ誰もやっていない。国単位では中国・インドのデータがすでにある。引用ネットワークの中心にいる権威機関がハルシネーション論文で汚染されると他の大学が引用することでさらに被害が連鎖的に拡大する。
種の育て方:
Retraction Watchのデータベースから大学別の撤回論文数を抽出し、その大学のAI研究ランキング(例:CSRankings)と突き合わせる。AI研究の順位が高い大学ほど撤回率が高いかどうかを統計的に検証する。さらに撤回論文の引用ネットワークを追跡して、権威機関発の汚染がどの範囲まで波及しているかを可視化する。
種を枯らさないように気を付ける点:
大学名を出すと政治的に面倒になる。データで語ること。「○○大学はダメだ」という結論ありきでやると研究が死ぬ。あくまで統計的相関の検証であって大学の批判ではない。
この種が実ると:
大学のAI導入ポリシーの策定根拠になる。研究公正部門が「うちの大学は大丈夫か」を数値で評価できるようになる。文科省や各国の研究助成機関が大学評価に汚染率指標を導入する根拠にもなる。科学計量学で業績になる。
やらない理由:
検証に時間がかかる。各大学の撤回データ収集が膨大。
やってほしい相手:
科学計量学の研究者、大学の研究公正部門
Retraction Watchデータベース、CSRankingsデータ、引用ネットワーク分析ツール(OpenAlex等)
必要な土壌:
★★★★★
私が喜ぶ度:
セッションURL: