LLM・自律エージェント・生成AI が社会を変えつつある今、その安全性やプライバシーをどう守るかは、世界中で最も urgentな研究課題のひとつです。
Cao Lab は Trustworthy AI / Privacy / Security を軸に、この課題に正面から取り組んでいます。
※ スライドの閲覧には Science Tokyo アカウントが必要です
「Trustworthy AI」を扱う研究室は増えていますが、Cao Lab にはトップレベルの研究・国際環境・研究リソースの3点において、明確な強みを持っています。
「AI・データサイエンスを安全で信頼できる形で社会に活用するにはどうすればよいか」という問いに取り組んでいます。
B4 の研究テーマは、まず Trustworthy Data Science & AIの領域から考えるのが基本ですが、本人の興味や強みに応じて発展的テーマへの対応も可能です。 大切なのは「何が問題で、なぜ重要か」を自分の言葉で説明できることです。
研究分野だけでなく、「ここに来たらどんな力が身につくか」を具体的に想像してみてください。
関連研究を整理して Research Gap を見つけ、実行可能なテーマへ落とし込む基礎を身につけます。
Baseline を設計し、再現性と説得力のある評価を組み立てる研究エンジニアリング力を磨きます。
リスクを見つける視点と、それをどう守るかを考える視点の両方に、B4 からアクセスできます。
英語論文を読み・議論し、研究を英語で発表する力を段階的に構築していきます。
卒論を書いて終わりではなく、その先の大学院進学・国際発表・研究者/研究開発エンジニアとしての成長も見据えています。
分野を知り、論文の読み方や research question の立て方に触れます。
関連研究を調べ、課題を絞り、小さな仮説検証を回して卒論へつなげます。
評価設計・比較実験・発表準備を通じて、外部発表できる研究へ育てます。
共同研究や論文化を通じて、独立して研究を進める力を高めます。
週1回程度。論文の相談、テーマ整理、実験方針、次に何を読むべきかを議論します。
月1–2回程度。研究共有や論文紹介を通じて、他メンバーの視点から学べます。
コアタイムは設けません。自主性と自己管理を前提に、計画的に研究を進めるスタイルです。
テーマが決まっていなくても構いません。見学では、以下のような内容をお話しします。