生成AI安全性
多言語LLM安全性評価とアライメント — 安全性メカニズムが言語間でどのように失敗するかを理解する。
意味を作る、共に築く、機械に教える。
人間はデジタル空間でどのように知識を共創するのか?
Wikipediaの編集合戦からオープンソースコミュニティまで、協働プラットフォームの創発的ダイナミクスを研究し、集合知がどのように形成され、進化し、時に崩壊するのかを理解します。
情報は複雑な問題に対する公衆の理解をどう形作るのか?
気候変動の誤情報から猛暑報道まで、メディアが科学的・社会的問題に対する公衆の認識をどう形成するか、そして計算ツールがこれらのダイナミクスを大規模に追跡するのにどう役立つかを調査します。
AIと人間はどのように互いから学べるのか?
社会科学と機械学習が出会うフロンティアを探求します。多言語LLM安全性からAIの研究ツールとしての活用まで。目標:パターンだけでなく社会的文脈を理解するAI。
多言語LLM安全性評価とアライメント — 安全性メカニズムが言語間でどのように失敗するかを理解する。
ペット/猫のためのAI、LLMバイアス評価、社会シミュレーション — 社会的探求と機械知能の橋渡し。
猛暑報道、リスク認知、注意疲労 — メディアが環境危機への公衆の理解をどう形作るか。
Wikipediaのダイナミクス、協働プラットフォーム、デジタル空間における集合的意見形成。
ソーシャルメディアと市場データパイプライン — ナラティブがどう伝播し経済行動を形作るかを追跡。
アニメ・漫画・ゲームの文化分析 — 大規模なメディア消費とファンコミュニティの理解。
> これは簡単だからやるのではない...> ...> 簡単だと思ったからやるのだ。