SafeSci: Safety Evaluation of Large Language Models in Science Domains and Beyond

  • SafeSci: Safety Evaluation of Large Language Models in Science Domains and Beyond [134.4]
    安全評価と科学的文脈の強化のための包括的枠組みであるSafeSciを紹介する。 SafeSciには、0.25Mサンプルを持つマルチディシプリナのベンチマークであるSafeSciBenchと、安全性向上のための1.5Mサンプルを含む大規模データセットであるSafeSciTrainが含まれている。
    論文  参考訳(メタデータ)   (Mon, 02 Mar 2026 08:16:04 GMT)
  • 「we propose SafeSci, a holistic framework designed to evaluate and enhance the safety of LLMs in scientific domains. SafeSci consists of two datasets: SafeSciBench, a multi-disciplinary safety evaluation benchmark, and SafeSciTrain, a large-scale instruction tuning dataset for safety enhancement.」とのこと。
    • 余談だがフロンティアモデルはほぼ確実にトレーニングでPubChemや ChEMBLを使っているので・・・という説明にベンチマーク構築の難しさを感じる。
  • リポジトリはGitHub – yangyangyang127/SafeSci · GitHub

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です