SafeBench: A Safety Evaluation Framework for Multimodal Large Language Models

  • SafeBench: A Safety Evaluation Framework for Multimodal Large Language Models [75.7]
    MLLMの安全性評価を行うための総合的なフレームワークであるツールンを提案する。 我々のフレームワークは、包括的な有害なクエリデータセットと自動評価プロトコルで構成されています。 本研究では,広く利用されている15のオープンソースMLLMと6つの商用MLLMの大規模実験を行った。
    論文  参考訳(メタデータ)   (Thu, 24 Oct 2024 17:14:40 GMT)
  • MLLMの安全性を調べるフレームワークの提案。
  • リポジトリはSafeBench

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です