OpenAIはオープンソースの安全推論モデルgpt-oss-safeguardを発表し、ポリシー駆動の分類をサポートしています。

robot
概要作成中

PANews 10月29日のニュース、OpenAIは本日オープンソースの安全推論モデルgpt-oss-safeguard(120b、20b)を発表し、開発者が推論時にカスタムポリシーを提供してコンテンツ分類を行うことを許可しました。モデルの出力結論と推論チェーン。このモデルはオープンウェイトgpt-ossを微調整し、Apache 2.0ライセンスを採用しており、Hugging Faceからダウンロードできます。内部評価では、複数のポリシーの精度がgpt-5-thinkingおよびgpt-ossよりも優れており、外部データセットのパフォーマンスはSafety Reasonerに近いことが示されています。制限事項には、大量の高品質な注釈付きシーンでは従来の分類器が依然として優れていること、推論にかかる時間とコンピューティングパワーが高いことが含まれます。ROOSTはモデルコミュニティを構築し、技術レポートを発表します。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
0/400
コメントなし
  • ピン
いつでもどこでも暗号資産取引
qrCode
スキャンしてGateアプリをダウンロード
コミュニティ
日本語
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)