Zugang aus Übersee: www.kdjingpai.com
Ctrl + D Lesezeichen für diese Seite
Derzeitige Position:Abb. Anfang " AI-Antworten

Wie kann OpenBench erweitert werden, um neue Benchmarks zu unterstützen?

2025-08-19 247

Basierend auf der Erweiterbarkeit des inspect-ai Frameworks, sind die Schritte zum Hinzufügen eines neuen Benchmark-Tests folgende:

  • Im Projektverzeichnis desbenchmarks/Neues Python-Modul unter VererbungBaseBenchmarkähneln
  • Erfüllungload_dataset()im Gesang antwortenevaluate()Methodik, Definition der Bewertungslogik
  • Mit Hilfe eines Dekorateurs@register_benchmarkAnmeldung zu Prüfungen, Festlegen von Metadaten (Kategorie, Schwierigkeitsgrad usw.)
  • neu gebautconftest.pyLogik zum Herunterladen von Datensätzen hinzufügen (HuggingFace-Berechtigungen müssen behandelt werden)
  • ausnutzenuv run pytest benchmarks/新测试名Verifikationsimplementierung
  • passieren (eine Rechnung oder Inspektion etc.)bench listBestätigen Sie, dass der neue Test in der Liste der verfügbaren Tests erschienen ist.

Es wird empfohlen, auf bestehende Implementierungen von Tests wie MMLU zu verweisen, um den Code einheitlich zu gestalten.

Empfohlen

Sie können keine AI-Tools finden? Versuchen Sie es hier!

Geben Sie einfach das Schlüsselwort Barrierefreiheit Bing-SucheDer Bereich KI-Tools auf dieser Website bietet eine schnelle und einfache Möglichkeit, alle KI-Tools auf dieser Website zu finden.

zurück zum Anfang

de_DEDeutsch