メインコンテンツへスキップ
数行のコードで機械学習の実験をトラッキングできます。結果はその後、インタラクティブなダッシュボードで確認したり、Public APIを使ってプログラムからアクセスできるように Python にエクスポートしたりできます。 Keras などの主要なフレームワークを使用している場合は、W&B Integrations を活用してください。インテグレーションの一覧と、コードに W&B を追加する方法については、W&B Integrations を参照してください。
Experiments ダッシュボード
上の画像は、複数のrunsにまたがるメトリクスを表示・比較できるダッシュボードの例です。

仕組み

数行のコードで機械学習の実験をトラッキングできます。
  1. W&B Run を作成します。
  2. 学習率やモデルのタイプなどのハイパーパラメーターを辞書として設定 (wandb.Run.config) に保存します。
  3. 精度や損失などのメトリクスを、トレーニングループの中で継続的にログします (wandb.Run.log()) 。
  4. モデルの重みや予測結果の表など、run の出力を保存します。
次のコードは、W&B で一般的な実験管理のワークフローを示しています。
# runを開始する。
#
# このブロックを抜けると、ログされたデータのアップロード完了を待機する。
# 例外が発生した場合、runは失敗としてマークされる。
with wandb.init(entity="", project="my-project-name") as run:
  # モデルの入力とハイパーパラメーターを保存する。
  run.config.learning_rate = 0.01

  # 実験コードを実行する。
  for epoch in range(num_epochs):
    # トレーニングを実行する...

    # モデル性能を可視化するため、メトリクスを継続的にログする。
    run.log({"loss": loss})

  # モデルの出力をArtifactsとしてアップロードする。
  run.log_artifact(model)

はじめに

ユースケースに応じて、W&B 実験 を使い始める際は、次のリソースをご覧ください。
  • データセット artifact を作成し、トラッキングして、使用するために使える W&B Python SDK のコマンドを step ごとに説明した W&B クイックスタート をお読みください。
  • この章では、次の方法を学べます。
    • 実験 を作成する
    • 実験 を設定する
    • 実験 からデータをログする
    • 実験 の結果を確認する
  • W&B API Reference GuideW&B Python Library もご覧ください。

ベストプラクティスとヒント

実験 とログに関するベストプラクティスとヒントについては、Best Practices: Experiments and Loggingを参照してください。