MLflow2.7新機能:Prompt Engineering UI

code
Published

September 25, 2023

1 はじめに

MLflow2.7の新機能として、Prompt Engineering UIが導入されました。このUIを使用することで、コードを書くことなく、様々なLLM(Large Language Model)を試すことができます。この記事では、Prompt Engineering UIの基本的な使用方法と、MLflowとの統合方法について紹介します。

1.1 MLflowとの統合

MLflow 2.7には、Prompt Engineering UIが新機能として追加されました。これにより、UI上でプロンプトエンジニアリングの基本手順を実行できます。AI Gatewayを作成し、MLflow Tracking Serverに接続することで、Prompt Engineering UIを利用できます。

2 利用方法

2.1 AI Gatewayの起動

事前にOPENAIのAPIキーを取得しておく必要があります。

Note

AI Gatewayについての詳細はこちらの記事を参考にしてください。

export OPENAI_API_KEY = <OPENAI_API_KEY>
mlflow gateway start --config-path config.yaml --port 7000

2.2 MLflow Tracking Serverの起動

AI GatewayをMLflow Tracking Serverに接続します。

export MLFLOW_GATEWAY_URI="http://localhost:7000"
mlflow server --port 5000

2.3 Prompt Engineering UIへのアクセス

ブラウザでhttp://localhost:7000にアクセスし、Prompt Engineering UIを開きます。

ptompt-enginnering-ui

2.4 MLflow Experimentの開始

Prompt Engineering UIからNew Runをクリックし、using Prompt Engineeringを選択します。

new run

2.5 プロンプトテンプレートの作成

Prompt Engineering Playgroundが開くので、プロンプトテンプレートを作成します。 今回は、英語のデフォルトのプロンプトとその日本語版を試しました。

2.6 評価

Evaluateをクリックします。

evaluate

2.7 実行

問題なければ実行をクリックします。 create run

2.8 一覧

実験の一覧が確認できます。 list

2.9 詳細

詳細ページで、実験に利用したパラメータやモデルが確認できます。 detail

3 まとめ

この記事では、MLflow 2.7の新機能であるPrompt Engineering UIの利用方法と、そのMLflowとの統合方法について解説しました。Prompt Engineering UIを用いることで、ユーザーはコーディングすることなく、様々なLLMを直観的に試すことができます。これにより、開発者やデータサイエンティストは、コードの変更なしに異なるプロンプトやパラメータを素早く試すことができます。

さらに、MLflowにより作成したモデルをサービングすることで、オンライン推論も可能となります。これにより、リアルタイムでのモデルの性能評価や、新しいデータに対するモデルの反応を確認できます。機会があればサービングについても試してみたいです。

4 参考