ChatGPT Retrieval Pluginとは
ChatGPT Retrieval Pluginは、個人または組織のドキュメントのセマンティックサーチと取得を可能にするプラグインです。ここで、セマンティックサーチとは、検索ユーザーの意図・目的を適切に理解し、ユーザーの求める結果を提供する概念のことです。ユーザーは自然言語で質問したりニーズを表現したりすることで、ベクトルDBに格納されているファイル、メモ、メールなどのデータソースからもっとも関連性の高いドキュメントのチャンクを取得することができます。このプラグインを使用することで、ChatGPTを介して内部ドキュメントを参照したレスポンスを返すことが可能です。
ChatGPT Retrieval Pluginの仕組み
ChatGPT Retrieval Pluginは次のような仕組みとなっています。
- OpenAIの
text-embedding-ada-002
埋め込みモデルを使用してドキュメントのチャンクの埋め込みを生成 - ベクトルDBに埋め込みを保存
- ベクトルDBに対してクエリを実行
サポートされているベクトルDB
ChatGPT Retrieval Pluginは、さまざまなベクトルDBのプロバイダーをサポートしており、それぞれが異なる機能、パフォーマンスを持っています。。選択するプロバイダーによっては、異なるDockerfileを使用し、異なる環境変数を設定する必要があります。
以下はChatGPT Retrieval PluginがサポートしているベクトルDBです。
- Pinecone
- Weaviate
- Zilliz
- Milvus
- Qdrant
- Redis
- LlamaIndex
- Chroma
- Azure Cognitive Search
- Supabase
- Postgres
- AnalyticDB
また、ソースコードを編集して、デフォルトでサポートされていないベクトルDBを使うことも可能です。
ChatGPT Retrieval Pluginのセットアップ
ChatGPTの検索プラグインセットアップして実行するためには、次の手順に従います。
-
インストールされていない場合は、Python 3.10をインストール
-
レポジトリをクローン
$ git clone https://github.com/openai/chatgpt-retrieval-plugin.git
- クローンしたリポジトリのディレクトリに移動
$ cd /path/to/chatgpt-retrieval-plugin
- poetryをインストール
$ pip install poetry
- Python 3.10を使用した新しい仮想環境を作成
$ poetry env use python3.10
- 仮想環境をアクティベート
$ poetry shell
- 依存関係をインストール
$ poetry install
-
Bearerトークンの作成
-
必要な環境変数の設定
DATASTORE
、BEARER_TOKEN
、OPENAI_API_KEY
は必須の環境変数です。その他、選択したベクトルDBの環境変数を設定します。
名前 | 必須 | 説明 |
---|---|---|
DATASTORE |
Yes | ベクトルDBのプロバイダーを指定します。埋め込みを保存およびクエリするためのDBをchroma 、pinecone 、weaviate 、zilliz 、milvus 、qdrant 、redis 、azuresearch 、supabase 、postgres 、analyticdb から選択できます。 |
BEARER_TOKEN |
Yes | APIへのリクエストを認証するために必要なシークレットトークンです。好きなツールや方法を使用して生成できます。例えば、jwt.ioなどです。 |
OPENAI_API_KEY |
Yes | text-embedding-ada-002 モデルを使用して埋め込みを生成するために必要なOpenAI APIキーです。OpenAIでアカウントを作成することでAPIキーを取得できます。 |
$ export DATASTORE=<your_datastore>
$ export BEARER_TOKEN=<your_bearer_token>
$ export OPENAI_API_KEY=<your_openai_api_key>
# Optional environment variables used when running Azure OpenAI
$ export OPENAI_API_BASE=https://<AzureOpenAIName>.openai.azure.com/
$ export OPENAI_API_TYPE=azure
$ export OPENAI_EMBEDDINGMODEL_DEPLOYMENTID=<Name of text-embedding-ada-002 model deployment>
$ export OPENAI_METADATA_EXTRACTIONMODEL_DEPLOYMENTID=<Name of deployment of model for metatdata>
$ export OPENAI_COMPLETIONMODEL_DEPLOYMENTID=<Name of general model deployment used for completion>
$ export OPENAI_EMBEDDING_BATCH_SIZE=<Batch size of embedding, for AzureOAI, this value need to be set as 1>
# Add the environment variables for your chosen vector DB.
# Some of these are optional; read the provider's setup docs in /docs/providers for more information.
# Pinecone
$ export PINECONE_API_KEY=<your_pinecone_api_key>
$ export PINECONE_ENVIRONMENT=<your_pinecone_environment>
$ export PINECONE_INDEX=<your_pinecone_index>
# Weaviate
$ export WEAVIATE_URL=<your_weaviate_instance_url>
$ export WEAVIATE_API_KEY=<your_api_key_for_WCS>
$ export WEAVIATE_CLASS=<your_optional_weaviate_class>
# Zilliz
$ export ZILLIZ_COLLECTION=<your_zilliz_collection>
$ export ZILLIZ_URI=<your_zilliz_uri>
$ export ZILLIZ_USER=<your_zilliz_username>
$ export ZILLIZ_PASSWORD=<your_zilliz_password>
# Milvus
$ export MILVUS_COLLECTION=<your_milvus_collection>
$ export MILVUS_HOST=<your_milvus_host>
$ export MILVUS_PORT=<your_milvus_port>
$ export MILVUS_USER=<your_milvus_username>
$ export MILVUS_PASSWORD=<your_milvus_password>
# Qdrant
$ export QDRANT_URL=<your_qdrant_url>
$ export QDRANT_PORT=<your_qdrant_port>
$ export QDRANT_GRPC_PORT=<your_qdrant_grpc_port>
$ export QDRANT_API_KEY=<your_qdrant_api_key>
$ export QDRANT_COLLECTION=<your_qdrant_collection>
# AnalyticDB
$ export PG_HOST=<your_analyticdb_host>
$ export PG_PORT=<your_analyticdb_port>
$ export PG_USER=<your_analyticdb_username>
$ export PG_PASSWORD=<your_analyticdb_password>
$ export PG_DATABASE=<your_analyticdb_database>
$ export PG_COLLECTION=<your_analyticdb_collection>
# Redis
$ export REDIS_HOST=<your_redis_host>
$ export REDIS_PORT=<your_redis_port>
$ export REDIS_PASSWORD=<your_redis_password>
$ export REDIS_INDEX_NAME=<your_redis_index_name>
$ export REDIS_DOC_PREFIX=<your_redis_doc_prefix>
$ export REDIS_DISTANCE_METRIC=<your_redis_distance_metric>
$ export REDIS_INDEX_TYPE=<your_redis_index_type>
# Llama
$ export LLAMA_INDEX_TYPE=<gpt_vector_index_type>
$ export LLAMA_INDEX_JSON_PATH=<path_to_saved_index_json_file>
$ export LLAMA_QUERY_KWARGS_JSON_PATH=<path_to_saved_query_kwargs_json_file>
$ export LLAMA_RESPONSE_MODE=<response_mode_for_query>
# Chroma
$ export CHROMA_COLLECTION=<your_chroma_collection>
$ export CHROMA_IN_MEMORY=<true_or_false>
$ export CHROMA_PERSISTENCE_DIR=<your_chroma_persistence_directory>
$ export CHROMA_HOST=<your_chroma_host>
$ export CHROMA_PORT=<your_chroma_port>
# Azure Cognitive Search
$ export AZURESEARCH_SERVICE=<your_search_service_name>
$ export AZURESEARCH_INDEX=<your_search_index_name>
$ export AZURESEARCH_API_KEY=<your_api_key> (optional, uses key-free managed identity if not set)
# Supabase
$ export SUPABASE_URL=<supabase_project_url>
$ export SUPABASE_ANON_KEY=<supabase_project_api_anon_key>
# Postgres
$ export PG_HOST=<postgres_host>
$ export PG_PORT=<postgres_port>
$ export PG_USER=<postgres_user>
$ export PG_PASSWORD=<postgres_password>
$ export PG_DATABASE=<postgres_database>
- ローカルでAPIを実行
$ poetry run start
http://0.0.0.0:8000/docs
でAPIのドキュメントにアクセスし、APIのエンドポイントをテスト(Bearerトークンを追加することを忘れずに)
APIエンドポイント
ChatGPT Retrieval Pluginは、PythonでAPIを構築するためのウェブフレームワークであるFastAPIを使用して構築されています。FastAPIを使用することで、APIエンドポイントの簡単な開発、バリデーション、およびドキュメント化が可能になります。
ChatGPT Retrieval Pluginは、ベクトルDBへのドキュメントのアップサート、クエリ、削除のためのエンドポイント公開しています。全てのリクエストとレスポンスはJSON形式であり、有効なBearerトークンを認証ヘッダーとして要求します。
-
/upsert
このエンドポイントでは、1つ以上のドキュメントをアップロードし、そのテキストとメタデータをベクトルデータベースに保存することができます。ドキュメントは約200トークンずつのチャンクに分割され、各チャンクには固有のIDがあります。エンドポイントはリクエストボディ内のドキュメントのリストを想定しており、各ドキュメントにはtext
フィールドとオプションのid
フィールドおよびmetadata
フィールドが含まれています。metadata
フィールドには、source
、source_id
、url
、created_at
、author
のサブフィールドを含めることができます。エンドポイントは挿入されたドキュメントのIDのリストを返します(IDが最初に提供されていない場合はIDが生成されます)。 -
/upsert-file
このエンドポイントでは、単一のファイル(PDF、TXT、DOCX、PPTX、またはMD)をアップロードし、そのテキストとメタデータをベクトルデータベースに保存することができます。ファイルはプレーンテキストに変換され、約200トークンずつのチャンクに分割されます。エンドポイントは、挿入されたファイルの生成されたIDを含むリストを返します。 -
/query
このエンドポイントでは、自然言語クエリとオプションのメタデータフィルタを使用してベクトルデータベースをクエリすることができます。エンドポイントは、リクエストボディ内のクエリのリストを想定しており、各クエリにはquery
フィールドとオプションのfilterフィールドおよびtop_k
フィールドが含まれています。filter
フィールドには、source
、source_id
、document_id
、url
、created_at
、author
のサブセットを含めることができます。top_k
フィールドは、指定されたクエリに対して返される結果の数を指定し、デフォルト値は3です。エンドポイントは、各クエリに対してもっとも関連性の高いドキュメントチャンクのリストを含むオブジェクトのリストを返します。各オブジェクトには、テキスト、メタデータ、類似度スコアが含まれます。 -
/delete
このエンドポイントでは、ID、メタデータフィルタ、またはdelete_all
フラグを使用して、ベクトルデータベースから1つ以上のドキュメントを削除することができます。エンドポイントは、リクエストボディ内のids
、filter
、またはdelete_all
のパラメータを少なくとも1つ受け取ります。ids
パラメータは、削除するドキュメントのIDのリストで、これらのIDを持つドキュメントの全てのチャンクが削除されます。filter
パラメータには、source
、source_id
、document_id
、url
、created_at
、author
のサブフィールドを含めることができます。delete_all
パラメータは、ベクトルデータベースから全てのドキュメントを削除するかどうかを示すブール値です。エンドポイントは、削除が成功したかどうかを示すブール値を返します。
参考