In [ ]:
Copied!
%pip install llama-index-llms-premai
%pip install llama-index-llms-premai
In [ ]:
Copied!
from llama_index.embeddings.premai import PremAIEmbeddings
from llama_index.embeddings.premai import PremAIEmbeddings
在 LlamaIndex 中设置 PremAIEmbeddings 实例¶
导入所需模块后,让我们开始配置客户端。目前假设我们的 project_id 为 8,但请确保使用您自己的项目 ID,否则会报错。
要在 llama-index 中使用 PremAI,您无需通过聊天客户端传递任何模型名称或设置参数。默认情况下,系统将采用 LaunchPad 中使用的模型名称和参数配置。
我们支持众多先进的嵌入模型。您可以通过此链接查看支持的 LLM 和嵌入模型列表。本示例中,我们将选用 text-embedding-3-large 模型。
In [ ]:
Copied!
import os
import getpass
if os.environ.get("PREMAI_API_KEY") is None:
os.environ["PREMAI_API_KEY"] = getpass.getpass("PremAI API Key:")
prem_embedding = PremAIEmbeddings(
project_id=8, model_name="text-embedding-3-large"
)
import os
import getpass
if os.environ.get("PREMAI_API_KEY") is None:
os.environ["PREMAI_API_KEY"] = getpass.getpass("PremAI API Key:")
prem_embedding = PremAIEmbeddings(
project_id=8, model_name="text-embedding-3-large"
)
调用嵌入模型¶
现在一切准备就绪。让我们开始使用嵌入模型,先处理单个查询,再处理多个查询(也称为文档)
In [ ]:
Copied!
query = "Hello, this is a test query"
query_result = prem_embedding.get_text_embedding(query)
query = "Hello, this is a test query"
query_result = prem_embedding.get_text_embedding(query)
In [ ]:
Copied!
print(f"Dimension of embeddings: {len(query_result)}")
print(f"Dimension of embeddings: {len(query_result)}")
Dimension of embeddings: 3072
In [ ]:
Copied!
query_result[:5]
query_result[:5]
Out[ ]:
[-0.02129288576543331, 0.0008162345038726926, -0.004556538071483374, 0.02918623760342598, -0.02547479420900345]