Skip to content

欢迎来到 LlamaIndex 🦙 !#

LlamaIndex 是领先的框架,用于通过 大语言模型工作流 构建基于您数据的 LLM 驱动智能体。

  • 简介

    什么是上下文增强?什么是智能体和工作流?LlamaIndex 如何帮助构建它们?

  • 使用场景

    您能用 LlamaIndex 构建哪些应用?适合哪些用户?

  • 快速开始

    仅需 5 行代码即可开始使用 Python 或 TypeScript 开发!

  • LlamaCloud

    LlamaIndex 托管服务,包含全球最佳文档解析器 LlamaParse

  • 社区

    通过 Discord、Twitter、LinkedIn 获取帮助并结识协作者,了解如何为项目做贡献。

  • 相关项目

    访问 LlamaHub 查看我们的连接器库、阅读器和其他集成,以及 create-llama 等演示和入门应用。

简介#

什么是智能体?#

智能体 是 LLM 驱动的知识助手,通过工具执行研究、数据提取等任务。智能体功能范围从简单问答到具备感知、决策和执行能力以完成任务。

LlamaIndex 提供构建智能体的框架,包括将 RAG 流程作为众多工具之一来完成任务的能力。

什么是工作流?#

工作流 是多步骤流程,结合一个或多个智能体、数据连接器和其他工具来完成任务。它们是事件驱动软件,允许您组合 RAG 数据源和多个智能体,创建具备反思、纠错等高级 LLM 应用特征的复杂应用。您可以将这些智能工作流部署为生产级微服务

什么是上下文增强?#

LLM 提供了人类与数据之间的自然语言接口。虽然 LLM 经过海量公开数据预训练,但并未针对您的特定数据进行训练。您的数据可能是私有的,或与待解决问题相关——它们隐藏在 API 背后、SQL 数据库中,或封存在 PDF 和幻灯片里。

上下文增强让 LLM 能够访问您的数据来解决问题。LlamaIndex 提供从原型到生产的全流程工具,支持您实现任何上下文增强用例。我们的工具可帮助您摄取、解析、索引和处理数据,快速实现结合数据访问与 LLM 提示的复杂查询工作流。

最典型的上下文增强案例是检索增强生成(RAG),它在推理时结合上下文与 LLM。

LlamaIndex 是上下文增强型 LLM 应用的框架#

LlamaIndex 不限制您使用 LLM 的方式。您可以将 LLM 用于自动补全、聊天机器人、智能体等场景。我们只是让使用变得更简单。我们提供的工具包括:

  • 数据连接器 从原始来源和格式中摄取现有数据,支持 API、PDF、SQL 等多种形式
  • 数据索引 将数据组织成便于 LLM 高效消费的中间表示形式
  • 引擎 提供数据的自然语言访问接口,例如:
    • 查询引擎是强大的问答接口(如 RAG 流程)
    • 聊天引擎是支持多轮对话的数据交互接口
  • 智能体 是由工具增强的 LLM 驱动知识工作者,支持从简单辅助功能到 API 集成等多种场景
  • 可观测性/评估 集成帮助您严格实验、评估和监控应用,形成良性循环
  • 工作流 允许将上述所有组件组合成事件驱动系统,比其他基于图的方法更灵活

使用场景#

LlamaIndex 和上下文增强的典型应用场景包括:

查看我们的使用场景文档获取更多案例和教程链接。

👨‍👩‍👧‍👦 适合哪些用户?#

LlamaIndex 为初学者、高级用户和中间用户都提供了工具。

我们的高级 API 让初学者只需 5 行代码即可实现数据摄取和查询。

对于复杂应用,我们的底层 API 允许高级用户自定义和扩展任何模块——数据连接器、索引、检索器、查询引擎和重排模块——以满足特定需求。

快速开始#

LlamaIndex 支持 Python(本文档)和 TypeScript。如果您不确定从何开始,建议阅读如何阅读本文档,它将根据您的经验水平指引正确方向。

30 秒快速入门#

设置名为 OPENAI_API_KEY 的环境变量,并填入 OpenAI API 密钥。安装 Python 库:

pip install llama-index

将文档放入名为 data 的文件夹,然后通过我们经典的 5 行入门代码进行问答:

from llama_index.core import VectorStoreIndex, SimpleDirectoryReader

documents = SimpleDirectoryReader("data").load_data()
index = VectorStoreIndex.from_documents(documents)
query_engine = index.as_query_engine()
response = query_engine.query("在此输入关于数据的提问")
print(response)

若遇到任何问题,请放心!查看我们更完整的入门教程:使用 OpenAI 等远程 API在本地运行任意模型

LlamaCloud#

企业开发者请关注 LlamaCloud。这是面向文档解析、提取、索引和检索的端到端托管服务,可帮助您为 AI 智能体获取生产级数据。立即注册 可享每月 10,000 免费积分,选择我们的 付费方案,或 联系我们 洽谈企业解决方案(支持 SaaS 和自托管模式)。

更多详情请参阅 LlamaCloud 文档

  • 文档解析 (LlamaParse):行业顶尖的文档解析方案,基于视觉语言模型(VLM),可完美处理复杂文档(嵌套表格、嵌入式图表/图片等)。了解更多 或查看 文档
  • 文档提取 (LlamaExtract):根据人工定义或推断的架构,从任意文档提取结构化数据。了解更多 或查看 文档
  • 索引/检索:建立端到端管道实现文档集合的检索索引。连接数据源(如 Sharepoint、Google Drive、S3)和向量数据库接收端,我们将自动处理文档处理与同步。了解更多 或查看 文档

社区#

需要帮助或有功能建议?加入 LlamaIndex 社区:

获取库文件#

参与贡献#

我们始终欢迎开源贡献!查看 贡献指南 了解如何扩展核心库,或添加与 LLM、向量数据库、智能体工具等第三方集成的完整细节。

LlamaIndex 生态体系#

LlamaIndex 宇宙还有更多精彩项目:

  • llama_deploy | 将智能体工作流部署为生产级微服务
  • LlamaHub | 持续增长的自定义数据连接器集合
  • SEC Insights | 基于 LlamaIndex 的金融研究应用
  • create-llama | 快速搭建 LlamaIndex 项目的 CLI 工具