欢迎来到 LlamaIndex 🦙 !#
LlamaIndex 是领先的框架,用于通过 大语言模型 和 工作流 构建基于您数据的 LLM 驱动智能体。
-
什么是上下文增强?什么是智能体和工作流?LlamaIndex 如何帮助构建它们?
-
您能用 LlamaIndex 构建哪些应用?适合哪些用户?
-
仅需 5 行代码即可开始使用 Python 或 TypeScript 开发!
-
LlamaIndex 托管服务,包含全球最佳文档解析器 LlamaParse。
-
通过 Discord、Twitter、LinkedIn 获取帮助并结识协作者,了解如何为项目做贡献。
-
访问 LlamaHub 查看我们的连接器库、阅读器和其他集成,以及 create-llama 等演示和入门应用。
简介#
什么是智能体?#
智能体 是 LLM 驱动的知识助手,通过工具执行研究、数据提取等任务。智能体功能范围从简单问答到具备感知、决策和执行能力以完成任务。
LlamaIndex 提供构建智能体的框架,包括将 RAG 流程作为众多工具之一来完成任务的能力。
什么是工作流?#
工作流 是多步骤流程,结合一个或多个智能体、数据连接器和其他工具来完成任务。它们是事件驱动软件,允许您组合 RAG 数据源和多个智能体,创建具备反思、纠错等高级 LLM 应用特征的复杂应用。您可以将这些智能工作流部署为生产级微服务。
什么是上下文增强?#
LLM 提供了人类与数据之间的自然语言接口。虽然 LLM 经过海量公开数据预训练,但并未针对您的特定数据进行训练。您的数据可能是私有的,或与待解决问题相关——它们隐藏在 API 背后、SQL 数据库中,或封存在 PDF 和幻灯片里。
上下文增强让 LLM 能够访问您的数据来解决问题。LlamaIndex 提供从原型到生产的全流程工具,支持您实现任何上下文增强用例。我们的工具可帮助您摄取、解析、索引和处理数据,快速实现结合数据访问与 LLM 提示的复杂查询工作流。
最典型的上下文增强案例是检索增强生成(RAG),它在推理时结合上下文与 LLM。
LlamaIndex 是上下文增强型 LLM 应用的框架#
LlamaIndex 不限制您使用 LLM 的方式。您可以将 LLM 用于自动补全、聊天机器人、智能体等场景。我们只是让使用变得更简单。我们提供的工具包括:
- 数据连接器 从原始来源和格式中摄取现有数据,支持 API、PDF、SQL 等多种形式
- 数据索引 将数据组织成便于 LLM 高效消费的中间表示形式
- 引擎 提供数据的自然语言访问接口,例如:
- 查询引擎是强大的问答接口(如 RAG 流程)
- 聊天引擎是支持多轮对话的数据交互接口
- 智能体 是由工具增强的 LLM 驱动知识工作者,支持从简单辅助功能到 API 集成等多种场景
- 可观测性/评估 集成帮助您严格实验、评估和监控应用,形成良性循环
- 工作流 允许将上述所有组件组合成事件驱动系统,比其他基于图的方法更灵活
使用场景#
LlamaIndex 和上下文增强的典型应用场景包括:
查看我们的使用场景文档获取更多案例和教程链接。
👨👩👧👦 适合哪些用户?#
LlamaIndex 为初学者、高级用户和中间用户都提供了工具。
我们的高级 API 让初学者只需 5 行代码即可实现数据摄取和查询。
对于复杂应用,我们的底层 API 允许高级用户自定义和扩展任何模块——数据连接器、索引、检索器、查询引擎和重排模块——以满足特定需求。
快速开始#
LlamaIndex 支持 Python(本文档)和 TypeScript。如果您不确定从何开始,建议阅读如何阅读本文档,它将根据您的经验水平指引正确方向。
30 秒快速入门#
设置名为 OPENAI_API_KEY
的环境变量,并填入 OpenAI API 密钥。安装 Python 库:
pip install llama-index
将文档放入名为 data
的文件夹,然后通过我们经典的 5 行入门代码进行问答:
from llama_index.core import VectorStoreIndex, SimpleDirectoryReader
documents = SimpleDirectoryReader("data").load_data()
index = VectorStoreIndex.from_documents(documents)
query_engine = index.as_query_engine()
response = query_engine.query("在此输入关于数据的提问")
print(response)
若遇到任何问题,请放心!查看我们更完整的入门教程:使用 OpenAI 等远程 API 或 在本地运行任意模型。
LlamaCloud#
企业开发者请关注 LlamaCloud。这是面向文档解析、提取、索引和检索的端到端托管服务,可帮助您为 AI 智能体获取生产级数据。立即注册 可享每月 10,000 免费积分,选择我们的 付费方案,或 联系我们 洽谈企业解决方案(支持 SaaS 和自托管模式)。
更多详情请参阅 LlamaCloud 文档。
- 文档解析 (LlamaParse):行业顶尖的文档解析方案,基于视觉语言模型(VLM),可完美处理复杂文档(嵌套表格、嵌入式图表/图片等)。了解更多 或查看 文档
- 文档提取 (LlamaExtract):根据人工定义或推断的架构,从任意文档提取结构化数据。了解更多 或查看 文档
- 索引/检索:建立端到端管道实现文档集合的检索索引。连接数据源(如 Sharepoint、Google Drive、S3)和向量数据库接收端,我们将自动处理文档处理与同步。了解更多 或查看 文档
社区#
需要帮助或有功能建议?加入 LlamaIndex 社区:
获取库文件#
- LlamaIndex Python
- LlamaIndex.TS (Typescript/Javascript 包):
参与贡献#
我们始终欢迎开源贡献!查看 贡献指南 了解如何扩展核心库,或添加与 LLM、向量数据库、智能体工具等第三方集成的完整细节。
LlamaIndex 生态体系#
LlamaIndex 宇宙还有更多精彩项目:
- llama_deploy | 将智能体工作流部署为生产级微服务
- LlamaHub | 持续增长的自定义数据连接器集合
- SEC Insights | 基于 LlamaIndex 的金融研究应用
- create-llama | 快速搭建 LlamaIndex 项目的 CLI 工具