Fix linting of README

This commit is contained in:
yangdx
2025-03-25 16:23:15 +08:00
parent 9b2c31f30e
commit ac703dc448
2 changed files with 64 additions and 90 deletions

View File

@@ -169,6 +169,10 @@ class QueryParam:
> top_k的默认值可以通过环境变量TOP_K更改。
### LLM and Embedding注入
LightRAG 需要利用LLM和Embeding模型来完成文档索引和知识库查询工作。在初始化LightRAG的时候需要把阶段需要把LLM和Embedding的操作函数注入到对象中
<details>
<summary> <b>使用类OpenAI的API</b> </summary>
@@ -245,9 +249,6 @@ rag = LightRAG(
<details>
<summary> <b>使用Ollama模型</b> </summary>
### 概述
如果您想使用Ollama模型您需要拉取计划使用的模型和嵌入模型例如`nomic-embed-text`
然后您只需要按如下方式设置LightRAG
@@ -270,11 +271,11 @@ rag = LightRAG(
)
```
### 增加上下文大小
* **增加上下文大小**
为了使LightRAG正常工作上下文应至少为32k令牌。默认情况下Ollama模型的上下文大小为8k。您可以通过以下两种方式之一实现这一点
#### 在Modelfile中增加`num_ctx`参数
* **在Modelfile中增加`num_ctx`参数**
1. 拉取模型:
@@ -300,7 +301,7 @@ PARAMETER num_ctx 32768
ollama create -f Modelfile qwen2m
```
#### 通过Ollama API设置`num_ctx`
* **通过Ollama API设置`num_ctx`**
您可以使用`llm_model_kwargs`参数配置ollama
@@ -322,7 +323,7 @@ rag = LightRAG(
)
```
#### 低RAM GPU
* **低RAM GPU**
为了在低RAM GPU上运行此实验您应该选择小型模型并调整上下文窗口增加上下文会增加内存消耗。例如在6Gb RAM的改装挖矿GPU上运行这个ollama示例需要将上下文大小设置为26k同时使用`gemma2:2b`。它能够在`book.txt`中找到197个实体和19个关系。
@@ -330,13 +331,12 @@ rag = LightRAG(
<details>
<summary> <b>LlamaIndex</b> </summary>
LightRAG支持与LlamaIndex集成
LightRAG支持与LlamaIndex集成 (`llm/llama_index_impl.py`):
1. **LlamaIndex** (`llm/llama_index_impl.py`):
- 通过LlamaIndex与OpenAI和其他提供商集成
- 详细设置和示例请参见[LlamaIndex文档](lightrag/llm/Readme.md)
- 通过LlamaIndex与OpenAI和其他提供商集成
- 详细设置和示例请参见[LlamaIndex文档](lightrag/llm/Readme.md)
### 使用示例
**使用示例:**
```python
# 使用LlamaIndex直接访问OpenAI
@@ -398,15 +398,15 @@ if __name__ == "__main__":
main()
```
#### 详细文档和示例,请参见:
**详细文档和示例,请参见:**
- [LlamaIndex文档](lightrag/llm/Readme.md)
- [直接OpenAI示例](examples/lightrag_llamaindex_direct_demo.py)
- [LiteLLM代理示例](examples/lightrag_llamaindex_litellm_demo.py)
</details>
<details>
<summary> <b>对话历史支持</b> </summary>
### 对话历史
LightRAG现在通过对话历史功能支持多轮对话。以下是使用方法
@@ -432,10 +432,7 @@ response = rag.query(
)
```
</details>
<details>
<summary> <b>自定义提示支持</b> </summary>
### 自定义提示词
LightRAG现在支持自定义提示以便对系统行为进行精细控制。以下是使用方法
@@ -473,14 +470,11 @@ response_custom = rag.query(
print(response_custom)
```
</details>
<details>
<summary> <b>独立关键词提取</b> </summary>
### 关键词提取
我们引入了新函数`query_with_separate_keyword_extraction`来增强关键词提取功能。该函数将关键词提取过程与用户提示分开,专注于查询以提高提取关键词的相关性。
##### 工作原理
* 工作原理
该函数将输入分为两部分:
@@ -489,7 +483,7 @@ print(response_custom)
然后仅对`用户查询`执行关键词提取。这种分离确保提取过程是集中和相关的,不受`提示`中任何额外语言的影响。它还允许`提示`纯粹用于响应格式化,保持用户原始问题的意图和清晰度。
##### 使用示例
* 使用示例
这个`示例`展示了如何为教育内容定制函数,专注于为高年级学生提供详细解释。
@@ -501,10 +495,7 @@ rag.query_with_separate_keyword_extraction(
)
```
</details>
<details>
<summary> <b>插入自定义KG</b> </summary>
### 插入自定义知识
```python
custom_kg = {
@@ -565,8 +556,6 @@ custom_kg = {
rag.insert_custom_kg(custom_kg)
```
</details>
## 插入
#### 基本插入
@@ -877,13 +866,13 @@ updated_relation = rag.edit_relation("Google", "Google Mail", {
## 数据导出功能
## 概述
### 概述
LightRAG允许您以各种格式导出知识图谱数据用于分析、共享和备份目的。系统支持导出实体、关系和关系数据。
## 导出功能
### 导出功能
### 基本用法
#### 基本用法
```python
# 基本CSV导出默认格式
@@ -893,7 +882,7 @@ rag.export_data("knowledge_graph.csv")
rag.export_data("output.xlsx", file_format="excel")
```
### 支持的不同文件格式
#### 支持的不同文件格式
```python
# 以CSV格式导出数据
@@ -909,7 +898,7 @@ rag.export_data("graph_data.md", file_format="md")
rag.export_data("graph_data.txt", file_format="txt")
```
## 附加选项
#### 附加选项
在导出中包含向量嵌入(可选):
@@ -917,7 +906,7 @@ rag.export_data("graph_data.txt", file_format="txt")
rag.export_data("complete_data.csv", include_vector_data=True)
```
## 导出数据包括
### 导出数据包括
所有导出包括:
@@ -1079,13 +1068,11 @@ API包括全面的错误处理
</details>
## API
## LightRAG API
LightRag可以安装API支持以提供Fast api接口来执行数据上传和索引/Rag操作/重新扫描输入文件夹等。
LightRAG服务器旨在提供Web UI和API支持。**有关LightRAG服务器的更多信息请参阅[LightRAG服务器](./lightrag/api/README.md)。**
[LightRag API](lightrag/api/README.md)
## 图形可视化
## 知识图谱可视化
LightRAG服务器提供全面的知识图谱可视化功能。它支持各种重力布局、节点查询、子图过滤等。**有关LightRAG服务器的更多信息请参阅[LightRAG服务器](./lightrag/api/README.md)。**