计算机系统应用教程网站

网站首页 > 技术文章 正文

深度|基于大模型的RAG应用中的四个常见问题及方案探讨【中】

btikc 2024-10-16 08:18:09 技术文章 6 ℃ 0 评论

专注LLM深度应用,关注我不迷路

在上篇中,我们探讨了构建RAG应用中常面临的两个问题:如何提高语义检索的精度以及实现多轮对话中上下文理解的检索。本文接着探讨另一个常见的也是比较复杂的问题:

  • 如何对多模态文档,特别是其中的图片内容进行嵌入、检索与引用?

鉴于在之前的文章中初步探讨过多模态RAG方案,本文会侧重在方案实现与测试。

我们将基于Google最新的Gemini多模态模型作简单实现与测试。

01 需要处理的图片

在构建基于大模型的RAG应用时,通常需要从大量的文档中导入私有知识,需要对其中的内容进行分割、嵌入与索引,从而能够在响应用户输入时检索到需要引用的关联知识。

棘手的是,我们在处理这些文档时,往往面临的是一个混合了多种内容形式的文档,其中对于文本类型的内容处理相对简单,不管是纯文本,还是Markdown或者HTML;而相对复杂的是图片内容,如果没有完善的处理方案,那么就会丢失图片中的有价值信息。

需要强调的是,并不是所有的文档中涉及的图片都需要处理。通常来说,在RAG应用中需要做深度处理的图片指的是:包含了可能会被检索与参考到的知识信息的图片。比如:

  • 一个包含了产品详细操作说明的示意图
  • 一个反映了数据分析结果的可视化图表
  • 一个与竞争对手产品对比的表格图片等

一个包含有用信息的图片

文档中一些仅用于参考的图片或者无关的装饰图则无需进行RAG相关处理(注意这一类图片只是不需要进行类似嵌入与语义检索的操作,但仍然有可能需要在大模型响应时输出,如包含在输出的Markdonw内容中)。比如:

  • 一个已经有了文字说明的操作手册中的界面截图
  • 一些不包含有用知识的装饰型图片

一个无需处理的参考图片

02【图片RAG处理方案】

多模态的混合文档处理的总体方案,我们在之前文章中结合了Langchain开发框架做过介绍(点击阅读:GPT4-V之前:企业私有知识库中半结构化与多模态数据的RAG方案思考)。我们在此做简单总结:


图片来自LangChain Cookbook

忽略掉其中对文本内容(Text)的处理,这里展示了三种具有代表性且复杂性有区别的图片(Image)处理方法,我们对这里的三种方法做简单剖析以帮助我们更好的选择与实现:

方法1

  • 嵌入:直接嵌入图片,需要借助特殊的图片嵌入模型
  • 检索:直接根据用户问题语义检索出原图片即可
  • 引用:借助多模态大模型(GPT-4v/Gemini等),输入检索出的图片

方法1的特点是直接对图片嵌入。其特殊性在于需要借助多模态的embedding模型(如OpenClip)以及支持多模态的向量库(如Chroma),由于不需要生成图片的摘要信息,因此简化了嵌入的过程;但同时也引入了多模态嵌入与检索过程的复杂性

方法2

  • 嵌入:嵌入图片摘要信息(Summary),需借助多模态模型先生成摘要
  • 检索:通过用户问题检索出图片摘要信息文本
  • 引用:将检索的摘要信息作为上下文输入大模型获得响应

方法2是一种最简单也是效果相对较差的方法。简单的说就是在嵌入时把图片转成图片的摘要文本,后续的检索与引用都基于该文本处理。由于摘要可能隐藏了图片的大量真实细节信息,可能会导致回答效果较差。一种简单优化的方法是在生成摘要文本的时候,要求尽量细节化(借助多模态大模型)。

方法3

  • 嵌入:嵌入图片摘要信息(Summary),需借助多模态模型先生成摘要
  • 检索:通过用户问题关联检索出图片摘要信息与原始图片
  • 引用:借助多模态大模型(GPT-4v/Gemini等),输入检索出的原图

推荐的一种方法。其嵌入的对象是生成的图片摘要文本信息,因此只需要普通的文本embedding模型即可;但是在检索时会通过元数据关联获取到原始图片,进而引用原始图片,并借助多模态大模型响应用户输入。

03 基于Gemini模型的实现

Google最新推出的Gemini模型支持多模态,且当前的API还处于免费调用阶段,非常适合研究与测试。所以这里我们借助于最新的Google的Gemini Pro模型来简单实现与测试方法3中的过程。为了更好的关注重点,这里忽略了从原始文档比如PDF提取图片的过程(可参考之前的文章),我们假设提取的图片已经存放在本地目录中,其中包含三张测试图片:

基本的处理过程如下:

  1. 生成图片摘要信息
  2. 对图片摘要进行嵌入与关联存储
  3. 输入用户问题检索,并输入大模型获得响应

1. 生成图片摘要:首先将原始图片转为base64格式,并通过多模态模型生成摘要信息即可。这个处理过程比较简单,只需要利用提示词即可完成。下面是一个生成某个图片摘要的参考代码(仅列出关键过程)

"""
对单一图片生成摘要文本信息,借助google gemini多模态模型
"""

def image_summarize(img_path):

   #模型
   model = ChatVertexAI(model_name="gemini-pro-vision",
   max_output_tokens=1024,project="my-ai-assistant")

   #提示
   prompt = """你是一位负责为检索任务总结图像的助手。这些总结将被嵌入并用于检索原始图像。给出一个简洁的、针对检索优化的图像总结。"""

   #图片转为encode格式
   img_base64=encode_image(img_path)

   msg = model(
        [
            HumanMessage(
                content=[
                    {"type": "text", "text": prompt},
                    {
                        "type": "image_url",
                        "image_url":{"url":f"data:image/jpeg;base64,{img_base64}"},
                    },
                ]
            )
        ]
   )

我们来看看生成的摘要效果:

2. 嵌入与向量存储:在生成图片摘要后,需要对生成的图片摘要信息作嵌入,借助于嵌入模型,可以轻松的完成这个任务。但是这里有一个问题:

由于后续我们需要在检索(retrieve)的时候关联获取到原始图片,因此在嵌入并存储到向量库时,要建立一个图片摘要与原始图片之间的映射关系,这可以简单的通过一个doc_id来实现关联。

我们推荐使用Langchain中的多向量检索器(MultiVectorRetriever),可以很方便建立这种映射关系,并且在检索时自动关联取出原始图片。

多向量检索也是我们在上篇中介绍的RAG应用中提高文本知识语义检索精度的一种重要方案。

下面展示对图片摘要进行嵌入与存储,并关联原始图片的处理过程:

"""
对图片摘要images_summaries作嵌入,并关联原始图片images
传入图片摘要列表与图片列表
"""
def create_images_retriever(image_summaries, images):

    #向量存储:用来存放图片摘要的向量(chroma)
    vectorstore = Chroma(collection_name="google_test",embedding_function=VertexAIEmbeddings(model_name="textembedding-gecko@latest",project="my-ai-assistant"))

    #普通存储:用来存放原始图片(base64)
    store = InMemoryStore()

    #两者之间通过doc_id关联
    id_key = "doc_id"

    #创建一个多向量检索器,关联到以上存储
    retriever = MultiVectorRetriever(
        vectorstore=vectorstore,
        docstore=store,
        id_key=id_key,
    )

    #对每个图片创建doc_id
    doc_ids = [str(uuid.uuid4()) for _ in images]

    #将图片摘要嵌入到vectorstore,注意元数据为doc_id
    summary_docs = [Document(page_content=s, metadata={id_key: doc_ids[i]}) for i, s in enumerate(image_summaries)]
    retriever.vectorstore.add_documents(summary_docs)

    #将原始图片存放到普通内存存储,注意将doc_id与图片关联
    retriever.docstore.mset(list(zip(doc_ids,images)))

    #后续将用此retriever进行检索
    return retriever

3. 语义检索并引用:在完成上述“准备工作”后,接下来就可以接受用户输入。根据用户的输入进行关联图片的检索,然后把图片作为参考的上下文,与用户输入问题一起交给多模态大模型,等待响应即可

使用上面返回的多向量retriever检索器,则过程会变得非常简单,我们建立一个简单的LangChain中的链,来自动的完成这个过程:语义检索->图片提取->Prompt组装->大模型输出这个过程。处理过程如下(使用gemini-pro-vision多模态大模型):

# 创建用来回答问题的多模态大模型:gemini-pro-vision
model = ChatVertexAI(temperature=0, model_name="gemini-pro-vision", max_output_tokens=1024,project="my-ai-assistant")

#创建一个langchain的处理链
#此处传入的参数:
#retriever:上文创建的检索器
#split_image_text_type: 这是一个把检索出来的文档区分成普通文本与图片的方法
#img_prompt_func: 这是一个把上面的context,question等组装成prompt的方法

chain = (
        {
           "context":retriever | RunnableLambda(split_image_text_types),
           "question": RunnablePassthrough(),
        }
        | RunnableLambda(img_prompt_func)
        | model
        | StrOutputParser()
)

#获得输入
query = input("请输入你的问题:")

#调用获得结果
result=chain.invoke(query)

可以看到借助Langchain,可以简洁优雅的完成整个过程(当然,完全可以自主实现)。这里面涉及到两个辅助方法

一个是split_image_text_types:之所以有这样的过程,是由于在实际处理时,如果把图片摘要与普通文本知识一起做嵌入时,那么检索出来的参考知识就会混合图片(base64)与文本内容,由于两种类型的内容在交给大模型时处理方式不同,因此需要在此区分,并用于后续处理,可借助base64工具库完成。

另外一个是img_prompt_func:这是将检索出的关联内容(文本内容或者图片内容)、用户问题一起组装成Prompt的方法;一般只要根据你所使用的多模态模型的API规范进行封装即可。比如:

#本方法用来组装prompt消息
#注意输入为上文chain中的第一个参数
#包含了用户问题question与context,context包含了语义检索出的、拆分后的普通文本内容与图片内容

messages = []

#引用的普通文本内容
context_texts = "\n".join(data_dict["context"]["texts"])

#将用户问题与需要引用的普通文本内容作为上下文包装成文本消息
text_message = {"type": "text","text": ("你是一名聪明的AI问答助手,你会根据提供给你的文本、表格、图片(通常为图表或者带有文字的图片),来智能的回答用户问题。如果无法根据提供的信息回答问题,请回答'我暂时无法理解你的问题',不要编造答案。\n"
            f"用户问题是: {data_dict['question']}\n\n"
            "文本信息如下:\n"
            f"{context_texts}"
        ),
}
messages.append(text_message)

#将需要引用的图片内容包装成图片消息
for image in data_dict["context"]["images"]:
   image_message = {"type": "image_url","image_url":{"url": f"data:image/jpeg;base64,{image}"}}
   messages.append(image_message)

#OK,现在messages发送给大模型即可!

现在,我们来看下测试结果:

Gemini模型很好的回答了我们的问题。对比上文的第一个测试图片,也证实了这个图片被检索了出来,并且传给了大模型做输出参考。

04 结束语

以上简单介绍了针对包含知识内容的图片,如何在RAG应用中进行嵌入、检索与生成。实际应用中,还可以根据需要在以下两个方面做优化:

  • 图片的摘要信息生成可以根据用户问题做优化以提交检索精度。比如生成更详细的信息以覆盖更多语义、或者利用大模型生成一些假设性的问题等。
  • 注意多模态大模型的选择。实际测试中我们发现目前多模态大模型(比如Gpt-4v/Gemini)在图片文字内容识别、特别是中文识别时仍然存在一定的不完善,从而导致回答错误。

在下篇中我们将探讨如何基于开源框架评估RAG应用的效果。


本文暂时没有评论,来添加一个吧(●'◡'●)

欢迎 发表评论:

最近发表
标签列表