Para criar um programa avançado de geração de retorno (RAG) com Deepseek R1: Guia de etapas para a etapa
Inteligência artificial

Para criar um programa avançado de geração de retorno (RAG) com Deepseek R1: Guia de etapas para a etapa


Com o lançamento de Deepseek R1Há confusão na comunidade de IA. O modelo de código aberto fornece o melhor desempenho de uma categoria em todas as métricas múltiplas, mesmo equivalente a patentes de alta qualidade em muitos casos. Tanto sucesso convida a atenção e curiosidade sobre isso. Neste artigo, consideraremos o uso do Programa de Geração de Agundação de Recuperação (RAG) usando o Deepseek R1. Colocaremos de tudo, desde a configuração da sua localização, dependendo das perguntas com mais explicações e níveis de código.

Como já é generalizado, o RAG inclui o poder dos métodos baseados na reciclagem e nas gerações. Ele recebe informações relevantes com base nas informações e as usa para produzir e contextos precisos nas questões dos usuários.

Alguns requisitos para códigos de inicialização no estudo são os seguintes:

  • O Python está incluído (melhor versão 3.7 ou mais).
  • O ollama está incluído: essa estrutura permite modelos ativos como o Deepseek R1 na área.

Agora, vejamos a implementação do passo a passo:

Etapa 1: Entre Ollama

Primeiro, digite o Ollama seguindo as instruções em seu site. Quando instalado, verifique a implementação da implementação:

Etapa 2: Run Underseek R1 Model

Para iniciar um modelo R1 Deepseek, abra seu terminal e faça:

# bash
ollama run deepseek-r1:1.5b

Este comando inicia uma versão do parâmetro de 1,5 bilhão do Deepseek R1, pronto para vários aplicativos.

Etapa 3: Prepare a base do seu conhecimento

O sistema de socorro requer uma base para informações, onde pode emitir informações. Este pode ser um conjunto de documentos, artigos e quaisquer dados de texto associados ao seu domínio.

3.1 Carregue seus documentos

Você pode fazer upload de documentos de várias fontes, como arquivos de texto, o site ou a raspagem da web. Aqui está um exemplo de fazer upload de arquivos de texto:

# python
import os

def load_documents(directory):
    documents = []
    for filename in os.listdir(directory):
        if filename.endswith('.txt'):
            with open(os.path.join(directory, filename), 'r') as file:
                documents.append(file.read())
    return documents

documents = load_documents('path/to/your/documents')

Etapa 4: Crie uma loja de vetores para baixar

Para permitir a precisão dos documentos relevantes, você pode usar o Vector Store como o FAIS (Smilaridade da similaridade do Facebook AI). Isso inclui a produção de seus documentos.

4.1 Instalando as bibliotecas necessárias

Pode ser necessário instalar bibliotecas e fass adicionais:

# bash
pip install faiss-cpu huggingface-hub

4.2 Produzir embetimento e fazer Faiss

Aqui está como fazer um banquete e definir o Fass Vector Store:

# python
from huggingface_hub import HuggingFaceEmbeddings
import faiss
import numpy as np

# Initialize the embeddings model
embeddings_model = HuggingFaceEmbeddings()

# Generate embeddings for all documents
document_embeddings = [embeddings_model.embed(doc) for doc in documents]
document_embeddings = np.array(document_embeddings).astype('float32')

# Create FAISS index
index = faiss.IndexFlatL2(document_embeddings.shape[1])  # L2 distance metric
index.add(document_embeddings)  # Add document embeddings to the index

Etapa 5: Configuração de um fundo

Você precisa criar um Retreeka com base nas perguntas do usuário para baixar os documentos mais relacionados.

# python
class SimpleRetriever:
    def __init__(self, index, embeddings_model):
        self.index = index
        self.embeddings_model = embeddings_model
    
    def retrieve(self, query, k=3):
        query_embedding = self.embeddings_model.embed(query)
        distances, indices = self.index.search(np.array([query_embedding]).astype('float32'), k)
        return [documents[i] for i in indices[0]]

retriever = SimpleRetriever(index, embeddings_model)

Etapa 6: Prepare Deepseek R1 de Rag

Em seguida, um modelo rápido será definido para entregar o Deepseek R1 para responder com base no conteúdo do recebimento.

# python
from ollama import Ollama
from string import Template

# Instantiate the model
llm = Ollama(model="deepseek-r1:1.5b")

# Craft the prompt template using string. Template for better readability
prompt_template = Template("""
Use ONLY the context below.
If unsure, say "I don't know".
Keep answers under 4 sentences.

Context: $context
Question: $question
Answer:
""")

Etapa 7: use o desempenho de lidar com uma pergunta

Agora, você pode criar um trabalho que inclua retornar e fazer para responder às perguntas dos usuários:

# python
def answer_query(question):
    # Retrieve relevant context from the knowledge base
    context = retriever.retrieve(question)
    
    # Combine retrieved contexts into a single string (if multiple)
    combined_context = "n".join(context)
    
    # Generate an answer using DeepSeek R1 with the combined context
    response = llm.generate(prompt_template.substitute(context=combined_context, question=question))
    
    return response.strip()

Etapa 8: Usando seu programa RAG

Agora você pode verificar seu sistema de pano, impulsionando um inker_query “qualquer pergunta sobre suas informações básicas.

# python
if __name__ == "__main__":
    user_question = "What are the key features of DeepSeek R1?"
    answer = answer_query(user_question)
    print("Answer:", answer)

Alcance o Cados do Colab com código completo

Em conclusão, de acordo com essas etapas, você pode implementar ativamente o programa de geração de recuperação de recuperação (RAG) usando o Deepseek R1. Essa configuração permite que você retorne as informações aos seus documentos de maneira eficaz e produza respostas precisas com base nessas informações. Além disso, verifique a energia no Deepseek R1 de sua aplicação específica disso.

Recursos


Asif Razzaq é CEO da Markteach Media Inc. Como empresário e engenheiro de visão, a ASIF está comprometida em usar o poder da inteligência artificial para o benefício da comunidade. Sua última tentativa é o lançamento da plataforma de mídia de inteligência artificial, Markteachpost, brilho em seu amplo uso da máquina e problemas de aprendizado profundo. O estádio se orgulha de mais de 2 milhões de visualizações, indicando seu trovão entre o público.

'Conheça' Altura ': O processo administrativo de um projeto privado (patrocinado)



Source link

Você também pode gostar...

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *