Com o lançamento de Deepseek R1Há confusão na comunidade de IA. O modelo de código aberto fornece o melhor desempenho de uma categoria em todas as métricas múltiplas, mesmo equivalente a patentes de alta qualidade em muitos casos. Tanto sucesso convida a atenção e curiosidade sobre isso. Neste artigo, consideraremos o uso do Programa de Geração de Agundação de Recuperação (RAG) usando o Deepseek R1. Colocaremos de tudo, desde a configuração da sua localização, dependendo das perguntas com mais explicações e níveis de código.
Como já é generalizado, o RAG inclui o poder dos métodos baseados na reciclagem e nas gerações. Ele recebe informações relevantes com base nas informações e as usa para produzir e contextos precisos nas questões dos usuários.
Alguns requisitos para códigos de inicialização no estudo são os seguintes:
- O Python está incluído (melhor versão 3.7 ou mais).
- O ollama está incluído: essa estrutura permite modelos ativos como o Deepseek R1 na área.
Agora, vejamos a implementação do passo a passo:
Etapa 1: Entre Ollama
Primeiro, digite o Ollama seguindo as instruções em seu site. Quando instalado, verifique a implementação da implementação:
Etapa 2: Run Underseek R1 Model
Para iniciar um modelo R1 Deepseek, abra seu terminal e faça:
# bash
ollama run deepseek-r1:1.5b
Este comando inicia uma versão do parâmetro de 1,5 bilhão do Deepseek R1, pronto para vários aplicativos.
Etapa 3: Prepare a base do seu conhecimento
O sistema de socorro requer uma base para informações, onde pode emitir informações. Este pode ser um conjunto de documentos, artigos e quaisquer dados de texto associados ao seu domínio.
3.1 Carregue seus documentos
Você pode fazer upload de documentos de várias fontes, como arquivos de texto, o site ou a raspagem da web. Aqui está um exemplo de fazer upload de arquivos de texto:
# python
import os
def load_documents(directory):
documents = []
for filename in os.listdir(directory):
if filename.endswith('.txt'):
with open(os.path.join(directory, filename), 'r') as file:
documents.append(file.read())
return documents
documents = load_documents('path/to/your/documents')
Etapa 4: Crie uma loja de vetores para baixar
Para permitir a precisão dos documentos relevantes, você pode usar o Vector Store como o FAIS (Smilaridade da similaridade do Facebook AI). Isso inclui a produção de seus documentos.
4.1 Instalando as bibliotecas necessárias
Pode ser necessário instalar bibliotecas e fass adicionais:
# bash
pip install faiss-cpu huggingface-hub
4.2 Produzir embetimento e fazer Faiss
Aqui está como fazer um banquete e definir o Fass Vector Store:
# python
from huggingface_hub import HuggingFaceEmbeddings
import faiss
import numpy as np
# Initialize the embeddings model
embeddings_model = HuggingFaceEmbeddings()
# Generate embeddings for all documents
document_embeddings = [embeddings_model.embed(doc) for doc in documents]
document_embeddings = np.array(document_embeddings).astype('float32')
# Create FAISS index
index = faiss.IndexFlatL2(document_embeddings.shape[1]) # L2 distance metric
index.add(document_embeddings) # Add document embeddings to the index
Etapa 5: Configuração de um fundo
Você precisa criar um Retreeka com base nas perguntas do usuário para baixar os documentos mais relacionados.
# python
class SimpleRetriever:
def __init__(self, index, embeddings_model):
self.index = index
self.embeddings_model = embeddings_model
def retrieve(self, query, k=3):
query_embedding = self.embeddings_model.embed(query)
distances, indices = self.index.search(np.array([query_embedding]).astype('float32'), k)
return [documents[i] for i in indices[0]]
retriever = SimpleRetriever(index, embeddings_model)
Etapa 6: Prepare Deepseek R1 de Rag
Em seguida, um modelo rápido será definido para entregar o Deepseek R1 para responder com base no conteúdo do recebimento.
# python
from ollama import Ollama
from string import Template
# Instantiate the model
llm = Ollama(model="deepseek-r1:1.5b")
# Craft the prompt template using string. Template for better readability
prompt_template = Template("""
Use ONLY the context below.
If unsure, say "I don't know".
Keep answers under 4 sentences.
Context: $context
Question: $question
Answer:
""")
Etapa 7: use o desempenho de lidar com uma pergunta
Agora, você pode criar um trabalho que inclua retornar e fazer para responder às perguntas dos usuários:
# python
def answer_query(question):
# Retrieve relevant context from the knowledge base
context = retriever.retrieve(question)
# Combine retrieved contexts into a single string (if multiple)
combined_context = "n".join(context)
# Generate an answer using DeepSeek R1 with the combined context
response = llm.generate(prompt_template.substitute(context=combined_context, question=question))
return response.strip()
Etapa 8: Usando seu programa RAG
Agora você pode verificar seu sistema de pano, impulsionando um inker_query “qualquer pergunta sobre suas informações básicas.
# python
if __name__ == "__main__":
user_question = "What are the key features of DeepSeek R1?"
answer = answer_query(user_question)
print("Answer:", answer)
Alcance o Cados do Colab com código completo
Em conclusão, de acordo com essas etapas, você pode implementar ativamente o programa de geração de recuperação de recuperação (RAG) usando o Deepseek R1. Essa configuração permite que você retorne as informações aos seus documentos de maneira eficaz e produza respostas precisas com base nessas informações. Além disso, verifique a energia no Deepseek R1 de sua aplicação específica disso.
Recursos
Asif Razzaq é CEO da Markteach Media Inc. Como empresário e engenheiro de visão, a ASIF está comprometida em usar o poder da inteligência artificial para o benefício da comunidade. Sua última tentativa é o lançamento da plataforma de mídia de inteligência artificial, Markteachpost, brilho em seu amplo uso da máquina e problemas de aprendizado profundo. O estádio se orgulha de mais de 2 milhões de visualizações, indicando seu trovão entre o público.
'Conheça' Altura ': O processo administrativo de um projeto privado (patrocinado)