Respuestas inteligentes con Rasa y Faiss: implementa RAG en tu empresa en México
En este tutorial práctico aprenderás a configurar un asistente conversacional con Rasa para responder preguntas frecuentes de tu base de conocimiento utilizando una arquitectura RAG. Si prefieres ir directo al código, puedes explorar los repositorios de Rasa con Faiss y OpenAI y Rasa con Faiss y Gemini.


Rasa es una plataforma muy flexible que se integra fácilmente con bases de datos vectoriales como Faiss, Milvus, Qdrant, Pinecone, Chroma, Weaviate o Atlas de MongoDB. En esta guía nos enfocaremos en Faiss (Facebook AI Similarity Search), una librería que permite búsquedas semánticas rápidas y precisas, ideal para automatizar consultas frecuentes en organizaciones mexicanas.
¿Por qué RAG es clave para las empresas en México?
La generación aumentada por recuperación (RAG) es una de las formas más accesibles y potentes para crear asistentes conversacionales. Acelera el desarrollo, amplía la cobertura de preguntas que puede responder el sistema y reduce las respuestas inexactas al apoyarse en información real de la empresa.
En el contexto mexicano, donde la automatización inteligente se vuelve cada vez más importante para mejorar la atención al cliente y optimizar procesos internos, RAG representa una ventaja competitiva inmediata. Muchas empresas en México están adoptando esta tecnología como primer paso en su estrategia de transformación digital.
Rasa permite empezar con RAG de manera sencilla usando archivos de texto y Faiss en memoria. Para escenarios más avanzados, puedes escalar la solución con una base vectorial dedicada y pipelines de ingestión personalizados.
Y si ya cuentas con un set organizado de preguntas y respuestas, puedes explorar también enfoques de búsqueda extractiva.
Configura tu entorno de desarrollo
Utilizaremos Codespaces, partiendo de una plantilla preconfigurada de Rasa.
Pasos iniciales
- Crea un nuevo Codespace en la rama main (asegúrate de estar logueado en GitHub).
- Abre el archivo .env y agrega tu licencia de Rasa y tu clave de OpenAI:
RASA_PRO_LICENSE=TU_VALOR
OPENAI_API_KEY=TU_VALOR
Dónde obtener las claves:
- Entrena tu asistente:
rasa train
rasa inspect
Implementa RAG con Rasa, Faiss y OpenAI
La política EnterpriseSearchPolicy de Rasa utiliza embeddings de OpenAI y el modelo LLM gpt-3.5-turbo. Actívala así:
Paso 1: Configura en config.yml
policies:
- name: FlowPolicy
- name: EnterpriseSearchPolicy
Paso 2: Ajusta el flujo en data/patterns.yml
pattern_search:
description: Flujo para preguntas frecuentes
name: pattern search
steps:
- action: action_trigger_search
Paso 3: Agrega documentos
Crea la carpeta docs en tu proyecto y añade archivos .txt. Rasa los indexará automáticamente. Luego reentrena:
rasa train
rasa inspect
Personaliza los parámetros
Valores por defecto:
- Carpeta: docs
- LLM: openai/gpt-3.5-turbo
- Embeddings: openai/text-embedding-ada-002
- Prompt por defecto
Todos se pueden ajustar según tus necesidades.
Usa RAG con Gemini 2.0 Flash
Configura Gemini en .env
RASA_PRO_LICENSE=TU_VALOR
GEMINI_API_KEY=TU_VALOR
Define el modelo en config.yml
- name: EnterpriseSearchPolicy
vector_store:
type: faiss
source: docs
llm:
model_group: gemini_flash_model
Añádelo a endpoints.yml
- id: gemini_flash_model
models:
- model: gemini-2.0-flash-001
provider: gemini
Cambia el modelo de embeddings a Gemini
- En config.yml:
embedding:
model_group: gemini_embeddings
- En endpoints.yml:
- id: gemini_embeddings
models:
- model: text-embedding-004
provider: gemini
Crea un prompt personalizado
- En config.yml:
prompt: prompts/enterprise-search-policy-template.jinja2
- Crea la carpeta prompts y el archivo .jinja2 con el contenido:
DOCUMENT:
{{docs}}
QUESTION:
{{current_conversation}}
INSTRUCTIONS:
Answer to the user's QUESTION using the DOCUMENT text.
Keep your answer short and grounded in the facts of the DOCUMENT.
If the DOCUMENT doesn't contain the facts to answer the QUESTION return "Sorry, I don't know the answer to this question."
Opciones adicionales de configuración
Mostrar fuente del documento:
citation_enabled: true
Número de turnos en la consulta:
max_messages_in_query: 3
Número de turnos en el prompt:
max_history: 3
Reentrena y prueba:
rasa train
rasa inspect
Consulta los repos oficiales para ver los ejemplos completos:
Rasa con Faiss y OpenAI
Rasa con Faiss y Gemini
Próximos pasos
- Agrega más documentos a tu base.
- Prueba diferentes LLMs y embeddings.
- Ajusta tu prompt y analiza los cambios en las respuestas.
- Añade nuevos flujos conversacionales.
- Mira nuestro webinar: RAG Alone is Not the Answer.
- Muy pronto publicaremos una guía avanzada sobre ingestión para RAG.
Lleva asistentes inteligentes a tu empresa en México
En 2Brains trabajamos de la mano con RASA para implementar soluciones conversacionales basadas en RAG, ajustadas a las necesidades del mercado mexicano. Desde FAQs automatizadas hasta flujos conversacionales complejos, te ayudamos a integrar IA de forma segura, escalable y estratégica.
¿Te gustaría conocer cómo aplicar estas ideas en tu organización? Completa nuestro formulario de contacto y uno de nuestros especialistas en México se pondrá en contacto contigo. Podemos ayudarte a transformar la experiencia digital de tus clientes y equipos.