• EN
  • Nosotros
  • Servicios
    • Estrategia y Transformación
    • UX y Experiencia Digital
    • Soluciones Tecnológicas
    • Data Strategy
  • Clientes
  • Carreras
  • Recursos
    • Blog México
    • Casos de éxito
    • Materiales de 2Brains
  • Contáctanos
  • Switch

    Apariencia

    Personaliza cómo se ve 2Brains en tu dispositivo.

  • ES
    • EN
Volver al blog
Publicado en julio 3, 2025

Respuestas inteligentes con Rasa y Faiss: implementa RAG en tu empresa en México

En este tutorial práctico aprenderás a configurar un asistente conversacional con Rasa para responder preguntas frecuentes de tu base de conocimiento utilizando una arquitectura RAG. Si prefieres ir directo al código, puedes explorar los repositorios de Rasa con Faiss y OpenAI y Rasa con Faiss y Gemini.

  • IA
  • UX/UI
"Asistente conversacional con RAG usando Rasa y Faiss"
rasa Autor: rasa
5 minutos de lectura

Rasa es una plataforma muy flexible que se integra fácilmente con bases de datos vectoriales como Faiss, Milvus, Qdrant, Pinecone, Chroma, Weaviate o Atlas de MongoDB. En esta guía nos enfocaremos en Faiss (Facebook AI Similarity Search), una librería que permite búsquedas semánticas rápidas y precisas, ideal para automatizar consultas frecuentes en organizaciones mexicanas.

¿Por qué RAG es clave para las empresas en México?

La generación aumentada por recuperación (RAG) es una de las formas más accesibles y potentes para crear asistentes conversacionales. Acelera el desarrollo, amplía la cobertura de preguntas que puede responder el sistema y reduce las respuestas inexactas al apoyarse en información real de la empresa.

En el contexto mexicano, donde la automatización inteligente se vuelve cada vez más importante para mejorar la atención al cliente y optimizar procesos internos, RAG representa una ventaja competitiva inmediata. Muchas empresas en México están adoptando esta tecnología como primer paso en su estrategia de transformación digital.

Rasa permite empezar con RAG de manera sencilla usando archivos de texto y Faiss en memoria. Para escenarios más avanzados, puedes escalar la solución con una base vectorial dedicada y pipelines de ingestión personalizados.

Y si ya cuentas con un set organizado de preguntas y respuestas, puedes explorar también enfoques de búsqueda extractiva.

Configura tu entorno de desarrollo

Utilizaremos Codespaces, partiendo de una plantilla preconfigurada de Rasa.

Pasos iniciales

  1. Crea un nuevo Codespace en la rama main (asegúrate de estar logueado en GitHub).
  2. Abre el archivo .env y agrega tu licencia de Rasa y tu clave de OpenAI:

RASA_PRO_LICENSE=TU_VALOR

OPENAI_API_KEY=TU_VALOR

Dónde obtener las claves:

  • Licencia Rasa Pro: enlace
  • API Key de OpenAI: enlace

  1. Entrena tu asistente:

rasa train

rasa inspect

Implementa RAG con Rasa, Faiss y OpenAI

La política EnterpriseSearchPolicy de Rasa utiliza embeddings de OpenAI y el modelo LLM gpt-3.5-turbo. Actívala así:

Paso 1: Configura en config.yml

policies:

 - name: FlowPolicy

 - name: EnterpriseSearchPolicy

Paso 2: Ajusta el flujo en data/patterns.yml

pattern_search:

  description: Flujo para preguntas frecuentes

  name: pattern search

  steps:

- action: action_trigger_search

Paso 3: Agrega documentos

Crea la carpeta docs en tu proyecto y añade archivos .txt. Rasa los indexará automáticamente. Luego reentrena:

rasa train

rasa inspect

Personaliza los parámetros

Valores por defecto:

  • Carpeta: docs
  • LLM: openai/gpt-3.5-turbo
  • Embeddings: openai/text-embedding-ada-002
  • Prompt por defecto

Todos se pueden ajustar según tus necesidades.

Usa RAG con Gemini 2.0 Flash

Configura Gemini en .env

RASA_PRO_LICENSE=TU_VALOR

GEMINI_API_KEY=TU_VALOR

Define el modelo en config.yml

- name: EnterpriseSearchPolicy

  vector_store:

    type: faiss

    source: docs

  llm:

    model_group: gemini_flash_model

Añádelo a endpoints.yml

- id: gemini_flash_model

  models:

    - model: gemini-2.0-flash-001

      provider: gemini

Cambia el modelo de embeddings a Gemini

  1. En config.yml:

embedding:

  model_group: gemini_embeddings

  1. En endpoints.yml:

- id: gemini_embeddings

  models:

    - model: text-embedding-004

      provider: gemini

Crea un prompt personalizado

  1. En config.yml:

 prompt: prompts/enterprise-search-policy-template.jinja2

  1. Crea la carpeta prompts y el archivo .jinja2 con el contenido:

DOCUMENT:

{{docs}}

QUESTION:

{{current_conversation}}

INSTRUCTIONS:

Answer to the user's QUESTION using the DOCUMENT text.

Keep your answer short and grounded in the facts of the DOCUMENT.

If the DOCUMENT doesn't contain the facts to answer the QUESTION return "Sorry, I don't know the answer to this question."

Opciones adicionales de configuración

Mostrar fuente del documento:

 citation_enabled: true

Número de turnos en la consulta:

 max_messages_in_query: 3

Número de turnos en el prompt:

 max_history: 3

Reentrena y prueba:

rasa train

rasa inspect

Consulta los repos oficiales para ver los ejemplos completos:
Rasa con Faiss y OpenAI
Rasa con Faiss y Gemini

Próximos pasos

  1. Agrega más documentos a tu base.
  2. Prueba diferentes LLMs y embeddings.
  3. Ajusta tu prompt y analiza los cambios en las respuestas.
  4. Añade nuevos flujos conversacionales.
  5. Mira nuestro webinar: RAG Alone is Not the Answer.
  6. Muy pronto publicaremos una guía avanzada sobre ingestión para RAG.

Lleva asistentes inteligentes a tu empresa en México

En 2Brains trabajamos de la mano con RASA para implementar soluciones conversacionales basadas en RAG, ajustadas a las necesidades del mercado mexicano. Desde FAQs automatizadas hasta flujos conversacionales complejos, te ayudamos a integrar IA de forma segura, escalable y estratégica.

¿Te gustaría conocer cómo aplicar estas ideas en tu organización? Completa nuestro formulario de contacto y uno de nuestros especialistas en México se pondrá en contacto contigo. Podemos ayudarte a transformar la experiencia digital de tus clientes y equipos.

Inscríbete a nuestro Newsletter

Entérate de las últimas novedades de la industria.

                   

También te podría interesar

Más artículos

La crisis silenciosa: la escasez de talento en IA y analítica avanzada que pone en riesgo nuestra competitividad

9 julio, 2025 | 6 minutos de lectura

  • Consultoria TI
Leer más
Bot de voz con rasa y cartesia

Cómo crear un bot de voz con Rasa y Cartesia: guía práctica para empresas en México

8 julio, 2025 | 4 minutos de lectura

  • Consultoria TI
  • IA
Leer más
"Asistente conversacional con RAG usando Rasa y Faiss"

Respuestas inteligentes con Rasa y Faiss: implementa RAG en tu empresa en México

3 julio, 2025 | 5 minutos de lectura

  • IA
  • UX/UI
Leer más
Más artículos

La crisis silenciosa: la escasez de talento en IA y analítica avanzada que pone en riesgo nuestra competitividad

9 julio, 2025 | 6 minutos de lectura

  • Consultoria TI
Leer más
Bot de voz con rasa y cartesia

Cómo crear un bot de voz con Rasa y Cartesia: guía práctica para empresas en México

8 julio, 2025 | 4 minutos de lectura

  • Consultoria TI
  • IA
Leer más
"Asistente conversacional con RAG usando Rasa y Faiss"

Respuestas inteligentes con Rasa y Faiss: implementa RAG en tu empresa en México

3 julio, 2025 | 5 minutos de lectura

  • IA
  • UX/UI
Leer más

¿Tienes algún proyecto en mente?

Conversemos
Conversemos
México

Av. P.º de la Reforma 509-Piso 16, Cuauhtémoc, 06500 Ciudad de México.

mexico@2brains.lat

Chile

Av. Apoquindo 5950, Piso 20, Las Condes, Santiago de Chile

chile@2Brains.lat

Síguenos
Políticas de Privacidad

© 2025 2Brains All Rights Reserved