< Reto Anterior - Home - Siguiente reto >
.env.Las bases de conocimiento son ampliamente utilizadas en las empresas y pueden contener un número extenso de documentos en diversas categorías. Recuperar contenido relevante basado en consultas de usuarios es una tarea desafiante. Tradicionalmente, métodos como Page Rank han sido empleados para recuperar información de manera precisa a nivel de documento. Sin embargo, los usuarios aún necesitan buscar manualmente dentro del documento para encontrar la información específica y relevante que necesitan. Los recientes avances en Modelos de Base, como los desarrollados por OpenAI, ofrecen una solución a través del uso de técnicas de “Generación Aumentada por Recuperación” y codificación de información como “Incrustaciones”. Estos métodos ayudan a encontrar la información relevante y luego responder o resumir el contenido para presentarlo al usuario de manera concisa y sucinta.
La generación aumentada por recuperación (RAG, por sus siglas en inglés) es un enfoque innovador que combina el poder de las bases de conocimiento basadas en recuperación, como Azure Cognitive Search, y modelos de lenguaje de gran tamaño (LLMs), como Azure OpenAI ChatGPT, para mejorar la calidad y relevancia de los resultados generados. Esta técnica implica integrar un componente de recuperación en un modelo generativo, permitiendo la recuperación de información contextual y específica del dominio desde la base de conocimiento. Al incorporar este conocimiento contextual junto con la entrada original, el modelo puede generar resultados deseados, como resúmenes, extracción de información o respuesta a preguntas. En esencia, la utilización de RAG con LLMs te permite generar salidas de texto específicas del dominio incorporando datos externos específicos como parte del contexto proporcionado a los LLMs.
RAG busca superar las limitaciones encontradas en modelos puramente generativos, incluyendo problemas de precisión factual, relevancia y coherencia, a menudo vistos en forma de “alucinaciones”. Al integrar la recuperación en el proceso generativo, RAG busca mitigar estos desafíos. La incorporación de información recuperada sirve para “anclar” los modelos de lenguaje de gran tamaño (LLMs), asegurando que el contenido generado se alinee mejor con el contexto previsto, mejore la corrección factual y produzca resultados más coherentes y significativos.
Preguntas que deberías poder responder al final del reto:
Algunas consideraciones:
Ejecutarás los siguientes dos Jupyter Notebook para este desafío:
CH-04-A-RAG_for_structured_data.ipynbCH-04-B-RAG_for_unstructured_data.ipynbEstos archivos se pueden encontrar en tu Codespace bajo la carpeta /notebooks.
Regresa aquí a la guía del estudiante después de completar todas las tareas en el cuaderno de Jupyter para validar que has cumplido con los criterios de éxito para este desafío.
Para completar este desafío con éxito, deberías ser capaz de:
¿Te sientes demasiado cómodo? ¿Ansioso por hacer más? ¡Intenta estos desafíos adicionales!