< Reto Anterior - Home - Siguiente reto >
.env
.Las bases de conocimiento son ampliamente utilizadas en las empresas y pueden contener un número extenso de documentos en diversas categorías. Recuperar contenido relevante basado en consultas de usuarios es una tarea desafiante. Tradicionalmente, se han empleado métodos como Page Rank para recuperar información de manera precisa a nivel de documento. Sin embargo, los usuarios aún necesitan buscar manualmente dentro del documento para encontrar la información específica y relevante que necesitan. Los recientes avances en Modelos Fundacionales, como los desarrollados por OpenAI, ofrecen una solución a través del uso de técnicas de “Generación Aumentada por Recuperación” y la codificación de información en forma de “Embeddings”. Estos métodos ayudan a encontrar la información relevante y luego responder o resumir el contenido para presentarlo al usuario de manera concisa y sucinta.
La Generación Aumentada por Recuperación (RAG, por sus siglas en inglés) es un enfoque innovador que combina el poder de las bases de conocimiento basadas en recuperación, como Azure AI Search, y Modelos de Lenguaje Grande (LLMs), como los de Azure OpenAI, para mejorar la calidad y relevancia de los resultados generados. Esta técnica implica integrar un componente de recuperación en un modelo generativo, permitiendo la recuperación de información contextual y específica del dominio desde la base de conocimiento. Al incorporar este conocimiento contextual junto con la entrada original, el modelo puede generar resultados deseados, como resúmenes, extracción de información o respuesta a preguntas. En esencia, la utilización de RAG con LLMs te permite generar salidas de texto específicas del dominio incorporando datos externos específicos como parte del contexto proporcionado a los LLMs.
RAG busca superar las limitaciones encontradas en modelos puramente generativos, incluyendo problemas de precisión factual, relevancia y coherencia, a menudo vistos en forma de “alucinaciones” o “fabricaciones”. Al integrar la recuperación en el proceso generativo, RAG busca mitigar estos desafíos. La incorporación de información recuperada sirve para “fundamentar” los Modelos de Lenguaje Grande (LLMs), asegurando que el contenido generado se alinee mejor con el contexto previsto, mejore la exactitud factual y produzca resultados más coherentes y significativos.
Ejecutarás los siguientes dos Jupyter Notebooks para este desafío:
CH-04-A-RAG_for_structured_data.ipynb
CH-04-B-RAG_for_unstructured_data.ipynb
Estos archivos se pueden encontrar en tu Codespace bajo la carpeta /notebooks
.
Regresa aquí después de completar todas las tareas en los Jupyter Notebooks para validar que has cumplido con los criterios de éxito para este desafío.
Para completar este desafío con éxito, deberías ser capaz de:
¿Te sientes demasiado cómodo? ¿Estás ansioso por hacer más? ¡Intenta estos desafíos adicionales!
Ahora puedes proseguir con el Siguiente reto »