El uso de chatbots de modelos de lenguaje de gran escala (LLM) listos para usar en empresas rara vez puede ser útil, ya que no codifican el conocimiento propietario específico del dominio sobre las actividades de la organización que realmente aportaría valor a una interfaz conversacional para la extracción de información. Aquí es donde el enfoque de Graph RAG entra en escena como una solución ideal para adaptar un LLM a tus requisitos específicos.
Graph RAG
Graph RAG (o GraphRAG) es una evolución de este enfoque, que utiliza gráficos de conocimiento (KG) como fuente de contexto o información factual. Los productos y servicios de Ontotext facilitan una variedad de patrones de Graph RAG, abriendo nuevas posibilidades para chatbots, consultas en lenguaje natural y extracción de información.
Graph RAG es una mejora sobre el enfoque popular de RAG. Graph RAG incluye una base de datos gráfica como fuente de la información contextual enviada al LLM. Proporcionar al LLM fragmentos de texto extraídos de documentos más grandes puede carecer del contexto necesario, precisión factual y exactitud del lenguaje para que el LLM entienda los fragmentos recibidos en profundidad.
Con Graph RAG, cada registro en la base de datos vectorial puede tener una representación rica en contexto, aumentando la comprensión de la terminología específica para que el LLM pueda interpretar mejor dominios temáticos específicos.
Graph RAG puede combinarse con el enfoque estándar de RAG para obtener lo mejor de ambos mundos: la estructura y precisión de la representación gráfica combinada con la amplitud del contenido textual.
Variedades de Graph RAG
Podemos resumir varias variedades de Graph RAG, dependiendo de la naturaleza de las preguntas, el dominio y la información en el gráfico de conocimiento disponible:
- Gráfico como Almacén de Contenido: Extraer fragmentos relevantes de documentos y pedirle al LLM que responda usándolos. Esta variedad requiere un KG que contenga contenido textual relevante y metadatos sobre él, así como la integración con una base de datos vectorial.
- Gráfico como Experto en la Materia: Extraer descripciones de conceptos y entidades relevantes para la pregunta en lenguaje natural y pasarlas al LLM como «contexto semántico» adicional. La descripción debería incluir idealmente relaciones entre los conceptos. Esta variedad requiere un KG con un modelo conceptual completo, que incluya ontologías, taxonomías u otras descripciones de entidades relevantes. La implementación requiere vinculación de entidades u otro mecanismo para la identificación de conceptos relevantes para la pregunta.
- Gráfico como Base de Datos: Mapear (parte de) la pregunta en lenguaje natural a una consulta de gráfico, ejecutar la consulta y pedirle al LLM que resuma los resultados. Esta variedad requiere un gráfico que contenga información factual relevante. La implementación de este patrón requiere alguna herramienta de NL a consulta de gráfico y vinculación de entidades.
GraphRAG utiliza incrustaciones gráficas de resultados de GNN (redes neuronales gráficas) para mejorar las incrustaciones de texto con la inferencia de respuestas a consultas de usuarios. Este método, conocido como «Soft-prompting,» es un tipo de ingeniería de prompts.
La ingeniería de prompts puede dividirse en categorías «Hard» y «Soft.» «Hard» implica prompts proporcionados explícitamente, requiriendo la adición manual de contexto a las consultas de los usuarios.
La desventaja de este método es la naturaleza subjetiva de la creación de prompts, aunque es fácil de implementar. Por el contrario, «Soft» implica proporcionar prompts implícitamente, donde se añade información de incrustaciones adicionales a las incrustaciones de texto existentes del modelo para derivar resultados de inferencia similares.
Esto ha sido todo por ahora, espero que este artículo te sea de buen provecho, si llegaste hasta aquí, déjame tu comentario. Nos vemos en otra entrega de «Inteligencia Artificial Para Todos»
Cada día nos sorprende más el avance de la IA. Buen artículo