La alucinación de la IA (Inteligencia Artificial Generativa) es un problema que afecta su precisión y confiabilidad. Un estudio reciente de la Universidad de Stanford reveló que la IA generativa comete errores el 75% de las veces al responder preguntas legales.
Esto se debe a que los grandes modelos de lenguaje (LLM) que impulsan la tecnología de IA generativa son inherentemente imprecisos y propensos a sesgos.
Para abordar este problema, las nuevas empresas y los proveedores de servicios en la nube están desarrollando herramientas para monitorear, evaluar y corregir problemas con la IA generativa.
Un método es la «Generación Aumentada por Recuperación» (RAG), que crea modelos de IA generativa personalizados para respuestas más precisas. Sin embargo, RAG no elimina las alucinaciones porque la IA generativa aún no cuenta con reglas lógicas para su razonamiento.
Algunos argumentan que se necesita un «lenguaje formal» o una secuencia de reglas para garantizar conclusiones confiables en cada paso del proceso de respuesta de la IA generativa.
Elemental Cognition desarrolló un «razonador neurosimbólico» llamado Braid, que construye un modelo lógico del lenguaje leído por un LLM y garantiza resoluciones precisas y sin ambigüedades.
Otras empresas, como IBM, Arize y TruEra, también están creando herramientas para monitorear y evaluar la IA generativa. Estas tecnologías utilizan IA para evaluar la relevancia, la toxicidad y la calidad de las respuestas de la IA generativa.
Mitigar la alucinación de la IA es crucial para garantizar la precisión y confiabilidad de esta tecnología transformadora. Los avances de las herramientas de monitoreo y evaluación permiten a las empresas aprovechar el poder de la IA generativa mientras mitigan el riesgo de errores y respuestas sesgadas. Al combinar múltiples fuentes de información y análisis, las organizaciones pueden aprovechar mejor las capacidades de la IA generativa y desbloquear su potencial para impulsar la innovación y mejorar los resultados.