Recomendaciones de herramientas vía Grounded Search: cómo LucidFlow evita la trampa de alucinación LLM
Pregunta a un LLM frontier qué herramienta usar para un proceso dado, y la respuesta será confiadamente errónea de formas sutiles: la herramienta existía hace tres años, los precios están desactualizados, la URL es una alucinación. La capa de recomendación de LucidFlow resuelve esto con grounded search: Gemini 3.1 Pro más Google Search en vivo, y una cadena de fallback que se degrada transparentemente en lugar de silenciosamente.
El problema de alucinación de las recomendaciones de herramientas LLM
Pregunta a un LLM genérico qué herramienta usar para un proceso de negocio específico y obtienes recomendaciones confiadas con un patrón de fallo predecible: el modelo recomienda herramientas que eran best-in-class hace dos o tres años (la añada de sus datos de entrenamiento), cita precios que están desactualizados o fabricados, y cita URLs de producto que o redirigen, o 404, o apuntan a un producto completamente distinto. Incluso los modelos frontier hacen esto, porque la tarea de recomendación misma es intrínsecamente temporal: la respuesta correcta cambia cada trimestre conforme salen nuevas herramientas, los incumbents suben precios y las categorías se consolidan. Ninguna cantidad de escala arregla un problema de añada de datos de entrenamiento.
El modo de fallo concreto que auditamos en la Knowledge Base LucidFlow antes de lanzar la capa grounded search: los modelos recomendaban plataformas RPA de 2022 para tareas donde un competidor nativo-IA añada 2025 ha tomado explícitamente la categoría, citaban precios anuales basados en páginas de precios públicas de 2023 que desde entonces han pasado detrás de muros de ventas enterprise, y citaban confiadamente URLs que eran la página de producto del proveedor hace tres años pero que ahora son una redirección a una homepage genérica. Las recomendaciones se leen como autoritativas porque el modelo es bueno escribiendo prosa autoritativa. Fallan como guía real de selección de productos.
Grounded search: Gemini 3.1 Pro + Google Search
La capa de recomendación de herramientas de LucidFlow usa Gemini 3.1 Pro con grounding de Google Search como su proveedor primario. El modelo se invoca con `tools: [{ googleSearch: {} }]` en la config de generación, lo que permite a Gemini ejecutar búsquedas web en tiempo real durante la respuesta y anclar su salida en las páginas que recupera. El prompt instruye explícitamente al modelo a BUSCAR páginas de pricing antes de recomendar en lugar de depender de la memoria, y a establecer el campo maturity a 'new' para herramientas lanzadas en los últimos 18 meses en lugar de anclarse en los incumbents previos al cutoff de entrenamiento.
La grounding metadata devuelta de cada llamada se loguea: las consultas de búsqueda web que el modelo ejecutó y las URLs recuperadas (las fuentes de grounding) que informaron la respuesta. Esto es lo que hace la recomendación auditable. Un revisor puede inspeccionar los logs y ver que para una recomendación dada, el modelo buscó la cadena literal 'best automation tools for accounts payable enterprise 2025 2026', recuperó tres páginas de producto específicas más una review de G2, y produjo su recomendación a partir de esa evidencia. El revisor puede luego verificar las fuentes antes de firmar. Una recomendación que habría sido no confiable desde un LLM genérico se vuelve auditable a través de la capa de grounding.
Parámetros técnicos: la llamada grounded search usa el modelo con grounding Gemini 3.1 Pro, un timeout de 60 segundos (más largo que el timeout Gemini estándar porque la búsqueda grounded necesita intrínsecamente más tiempo), y una temperatura de generación baja (0,2). La temperatura 0,2 es deliberada: suficientemente alta para sacar a la luz herramientas no-obvias que el modelo podría pasar por alto de otro modo, suficientemente baja para mantener la salida factual y reproducible entre llamadas. La respuesta se valida contra un esquema Zod que requiere un rango de precio mensual con min/max explícito, una cadena describiendo el modelo de precios, un enum de madurez ('new' | 'established') y un array de alternativas con dos a tres alternativas llevando cada una su propio rango de precio y reasoning.
La cadena de fallback de tres niveles
Grounded search es el proveedor primario, pero no puede ser el único. La búsqueda web en tiempo real puede fallar por razones mundanas: rate limits de API, errores de red transitorios, timeouts en queries inusualmente amplias, y la capa de recomendación necesita permanecer útil incluso cuando el primario falla. La capa de recomendación de herramientas implementa una cadena de fallback explícita de tres niveles, con cada nivel elegido para preservar tanta calidad de recomendación como sea posible mientras se degrada transparentemente cuando el nivel superior no está disponible.
- Primario: Gemini 3.1 Pro + grounding de Google Search. Datos web en tiempo real, auditables vía grounding metadata. Este es el camino por defecto y maneja la vasta mayoría de llamadas de producción.
- Fallback: Grok. Usa datos de entrenamiento en lugar de búsqueda en tiempo real, así que puede tener algo de sesgo de incumbency, pero sigue siendo un recomendador capaz y sus datos de entrenamiento son relativamente recientes. Activado cuando la llamada primaria Gemini falla con un error reintentable. La verificación de disponibilidad de Grok gate esto: si Grok también está no disponible, la cadena salta al nivel de último recurso.
- Último recurso: degradación grácil. Devuelve un estado indicando que no hay recomendaciones disponibles, con una lista de herramientas vacía en lugar de fabricar recomendaciones. La UI saca a la luz este estado explícitamente, mostrando el resto del análisis de transformación (niveles de madurez, ahorros, ROI) sin sugerencias de herramientas. Este es el comportamiento correcto porque una recomendación faltante es más honesta que una alucinada.
Por qué las recomendaciones son a nivel proceso, no tarea
Una elección arquitectónica sutil en la capa de recomendación de herramientas: hace UNA llamada LLM por proceso, no una llamada por tarea. El system prompt enmarca explícitamente el trabajo del modelo como pensamiento holístico: 'These tasks form a [processName] workflow. Can ONE platform handle multiple tasks?' El prompt empuja activamente al modelo hacia plataformas consolidadas: 'A consolidated platform that is good enough at each task beats 4 best-in-class tools that require complex integration.' Esta es la best practice enterprise, y se desprende del diseño en lugar de aplicarse después del hecho.
Consecuencia práctica: un proceso con diez tareas automatizables generalmente regresa con dos o tres recomendaciones de herramientas en lugar de diez, cada recomendación mapeando a múltiples tareas. Una plataforma moderna nativa-IA para cuentas por pagar puede cubrir cinco tareas con una sola suscripción; una API de comprensión de documentos más un motor de flujo de trabajo puede cubrir el resto. Esto está más cerca de cómo realmente se implementa una transformación: los equipos compran plataformas, no herramientas puntuales, y saca a la luz el compromiso de coste de integración explícitamente en lugar de esconderlo detrás de una larga lista de recomendaciones de herramientas individuales.
Pensamiento en primeros principios integrado al prompt
Un detalle más subestimado: el prompt instruye al modelo a considerar el proceso entero holísticamente, incluyendo tareas marcadas como no automatizables. Una tarea puede ser no automatizable a la vista del clasificador estático de patrones, pero eliminable por una plataforma moderna: un sistema de auto-aprobación quita la necesidad de revisión manual por completo, por ejemplo. El prompt permite al modelo incluir estas tareas en una recomendación y explicar en el razonamiento por qué la herramienta puede eliminar la tarea. Esto atrapa el caso que una recomendación a nivel tarea siempre perdería: a veces la respuesta correcta no es automatizar la tarea sino eliminarla.
A qué se parece realmente una recomendación
Cada recomendación devuelta por el camino grounded-search se conforma al mismo esquema validado por Zod. La forma vale la pena leerla una vez porque muestra a qué se compromete realmente la plataforma a sacar a la luz para cada recomendación, no claims en prosa, sino campos estructurados.
const toolRecommendationSchema = z.object({
recommendations: z.array(
z.object({
taskIds: z.array(z.string()),
toolName: z.string(),
description: z.string(),
reasoning: z.string(),
monthlyPrice: z.object({ min: z.number(), max: z.number() }),
pricingModel: z.string(), // "per seat" | "flat rate" | "usage-based" | ...
url: httpsUrlSchema, // HTTPS only; non-HTTPS -> cadena vacía
maturity: z.enum(['new', 'established']),
alternatives: z.array(
z.object({
name: z.string(),
url: httpsUrlSchema,
monthlyPrice: z.object({ min: z.number(), max: z.number() }),
reasoning: z.string(),
})
),
})
),
});Tres propiedades a resaltar en ese esquema. Primero, el campo de URL aplica la validación de URL HTTPS: un transform que devuelve cadena vacía para URLs no-HTTPS en lugar de propagar enlaces inseguros al producto. Segundo, el modelo de precios es una cadena texto libre en lugar de un enum porque los modelos de pricing varían de formas que un enum no puede capturar (per-asiento-con-descuentos-por-volumen, por-ejecución-con-tope-mensual, usage-based-con-mínimo, etc.). Tercero, el array de alternativas es requerido y no-vacío por convención: el prompt instruye al modelo a incluir una a dos alternativas con su propio rango de precio y reasoning, porque una recomendación sin alternativas es un pitch de ventas en lugar de un análisis. El esquema no fuerza alternativas no-vacío, pero el diseño del prompt asegura que llegan.
Preguntas frecuentes
¿Cómo maneja grounded search los precios que cambian entre la recomendación y la implementación?
La variación de precios es real: los proveedores suben precios, cambian tiers, mueven capacidades entre tiers. La recomendación captura los precios en el momento en que se realizó la grounded search, y lo saca a la luz como un rango (coste mensual min/max) en lugar de un estimado puntual para absorber la variación normal dentro de un tier. Si corres la misma llamada de recomendación seis meses después, obtendrás precios actuales; la recomendación anterior no se auto-actualiza en almacenamiento. Para programas que planifican más de dos o tres meses adelante, el movimiento práctico es volver a correr la recomendación más cerca de la fecha de implementación para obtener precios frescos antes del compromiso.
¿Puedo confiar en las URLs en las recomendaciones, o debo verificar cada una?
Verifica cada una antes de actuar. La validación de URL HTTPS protege contra URLs no-HTTPS, pero no garantiza que la URL sea una página de producto válida: el modelo aún puede devolver una URL que parece plausible pero que ya no existe. La grounding metadata en los logs muestra qué URLs recuperó realmente el modelo durante la búsqueda, y estas son más confiables que cualquier URL que no aparezca en las fuentes de grounding. Para decisiones de compra enterprise, la verificación correcta es hacer clic en cada URL recomendada y cada URL alternativa antes de incluir la recomendación en un plan firmado. La capa grounded-search te acerca a la respuesta correcta más que un LLM sin grounding, pero no es un sustituto para el check del último metro.
¿Qué pasa si Gemini grounded search saca a la luz una herramienta que no existe realmente?
Raro, porque la búsqueda es en tiempo real y los grounding chunks muestran lo que realmente se recuperó, pero aún posible cuando el modelo sobre-generaliza desde una coincidencia parcial. La validación del esquema Zod atrapa errores de forma pero no errores factuales. La protección es el log de grounding metadata: si un revisor encuentra una recomendación sin grounding chunk de soporte, eso es una bandera roja. Una segunda protección es el array de alternatives: una recomendación fabricada típicamente viene con alternatives fabricadas que son más fáciles de detectar que la primaria fabricada. En producción, este modo de fallo ha sido lo suficientemente raro que el principal palanca de calidad es el tuning del prompt en lugar de cambio arquitectónico.
¿Por qué no usar ChatGPT o Claude con browsing para el mismo propósito?
Cualquiera podría funcionar en principio: el enfoque es agnóstico al modelo, no específico a Gemini. El stack LucidFlow eligió Gemini 3.1 Pro porque su API grounded search es la integración más madura de búsqueda en tiempo real en el bucle de generación a fecha de 2026, con grounding metadata transparente que los logs pueden capturar. El fallback a Grok está en su lugar en parte para permanecer resiliente a cualquier outage de proveedor único. Añadir grounding de OpenAI o Anthropic como tercer proveedor está en la hoja de ruta pero no requerido para la barra de calidad actual.
¿Las recomendaciones incluyen alguna vez herramientas gratis o open-source?
Sí, cuando son genuinamente state-of-the-art para la tarea. El prompt no filtra por modelo de licencia; filtra por ser 'comercialmente disponible, suficientemente estable para uso enterprise, y state-of-the-art'. Un proyecto open-source con soporte enterprise (una versión hosted gestionada, una capa de servicios) puede ser y es recomendado. Un proyecto puramente open-source sin historia de despliegue enterprise tiende a no serlo, porque el campo reasoning tiene que justificar readiness de producción y la ausencia de soporte enterprise hace eso más difícil de escribir honestamente. El mix resultante tiende a ser SaaS comercial con entradas open-source-con-hosting-gestionado ocasionales.
¿En qué se diferencia de solo preguntar a un modelo con browsing habilitado?
Dos diferencias estructurales. Primero, el prompt está específicamente ingenierizado para selección de herramientas enterprise: impone un esquema, requiere alternativas, insiste en URLs HTTPS, demanda verificación de páginas de pricing y sesga hacia plataformas consolidadas sobre herramientas puntuales. Un prompt genérico 'busca y recomienda' no hace nada de esto. Segundo, la cadena de fallback y la validación de esquema son plomería de producción que convierte una generación best-effort en un servicio confiable. Un LLM de browsing ad-hoc es útil para investigación; una capa de recomendación de producción tiene que manejar timeouts, fallos de esquema y outages de proveedor sin devolver silenciosamente respuestas de baja calidad. La ingeniería alrededor del modelo vale al menos tanto como el modelo mismo.
Artículos relacionados
¿Listo para co-construir tu plan de transformación IA?
Sube cualquier documento de proceso y co-construye un plan de transformación IA con recomendaciones de herramientas reales y proyecciones de ROI — en minutos, no en semanas.
Probar LucidFlow gratis