Audité mi propia SaaS para agentes de IA. La mitad de mi contenido era invisible.

[tokens: in=1868 out=1944 thinking=4794 | cost=$0.0697]

Audité mi propio sitio SaaS para agentes de IA. La mitad de mi contenido era invisible.

El llamado de atención de un fundador solitario sobre la crisis silenciosa de la web de la que nadie nos advirtió.


Pasé 30 años como ingeniero civil en Járkov. Calculaba el tamaño de las barras de refuerzo. Las revisaba dos veces. La primera regla de la ingeniería estructural es: si no puedes medirlo, no existe.

Así que cuando empecé a desarrollar software hace dos años, asumí que la regla seguía vigente. Si mi sitio web funcionaba, funcionaba. Si Google lo indexaba, estaba indexado. Listo.

Entonces, realicé una auditoría en mi propio sitio.

Lo que esperaba encontrar: nada

Manejo guardlabs.online. Llevamos 8 meses en el mercado. No somos Stripe, pero tampoco somos un proyecto de hobby de una sola página. Múltiples páginas de destino, media docena de productos, tres idiomas, clientes reales.

Escribí un auditor rápido para verificar qué es lo que los agentes de IA (ChatGPT, Claude, Perplexity, Grok, las docenas de agentes B2B que rastrean la web en 2026) realmente ven cuando miran nuestro sitio.

Esperaba una o dos advertencias amarillas.

Lo que realmente encontré: 12 alertas rojas

Este es el resultado, ligeramente editado:

✗ /llms.txt — missing (AI agents have no idea what this site is about)
✗ robots.txt — no rules for GPTBot/ClaudeBot/PerplexityBot
✗ /.well-known/ai-plugin.json — missing (no manifest for agent integration)
✗ OpenAPI spec — missing (your API is invisible to agents)
✗ RSS / Atom feed — missing (agents can't subscribe to updates)
✗ Sitemap.xml hreflang — broken on 3 language pairs
✗ JSON-LD Organization — missing
✗ JSON-LD SoftwareApplication — missing
✗ Content-Type — text/html on JSON API responses
✗ Open Graph — incomplete on 4 product pages
✗ Meta description — missing on /agent-ready, /audit, /care
✗ canonical URLs — wrong on /es/* pages

La página de mi propio producto —la que vende la preparación para IA como servicio— estaba fallando en 12 verificaciones de preparación para IA.

Me quedé procesando eso por un minuto.

Lo que nadie te dice en 2026

Esto es lo que ha cambiado en los últimos 18 meses y casi nadie ha tomado medidas al respecto:

El tráfico que descubre tu sitio ya no es solo Googlebot. Es un enjambre:

  • GPTBot (OpenAI) — indexa contenido para las respuestas de ChatGPT
  • ClaudeBot (Anthropic) — lo mismo para Claude
  • PerplexityBot — la búsqueda en tiempo real de Perplexity
  • CCBot (Common Crawl) — alimenta a docenas de LLMs
  • Google-Extended — el rastreador específico de Google para Gemini
  • Bytespider — la IA de TikTok / Doubao
  • Applebot-Extended, Bingbot, MJ12bot, AhrefsBot, y más de 30 otros scrapers menos educados

Cada uno de ellos hace una solicitud ligeramente diferente. Cada uno respeta señales ligeramente diferentes. La mayoría no respeta robots.txt en absoluto. Algunos requieren un llms.txt (un nuevo archivo específico para ellos). Algunos buscan .well-known/ai-plugin.json. Algunos necesitan especificaciones OpenAPI para interactuar con tu producto. Algunos solo siguen el esquema JSON-LD.

En 2024, tenías que complacer bien a un solo rastreador (Googlebot) y obtenías el 90% de tu tráfico de descubrimiento.

En 2026, tienes que complacer razonablemente a ocho rastreadores y obtendrás quizás el 60% de tu tráfico de descubrimiento. Si fallas con uno, pierdes entre un 5% y un 15% de eso.

Mi sitio estaba fallando con los ocho.

Por qué esta es la crisis silenciosa

Nadie está escribiendo sobre esto porque nadie puede verlo.

Tu Google Analytics sigue mostrando visitantes. Tu Search Console se ve bien. Tu monitor de tiempo de actividad muestra 99.97%. Todo técnicamente funciona.

Pero por debajo está ocurriendo una tendencia silenciosa: cuando un usuario le pregunta a ChatGPT "recomiéndame un buen SaaS para monitorear sitios web" —¿sabe ChatGPT que tu sitio existe? ¿Entiende lo que haces? ¿Puede obtener tus precios? ¿Puede decirle al usuario cómo registrarse?

Si te falta el llms.txt, la respuesta es "probablemente no". Si te falta el JSON-LD, es un "definitivamente no" para los precios. Si tu robots.txt bloquea a GPTBot, literalmente no existes en la respuesta.

La búsqueda se está dividiendo en dos. La mitad de tus futuros clientes le están preguntando a agentes de IA en lugar de escribir en Google. La mitad que no ves en Analytics.

La parte dolorosa: me tomó 30 segundos descubrirlo

La auditoría completa se ejecutó en 30 segundos. Solo revisa señales: presencia de archivos, encabezados, datos estructurados, forma del sitemap, tipo de contenido. Ingeniería aburrida. Nada de magia.

La escribí como una herramienta para nuestros clientes. Nunca se me ocurrió ejecutarla en nuestro propio sitio.

Esto es lo curioso de crear herramientas de confiabilidad: pasas tanto tiempo apuntando la linterna hacia los demás que te olvidas de apuntarla hacia ti mismo.

Lo que hice al respecto (la aburrida lista de arreglos)

En un fin de semana, hice lo siguiente:

  1. Escribí /llms.txt con una frase sobre cada producto
  2. Agregué reglas explícitas para User-agent: GPTBot / ClaudeBot / PerplexityBot en robots.txt
  3. Escribí /.well-known/ai-plugin.json apuntando a nuestra API pública
  4. Generé una especificación OpenAPI desde nuestras rutas de Flask (usuarios de FastAPI: la suya es automática)
  5. Agregué bloques JSON-LD de Organization y SoftwareApplication en las páginas de destino
  6. Corregí el Open Graph en 4 páginas de producto
  7. Corregí las URL canónicas en las páginas en español
  8. Establecí el Content-Type correcto en los endpoints de JSON
  9. Agregué un feed Atom para el blog
  10. Volví a verificar el hreflang en el sitemap

Tiempo total: ~6 horas durante un fin de semana. Costo: $0.

La puntuación de AI-Readiness pasó de 38/100 a 92/100.

Todavía no tengo cifras sobre cómo esto cambió el tráfico real de los agentes de IA; esa será una historia para dentro de 6 meses. Pero sé una cosa: pasé de ser "invisible" a ser "descubrible" en un fin de semana.

La herramienta gratuita

Como me sentí un poco tonto al encontrar todo esto en mi propio sitio, hice que el auditor sea gratuito para todos:

guardlabs.online/audit — escribe tu dominio y obtén más de 10 verificaciones en 30 segundos. Sin registro. El correo electrónico es opcional (si quieres el informe en PDF).

No estoy vendiendo nada en esta publicación. La auditoría es gratuita, las soluciones son públicas y los estándares son abiertos. Si encuentras problemas, arréglalos tú mismo; la mayoría son adiciones de 10 líneas a tu repositorio.

Si aun así quieres ayuda, tenemos un servicio para solucionarlo por ti (/agent-ready, pago único) y un producto de monitoreo continuo (/care/, $240/año), pero son totalmente opcionales. La auditoría es el regalo.

La reflexión final del ingeniero civil

En construcción, tenemos un dicho: la carga que no calculas es la que derrumba el edificio.

En 2026, el canal de descubrimiento que no auditas es el que mata tu crecimiento.

Puede que tu sitio esté bien. También es probable que le falten entre 6 y 12 cosas que no sabías que existían hace dos años. Tómate 30 segundos y descúbrelo.


Stas crea herramientas de confiabilidad en GuardLabs desde Járkov, Ucrania. La auditoría gratuita está en guardlabs.online/audit.


🔍 Ejecuta la auditoría gratuita → · Sin registro, 30 segundos.

Комментарии

Популярные сообщения из этого блога

Three AI War Story Shorts: 8s viral test (Why your code, backtest, and site all lie)

Архитектура торговых систем: уроки инженера-строителя