Context7: lo probe, funciona, y paso de el


1 de abril de 2026

Hay un MCP nuevo que esta en boca de todos: Context7. Promete inyectar documentacion actualizada de librerias directamente en tu agente AI. Suena bien. Lo he probado con datos reales. Y he decidido no usarlo.

Pero eso no significa que sea malo. Significa que no encaja en mi workflow. Deja que te cuente por que.

Que es Context7

Context7 es un servicio de Upstash que indexa documentacion de librerias open source y te la sirve como snippets. Funciona como MCP server para Claude Code, Cursor, Windsurf y otros agentes AI.

La idea: en vez de que tu LLM use conocimiento potencialmente desactualizado de su training data, consulta la documentacion real y actualizada.

Tiene dos modos:

Como funciona

Dos llamadas:

  1. Buscar la libreria:
curl -s -X GET "https://context7.com/api/v2/libs/search?libraryName=reactphp&query=async+stream" \
  -H "Authorization: Bearer $CONTEXT7_API_KEY" | jq '.results[] | {id, title, totalTokens, trustScore}'

Te devuelve las librerias que matchean con tokens indexados, trust score y versiones.

  1. Pedir contexto:
curl -s -X GET "https://context7.com/api/v2/context?libraryId=/websites/reactphp&query=event+loop+timers&tokens=2000" \
  -H "Authorization: Bearer $CONTEXT7_API_KEY"

Te devuelve snippets de documentacion real con codigo, fuente original y descripcion.

La prueba: tres librerias, resultados reales

Probe con tres cosas que uso a diario: ReactPHP, NixOS/nixpkgs, y PHP.

ReactPHP

Tiene la doc de reactphp.org indexada. 138k tokens, 860 snippets, trust score 9.8.

Pedi contexto sobre el event loop y timers. Me devolvio 5 snippets… que eran el mismo ejemplo repetido 5 veces con variaciones minimas:

$timer = Loop::addPeriodicTimer(0.1, function () {
    echo 'Tick' . PHP_EOL;
});

Loop::addTimer(1.0, function () use ($timer) {
    Loop::cancelTimer($timer);
    echo 'Done' . PHP_EOL;
});

Correcto. Pero es el ejemplo mas basico de la doc. Si necesitas esto, probablemente no deberias estar usando ReactPHP todavia.

NixOS / nixpkgs

Aqui me sorprendio. Tiene indexado:

Pedi contexto sobre mkDerivation y buildPhase. Me devolvio ejemplos reales del manual de nixpkgs con runHook preBuild, override de fases, y hasta un ejemplo completo de cross-compilation con Emscripten. Calidad decente.

Jenkins (bonus)

Lo probe tambien con Jenkins para automatizar despliegues. 1.9M tokens indexados de jenkins.io. Me devolvio:

Todo correcto, todo de la doc oficial. Nada que no supiera ya un LLM entrenado, pero actualizado a enero 2026.

El plan gratuito

Concepto Free Pro
Requests/mes 1,000 25,000+
Docs privadas No Si
Parsing tokens 0 Incluidos
Seats 1 Multiples

1,000 requests al mes son suficientes para probar. Pero el valor real esta en poder indexar tu propia documentacion, y eso es Pro.

Por que paso

Tres razones concretas:

  1. Mi stack es mio. Trabajo con Cohete, mi propio framework PHP async con ReactPHP y DDD. Context7 no tiene mi codigo indexado, y en Free no puedo subirlo. La doc que si tiene (ReactPHP, PHP) ya la domino.

  2. El LLM ya sabe esto. Claude con Opus tiene training data que cubre ReactPHP, PHP, NixOS y la mayoria de librerias populares. Los snippets que me devolvio Context7 no aportaron nada que no supiera ya. La unica ventaja real seria para cambios posteriores al cutoff del modelo, pero en la practica eso es raro.

  3. Consume contexto sin aportar. Cada query inyecta tokens en la ventana de contexto. Si esos tokens son documentacion que ya conozco, estoy pagando espacio por nada. Prefiero ese espacio para mi codigo.

Cuando SI tiene sentido

No todo el mundo es mi caso. Context7 encaja bien si:

La alternativa: skill puntual

En Claude Code tengo disponible la skill context7-auto-research que hace exactamente lo mismo bajo demanda. Si algun dia necesito docs frescas de algo concreto, la invoco. Sin MCP permanente, sin cargar el contexto, sin gastar requests del Free tier en automatico.

Es la diferencia entre tener una enciclopedia abierta en la mesa todo el rato (MCP) y saber donde esta la estanteria (skill puntual). Para mi workflow, la estanteria gana.

Conclusion

Context7 es un producto bien hecho. La API funciona, los datos son reales, el trust score filtra basura. Si encaja en tu workflow, usalo.

Pero si ya dominas tu stack, trabajas con codigo propio, y tu LLM tiene training data decente… es una capa mas que no aporta. Y en ingenieria, las capas que no aportan se quitan.

Como decia alguien: la complejidad innecesaria es el enemigo. Incluso cuando viene bien empaquetada.

Comparte este post:

Es tu post

Estas seguro? Esto no se puede deshacer.

Comentarios (0)

Sin comentarios todavia. Se el primero!

Deja un comentario