Context7: lo probe, funciona, y paso de el
Hay un MCP nuevo que esta en boca de todos: Context7. Promete inyectar documentacion actualizada de librerias directamente en tu agente AI. Suena bien. Lo he probado con datos reales. Y he decidido no usarlo.
Pero eso no significa que sea malo. Significa que no encaja en mi workflow. Deja que te cuente por que.
Que es Context7
Context7 es un servicio de Upstash que indexa documentacion de librerias open source y te la sirve como snippets. Funciona como MCP server para Claude Code, Cursor, Windsurf y otros agentes AI.
La idea: en vez de que tu LLM use conocimiento potencialmente desactualizado de su training data, consulta la documentacion real y actualizada.
Tiene dos modos:
- MCP: se configura como servidor MCP y el agente lo consulta automaticamente
- API: endpoint REST para queries programaticas
Como funciona
Dos llamadas:
- Buscar la libreria:
curl -s -X GET "https://context7.com/api/v2/libs/search?libraryName=reactphp&query=async+stream" \
-H "Authorization: Bearer $CONTEXT7_API_KEY" | jq '.results[] | {id, title, totalTokens, trustScore}'Te devuelve las librerias que matchean con tokens indexados, trust score y versiones.
- Pedir contexto:
curl -s -X GET "https://context7.com/api/v2/context?libraryId=/websites/reactphp&query=event+loop+timers&tokens=2000" \
-H "Authorization: Bearer $CONTEXT7_API_KEY"Te devuelve snippets de documentacion real con codigo, fuente original y descripcion.
La prueba: tres librerias, resultados reales
Probe con tres cosas que uso a diario: ReactPHP, NixOS/nixpkgs, y PHP.
ReactPHP
Tiene la doc de reactphp.org indexada. 138k tokens, 860 snippets, trust score 9.8.
Pedi contexto sobre el event loop y timers. Me devolvio 5 snippets… que eran el mismo ejemplo repetido 5 veces con variaciones minimas:
$timer = Loop::addPeriodicTimer(0.1, function () {
echo 'Tick' . PHP_EOL;
});
Loop::addTimer(1.0, function () use ($timer) {
Loop::cancelTimer($timer);
echo 'Done' . PHP_EOL;
});Correcto. Pero es el ejemplo mas basico de la doc. Si necesitas esto, probablemente no deberias estar usando ReactPHP todavia.
NixOS / nixpkgs
Aqui me sorprendio. Tiene indexado:
- El manual oficial de NixOS (97k tokens)
- El NixOS & Flakes Book de ryan4yin (52k tokens)
- nixpkgs completo (765k tokens, 3266 snippets)
Pedi contexto sobre mkDerivation y
buildPhase. Me devolvio ejemplos reales
del manual de nixpkgs con runHook preBuild, override de fases, y hasta un
ejemplo completo de cross-compilation con Emscripten. Calidad
decente.
Jenkins (bonus)
Lo probe tambien con Jenkins para automatizar despliegues. 1.9M tokens indexados de jenkins.io. Me devolvio:
- Como triggerar builds remotamente con curl y API tokens
- Pipelines declarativos con stages de deploy y approval gates
- Deploy condicional por rama con
when { branch 'production' }
Todo correcto, todo de la doc oficial. Nada que no supiera ya un LLM entrenado, pero actualizado a enero 2026.
El plan gratuito
| Concepto | Free | Pro |
|---|---|---|
| Requests/mes | 1,000 | 25,000+ |
| Docs privadas | No | Si |
| Parsing tokens | 0 | Incluidos |
| Seats | 1 | Multiples |
1,000 requests al mes son suficientes para probar. Pero el valor real esta en poder indexar tu propia documentacion, y eso es Pro.
Por que paso
Tres razones concretas:
Mi stack es mio. Trabajo con Cohete, mi propio framework PHP async con ReactPHP y DDD. Context7 no tiene mi codigo indexado, y en Free no puedo subirlo. La doc que si tiene (ReactPHP, PHP) ya la domino.
El LLM ya sabe esto. Claude con Opus tiene training data que cubre ReactPHP, PHP, NixOS y la mayoria de librerias populares. Los snippets que me devolvio Context7 no aportaron nada que no supiera ya. La unica ventaja real seria para cambios posteriores al cutoff del modelo, pero en la practica eso es raro.
Consume contexto sin aportar. Cada query inyecta tokens en la ventana de contexto. Si esos tokens son documentacion que ya conozco, estoy pagando espacio por nada. Prefiero ese espacio para mi codigo.
Cuando SI tiene sentido
No todo el mundo es mi caso. Context7 encaja bien si:
- Trabajas con librerias que no dominas: estas aprendiendo Next.js, Temporal, LangChain… y necesitas ejemplos actualizados constantemente.
- Tu equipo usa muchas dependencias: monorepo con 50 librerias, gente rotando entre proyectos. Tener la doc a un query de distancia reduce fricci0f3n.
- Puedes pagar Pro para docs privadas: ahi es donde esta el valor real. Indexar la documentacion interna de tu empresa para que el agente la consulte.
- Usas un modelo con cutoff viejo: si estas con un modelo de hace un year, la doc actualizada marca diferencia.
La alternativa: skill puntual
En Claude Code tengo disponible la skill context7-auto-research que hace exactamente lo
mismo bajo demanda. Si algun dia necesito docs frescas de algo concreto,
la invoco. Sin MCP permanente, sin cargar el contexto, sin gastar
requests del Free tier en automatico.
Es la diferencia entre tener una enciclopedia abierta en la mesa todo el rato (MCP) y saber donde esta la estanteria (skill puntual). Para mi workflow, la estanteria gana.
Conclusion
Context7 es un producto bien hecho. La API funciona, los datos son reales, el trust score filtra basura. Si encaja en tu workflow, usalo.
Pero si ya dominas tu stack, trabajas con codigo propio, y tu LLM tiene training data decente… es una capa mas que no aporta. Y en ingenieria, las capas que no aportan se quitan.
Como decia alguien: la complejidad innecesaria es el enemigo. Incluso cuando viene bien empaquetada.
Comentarios (0)
Sin comentarios todavia. Se el primero!
Deja un comentario