Brand LogoBrand Logo (Dark)
InicioAgentes IAKits de HerramientasSelección de GitHubEnviar AgenteBlog

Categorías

  • Generadores de Arte
  • Generadores de Audio
  • Herramientas de Automatización
  • Chatbots y Agentes IA
  • Herramientas de Código
  • Herramientas Financieras

Categorías

  • Modelos de Lenguaje
  • Herramientas de Marketing
  • No-Code y Low-Code
  • Investigación y Búsqueda
  • Video y Animación
  • Edición de Video

GitHub Selecciones

  • DeerFlow — arnés SuperAgent de código abierto de ByteDance

Últimos Blogs

  • OpenClaw frente a Composer 2 diferencias clave en automatización y codificación
  • Google AI Studio vs Anthropic Console diferencias clave para desarrolladores
  • Stitch 2.0 vs Lovable Cuál es la mejor opción en 2026
  • Guía práctica para monetizar la inteligencia artificial en 2026 como solopreneur o freelancer
  • OpenClaw vs MiniMax ¿Privacidad o comodidad en tu asistente?

Últimos Blogs

  • OpenClaw vs KiloClaw comparación de precios y facilidad de uso
  • OpenClaw vs Kimi Claw
  • GPT-5.4 vs Gemini 3.1 Pro
  • Perplexity Computer desafía a los terminales financieros: ¿El fin de una era en 2026?
  • Mejores prácticas de OpenClaw
LinkStartAI© 2026 LinkstartAI. Todos los derechos reservados.
ContáctanosAcerca de
  1. Inicio
  2. Selección de GitHub
  3. DeerFlow — arnés SuperAgent de código abierto de ByteDance
DeerFlow — arnés SuperAgent de código abierto de ByteDance logo

DeerFlow — arnés SuperAgent de código abierto de ByteDance

Un solo prompt, varios agentes y un entregable completo
26.1kPythonMIT License
#multi-agent#deep-research#langgraph#rag#mcp#sandbox
#llm-orchestration
#code-execution
#report-generation
#podcast-generation
#superagent
#open-source

¿Qué es?

DeerFlow, sigla de 'Deep Exploration and Efficient Research Flow', es el framework abierto y comunitario de investigación profunda lanzado por ByteDance. Se publicó con MIT License en 2025 y evolucionó a la versión 2.0 en marzo de 2026 como un verdadero 'SuperAgent Harness'. Integra modelos de lenguaje, búsqueda web, crawling, ejecución de Python, recuperación RAG y llamadas de herramientas MCP dentro de un flujo con estado construido sobre LangGraph, capaz de dividir tareas complejas en subprocesos paralelos. Incorpora cinco agentes especializados, Coordinator, Planner, Researcher, Coder y Reporter, que operan en sandboxes Docker aislados para generar informes estructurados, presentaciones PowerPoint y audio de pódcast con IA a partir de una sola instrucción.

Problemas vs Innovación

✕Problemas Tradicionales✓Soluciones Innovadoras
Los marcos de agente único como el AutoGPT inicial no descomponen bien tareas complejas de largo horizonte y suelen entrar en bucles o fallar a mitad del procesoLa arquitectura SuperAgent Harness convierte el sistema en una base de orquestación y no en un solo agente, lo que mejora notablemente la extensibilidad
Productos principales como Perplexity y OpenAI Deep Research operan como cajas negras cerradas, con poca capacidad de personalizar LLM, herramientas o estrategia de conocimientoEl sandbox aislado con Docker y sistema de archivos persistente permite ejecutar código, escribir archivos y construir aplicaciones web con seguridad
Muchas canalizaciones abiertas de investigación carecen de sandbox para código y de salida multimodal, por lo que solo entregan texto planoMediante litellm, DeerFlow unifica más de 100 modelos como GPT-4, Claude y Qwen, facilitando el cambio de modelo y el control de costes
Algunos marcos multiagente como CrewAI aún presentan carencias en integración RAG y soporte MCP, lo que encarece la conexión con conocimiento privadoEl enfoque Human-in-the-Loop permite corregir planes en ejecución con lenguaje natural y equilibrar automatización con supervisión humana
-Genera de forma nativa informes, diapositivas PowerPoint y pódcast TTS, superando el formato clásico de salida solo textual

Arquitectura en Profundidad

Motor de flujos con estado sobre LangGraph
La capa de orquestación de DeerFlow se construye sobre LangGraph y usa grafos con estado para representar investigaciones complejas. Cada nodo Agent funciona como una unidad de cómputo independiente y comparte contexto mediante mensajes estructurados, reduciendo el acoplamiento típico de los flujos basados en callbacks. Los checkpoints permiten pausar y reanudar en cualquier nodo, lo que resulta clave para ajustar planes con Human-in-the-Loop. Junto con la depuración visual, esto simplifica el seguimiento del estado en sistemas multiagente.
Sistema jerárquico de roles multiagente
El sistema incorpora cinco roles, Coordinator, Planner, Researcher, Coder y Reporter, responsables del ciclo de vida, la descomposición, la búsqueda, el trabajo de código y la síntesis final. Esta separación convierte la investigación compleja en una canalización bien delimitada. Cada rol recibe solo las herramientas necesarias para su tarea, siguiendo el principio de mínimo privilegio. La comunicación estructurada también mejora la estabilidad entre etapas.
Entorno de ejecución aislado con Docker
DeerFlow 2.0 utiliza contenedores Docker aislados para ofrecer una frontera segura de ejecución, junto con sistema de archivos persistente y acceso Bash. Los agentes pueden ejecutar Python, instalar dependencias, escribir archivos y crear aplicaciones web sin contaminar el host. El estado del sandbox se conserva durante toda la tarea, lo que facilita reutilizar resultados intermedios. Con compuertas de aprobación, el modelo encaja mejor en despliegues empresariales seguros.
Capa abstracta agnóstica al modelo con litellm
Mediante litellm, el sistema unifica el acceso a OpenAI, Claude, Qwen, Ollama y otros modelos bajo una sola interfaz. Las tareas complejas pueden dirigirse a modelos potentes y las ligeras a opciones más baratas. Así se mantiene la calidad mientras se optimiza el coste de inferencia. El cambio de modelo ocurre sobre todo por configuración, reduciendo la fricción entre nubes y entornos privados.
Expansión de conocimiento por doble canal RAG y MCP
DeerFlow ofrece dos canales complementarios, RAG y MCP, para incorporar conocimiento más allá de la web pública. En RAG puede conectarse a bases como RAGFlow y VikingDB e inyectar los resultados en el contexto del agente. En MCP puede usar servidores externos para exponer dominios privados, grafos de conocimiento y herramientas internas. Esta doble vía vuelve al sistema útil tanto para investigación abierta como para flujos de conocimiento corporativo.

Guía de Despliegue

1. Clona el repositorio e instala las dependencias del backend. Requiere Python 3.12 o superior

bash
1git clone https://github.com/bytedance/deer-flow.git && cd deer-flow && pip install -r requirements.txt

2. Copia la plantilla de variables de entorno y configura las claves API del LLM y las credenciales de búsqueda

bash
1cp .env.example .env2# Edita .env e introduce OPENAI_API_KEY o ANTHROPIC_API_KEY, y TAVILY_API_KEY

3. Inicia el servicio backend. El puerto predeterminado es 8000

bash
1uvicorn src.app:app --host 0.0.0.0 --port 8000 --reload

4. Instala las dependencias del frontend y arranca el servidor de desarrollo Next.js. Requiere Node.js 18 o superior

bash
1cd web && npm install && npm run dev

5. Opcionalmente, lanza la pila completa y el sandbox con Docker Compose

bash
1docker compose up -d

Casos de Uso

Escenario PrincipalPúblico ObjetivoSoluciónResultado
[Investigación de inteligencia competitiva]Analistas de mercado y equipos de estrategiaAl introducir el nombre de un competidor, los agentes Researcher recopilan resultados, noticias y lanzamientos, Coder compara los datos y Reporter genera informe con gráficos y PPTReduce un trabajo manual de 2 a 3 días a una escala de 30 minutos, con mayor cobertura y actualidad
[Generación de revisión bibliográfica]Investigadores universitarios y autores de tesisAl introducir palabras clave, el sistema busca artículos y fuentes web y las combina con una base RAG privada para resumir métodos, hallazgos y vacíosProduce revisiones estructuradas con mayor velocidad y menos riesgo de omisiones
[Canalización automatizada de marketing de contenidos]Equipos de contenido y creadores independientesTras definir un tema, DeerFlow automatiza investigación, redacción, gráficos y generación de pódcast y diapositivasPermite a una sola persona producir contenido multimodal que antes requería un equipo coordinado

Limitaciones y Consideraciones

Limitaciones y Consideraciones
  • La configuración del sandbox Docker en hosts Windows sigue siendo compleja y en WSL2 puede añadir carga de depuración de red o CORS
  • La ejecución multiagente en paralelo eleva de forma notable el consumo de tokens y puede volver costosa la investigación profunda con APIs comerciales
  • La integración RAG actual está más orientada a RAGFlow y VikingDB, por lo que los equipos con otras pilas vectoriales afrontan costes de adaptación
  • Human-in-the-Loop se centra en corregir planes con lenguaje natural y todavía ofrece poco control fino sobre cada nodo de decisión
  • La calidad de los pódcast y de las diapositivas PowerPoint depende del motor TTS y de las plantillas, de modo que los casos exigentes requieren retoque manual

Preguntas Frecuentes

¿Cuál es la diferencia central entre DeerFlow y OpenAI Deep Research?▾
DeerFlow es un framework abierto y autohospedable donde el equipo controla modelos, herramientas y flujo de datos. OpenAI Deep Research se parece más a un producto cloud cerrado, mientras DeerFlow añade ejecución real de código en Docker y mayor flexibilidad de despliegue privado.
¿Cuáles son las mejoras clave de DeerFlow 2.0 frente a 1.0?▾
La versión 2.0 deja de ser solo una herramienta de investigación y pasa a ser un SuperAgent Harness. Sus cambios principales son sandbox Docker, sistemas separados de Memory y Skills, orquestación multinivel de SubAgents y una estructura backend más apta para empresa.
¿Puede desplegarse en un entorno privado totalmente desconectado?▾
Sí. Basta con mover los modelos a Ollama local y desactivar o sustituir la búsqueda externa; además, RAG puede enlazarse con instancias internas. Aun así, la calidad dependerá de forma importante del rendimiento del modelo local.
¿Dónde están los límites de seguridad del sandbox?▾
El aislamiento base lo aporta Docker, por lo que el código no debería contaminar el host de forma directa. La limitación conocida es que la preautorización basada en políticas aún no es completa, así que en producción conviene activar compuertas de aprobación.
¿Cómo se conectan herramientas privadas o APIs internas?▾
Las dos rutas habituales son exponerlas mediante un MCP Server o registrar Tools personalizados en la capa backend Harness. La primera favorece servicios reutilizables y la segunda encaja mejor con capacidades internas muy acopladas al negocio.
¿Cómo se compara con CrewAI y AutoGen?▾
DeerFlow destaca por la orquestación con estado de LangGraph, el sandbox de nivel Docker y la entrega combinada de informe, PPT y pódcast. CrewAI está más orientado a pipelines por roles, AutoGen a negociación conversacional, y DeerFlow resulta más sólido en depuración visual, reanudación y soporte RAG nativo.
¿Soporta historial conversacional?▾
Sí. Conversation History forma parte de la capa Memory de la era 2.0 y hace más natural la investigación continua en proyectos de varias iteraciones.
¿En qué se diferencia la ruta con Dify de la ruta RAG nativa de DeerFlow?▾
La vía Dify encaja mejor en equipos que ya gestionan conocimiento y aplicaciones dentro de Dify. La vía nativa con RAGFlow es más directa para quienes quieren integrar la recuperación dentro del flujo de DeerFlow con menos capas intermedias.
Ver en GitHub

Métricas del Proyecto

Estrellas26.1 k
LenguajePython
LicenciaMIT License
Dificultad de DespliegueMedio

Table of Contents

  1. 01¿Qué es?
  2. 02Problemas vs Innovación
  3. 03Arquitectura en Profundidad
  4. 04Guía de Despliegue
  5. 05Casos de Uso
  6. 06Limitaciones y Consideraciones
  7. 07Preguntas Frecuentes

Proyectos Relacionados

nanobot
nanobot
22.5 k·Python
claude-mem
claude-mem
29.7 k·TypeScript
Awesome LLM Apps
Awesome LLM Apps
96.4 k·Python
RAG_Techniques
RAG_Techniques
25.5 k·Jupyter Notebook