Brand LogoBrand Logo (Dark)
InicioAgentes IAKits de HerramientasSelección de GitHubEnviar AgenteBlog

Categorías

  • Generadores de Arte
  • Generadores de Audio
  • Herramientas de Automatización
  • Chatbots y Agentes IA
  • Herramientas de Código
  • Herramientas Financieras

Categorías

  • Modelos de Lenguaje
  • Herramientas de Marketing
  • No-Code y Low-Code
  • Investigación y Búsqueda
  • Video y Animación
  • Edición de Video

GitHub Selecciones

  • DeerFlow — arnés SuperAgent de código abierto de ByteDance

Últimos Blogs

  • OpenClaw frente a Composer 2 diferencias clave en automatización y codificación
  • Google AI Studio vs Anthropic Console diferencias clave para desarrolladores
  • Stitch 2.0 vs Lovable Cuál es la mejor opción en 2026
  • Guía práctica para monetizar la inteligencia artificial en 2026 como solopreneur o freelancer
  • OpenClaw vs MiniMax ¿Privacidad o comodidad en tu asistente?

Últimos Blogs

  • OpenClaw vs KiloClaw comparación de precios y facilidad de uso
  • OpenClaw vs Kimi Claw
  • GPT-5.4 vs Gemini 3.1 Pro
  • Perplexity Computer desafía a los terminales financieros: ¿El fin de una era en 2026?
  • Mejores prácticas de OpenClaw
LinkStartAI© 2026 LinkstartAI. Todos los derechos reservados.
ContáctanosAcerca de
  1. Inicio
  2. Selección de GitHub
  3. Kronos
Kronos logo

Kronos

Foundation model open source para OHLCV: discretiza velas en tokens jerárquicos y entrena un Transformer autorregresivo.
8.4kPythonMIT License
#python#pytorch#transformer#pronostico-series-temporales#velas-financieras
#ohlcv
#tokenizador-discreto
#modelo-autoregresivo
#investigacion-cuant
#modelado-mercado
#fine-tuning
#foundation-model

¿Qué es?

Kronos trata las velas financieras como un “lenguaje” aprendible. Primero cuantiza OHLCV continuo y multidimensional en tokens discretos jerárquicos con un tokenizador dedicado, y luego preentrena un Transformer autorregresivo tipo decoder sobre secuencias de tokens para unificar predicción, generación y tareas cuantitativas. Los pesos y el tokenizador se descargan desde Hugging Face y un Predictor empaqueta normalización, truncado, muestreo e inversión en un pipeline reutilizable. Para ajustar a tu universo de activos o frecuencia, puedes organizar datos y backtests con Qlib y ejecutar fine-tuning en dos etapas (tokenizador + predictor) con torchrun manteniendo regresión y comparabilidad.

Problemas vs Innovación

✕Problemas Tradicionales✓Soluciones Innovadoras
Al alimentar series financieras crudas a modelos generales, el ruido y cambios de escala rompen supuestos; la distribución deriva entre mercados y frecuencias.Kronos aplica tokenización discreta + preentrenamiento autorregresivo para transformar OHLCV continuo en un lenguaje de tokens más estable y transferible.
En pipelines clásicos, discretización, normalización, muestreo y evaluación quedan dispersos en scripts, y los experimentos no se reproducen bien.Un Predictor y scripts de fine-tuning convierten entrenamiento, inferencia y evaluación en pipelines configurables para A/B y regresión.

Arquitectura en Profundidad

Paradigma de modelado discreto en dos etapas
Cuantiza OHLCV continuo en tokens discretos jerárquicos y preentrena un modelo autorregresivo sobre secuencias, creando un vocabulario aprendible para el mercado.
Flujo de datos a predicción
Tabla de velas→tokenización→muestreo autorregresivo→inversión de transformaciones. Predictor unifica truncado, temperatura/Top-p y promedios multi-muestra.
Stack clave para fine-tuning y backtesting
Enfoque Python-first con PyTorch distribuido (torchrun). Preparación de datos y backtests pueden integrarse con Qlib para regresión y comparabilidad.

Guía de Despliegue

1. Clonar el repo y crear entorno Python

bash
1git clone https://github.com/shiyu-coder/Kronos.git && cd Kronos && python -m venv .venv && . .venv/bin/activate

2. Instalar dependencias

bash
1pip install -U pip && pip install -r requirements.txt

3. Cargar modelo/tokenizador desde Hugging Face y ejecutar ejemplo

bash
1python examples/prediction_example.py

4. (Opcional) Instalar Qlib y preparar datos para fine-tuning/backtests

bash
1pip install pyqlib && python finetune/qlib_data_preprocess.py

5. (Opcional) Ejecutar fine-tuning en dos etapas con torchrun

bash
1torchrun --standalone --nproc_per_node=2 finetune/train_tokenizer.py && torchrun --standalone --nproc_per_node=2 finetune/train_predictor.py

Casos de Uso

Escenario PrincipalPúblico ObjetivoSoluciónResultado
Baseline de predicción para investigación cuantinvestigadores quantmodelar velas multi-activo como secuencias de tokens y comparar pronósticositeración rápida con evaluación reproducible
Aprendizaje de representación entre mercadosequipos multi-mercadoalinear frecuencia y escala con un tokenizador unificadomenos retrabajo por deriva y transferencia operacional
Señales y backtests en un mismo pipelineengineering de estrategiaconvertir pronósticos en señales y correr backtestsbucle entrenar→inferir→evaluar con regresión y comparaciones

Limitaciones y Consideraciones

Limitaciones y Consideraciones
  • La inferencia puede correr en CPU, pero el fine-tuning y cargas batch se benefician de GPU y entrenamiento distribuido; planifica presupuesto de cómputo.
  • Usar pronósticos crudos como alpha introduce riesgo estructural: añade costes, slippage y restricciones para evitar sobreajuste en backtests.
  • La calidad de datos y reglas del mercado varían; decisiones del tokenizador y limpieza suelen dominar el techo de rendimiento.

Preguntas Frecuentes

¿Kronos es para trading o para research?▾
Kronos encaja como base de señal y representación. Para trading necesitas costes, slippage y restricciones de cartera, además de checks de deriva y regresión para evitar sobreajuste.
¿Necesito GPU?▾
No estrictamente. Inferencia y pruebas pequeñas pueden ir en CPU; para batch forecasting y fine-tuning en dos etapas, GPU y torchrun distribuido mejoran throughput y estabilidad.
¿Cómo hago fine-tuning con mis datos?▾
Estandariza OHLCV (zona horaria, huecos, ajustes), fija splits y métricas con Qlib, luego afina tokenizador y predictor en dos etapas y compara en un set de evaluación fijo para regresión.
Ver en GitHub

Métricas del Proyecto

Estrellas8.4 k
LenguajePython
LicenciaMIT License
Dificultad de DespliegueMedio

Table of Contents

  1. 01¿Qué es?
  2. 02Problemas vs Innovación
  3. 03Arquitectura en Profundidad
  4. 04Guía de Despliegue
  5. 05Casos de Uso
  6. 06Limitaciones y Consideraciones
  7. 07Preguntas Frecuentes

Proyectos Relacionados

nanobot
nanobot
22.5 k·Python
DeerFlow — arnés SuperAgent de código abierto de ByteDance
DeerFlow — arnés SuperAgent de código abierto de ByteDance
26.1 k·Python
gstack
gstack
0·TypeScript
Marketing for Founders
Marketing for Founders
2.2 k·Markdown