Paradigma de modelado discreto en dos etapas
Cuantiza OHLCV continuo en tokens discretos jerárquicos y preentrena un modelo autorregresivo sobre secuencias, creando un vocabulario aprendible para el mercado.
Kronos trata las velas financieras como un “lenguaje” aprendible. Primero cuantiza OHLCV continuo y multidimensional en tokens discretos jerárquicos con un tokenizador dedicado, y luego preentrena un Transformer autorregresivo tipo decoder sobre secuencias de tokens para unificar predicción, generación y tareas cuantitativas. Los pesos y el tokenizador se descargan desde Hugging Face y un Predictor empaqueta normalización, truncado, muestreo e inversión en un pipeline reutilizable. Para ajustar a tu universo de activos o frecuencia, puedes organizar datos y backtests con Qlib y ejecutar fine-tuning en dos etapas (tokenizador + predictor) con torchrun manteniendo regresión y comparabilidad.
| ✕Problemas Tradicionales | ✓Soluciones Innovadoras |
|---|---|
| Al alimentar series financieras crudas a modelos generales, el ruido y cambios de escala rompen supuestos; la distribución deriva entre mercados y frecuencias. | Kronos aplica tokenización discreta + preentrenamiento autorregresivo para transformar OHLCV continuo en un lenguaje de tokens más estable y transferible. |
| En pipelines clásicos, discretización, normalización, muestreo y evaluación quedan dispersos en scripts, y los experimentos no se reproducen bien. | Un Predictor y scripts de fine-tuning convierten entrenamiento, inferencia y evaluación en pipelines configurables para A/B y regresión. |
1git clone https://github.com/shiyu-coder/Kronos.git && cd Kronos && python -m venv .venv && . .venv/bin/activate1pip install -U pip && pip install -r requirements.txt1python examples/prediction_example.py1pip install pyqlib && python finetune/qlib_data_preprocess.py1torchrun --standalone --nproc_per_node=2 finetune/train_tokenizer.py && torchrun --standalone --nproc_per_node=2 finetune/train_predictor.py| Escenario Principal | Público Objetivo | Solución | Resultado |
|---|---|---|---|
| Baseline de predicción para investigación cuant | investigadores quant | modelar velas multi-activo como secuencias de tokens y comparar pronósticos | iteración rápida con evaluación reproducible |
| Aprendizaje de representación entre mercados | equipos multi-mercado | alinear frecuencia y escala con un tokenizador unificado | menos retrabajo por deriva y transferencia operacional |
| Señales y backtests en un mismo pipeline | engineering de estrategia | convertir pronósticos en señales y correr backtests | bucle entrenar→inferir→evaluar con regresión y comparaciones |
