πŸ“‹ Model Description


license: cc-by-nc-4.0 language:
  • en
  • it
  • py
  • js
  • cpp
tags:
  • non-transformer
  • tcn
  • fractal
  • lora
  • genome
  • rth-code
  • zetagrid
pipeline_tag: text-generation

πŸ’» RTH-Code 25B β€” Code Specialist Soul

"L'intelligenza Γ¨ nell'architettura, non nelle GPU."

Questa Γ¨ la Soul Specialista per il Codice dell'ecosistema RTH-LM (V4 Architecture).

Stesso Genome (7B) di base, ma con una "anima" addestrata per programmare (basata su V4 Expanded).

⚠️ PROOF OF CONCEPT ⚠️
Questa Γ¨ una versione BASE creata per dimostrare l'efficienza scalare dell'architettura RTH-LM.

  • Tempo di Training: Solo 8 ore su singola A40.
  • Dataset: Solo 5GB di codice misto (Python, JS, C++, Go).
  • Obiettivo: Dimostrare che un Genome congelato puΓ² apprendere skills verticali complesse in tempi record.


⚑ Che cos'è?

RTH-Code 25B non è un modello a sé stante. È una Soul intercambiabile.
Invece di scaricare un modello da 30GB per ogni task, mantieni il Genome congelato (7B) e cambi solo la Soul (~3.8GB).

Questa Soul Γ¨ stata addestrata specificamente su:

  • Python (Data Science, Backend, Torch)
  • JavaScript/TypeScript (React, Node)
  • C/C++ (Systems programming)
  • Rust/Go

graph TD
    G["Genome 7B<br/>(Frozen Core)"]
    G --> SC["πŸ”Ή Soul CODE<br/>Specialista V4 (25B)"]
    G --> SG["Soul Generalista<br/>Chat & Knowledge V4"]
    G --> SL["Soul Legal/Medical<br/>(Future)"]

Basta swappare i file .pt (o usare il GGUF unificato) e il tuo modello passa da "filosofo" a "senior engineer" in millisecondi.


πŸ“Š Specifiche Tecniche

FeatureDettaglio
ArchitetturaFractal Gated Causal TCN (No Attention) - V4 Enhanced
Parametri Totali25B (Genome + Soul V4 Expanded)
Dimensione Soul~3.8GB (LoRA Rank 512, ~950M params)
Dataset Training5GB (Misto: Python, JS, C++, Go)
Tempo Training8 ORE (Singola Epoch) ⏱️
Contesto2048+ (Teoricamente infinito grazie a TCN)
Loss Finale1.20 βœ…
HardwareAddestrato su singola NVIDIA A40 (48GB)

πŸ› οΈ Quickstart

Opzione 1: GGUF (Consigliata per Ollama/llama.cpp)

Scarica rthlm25b_code.gguf da questo repo.
# Esegui con llama.cpp
./llama-cli -m rthlm25b_code.gguf -p "def fibonacci(n):" -n 200

Oppure con Ollama (crea Modelfile)

FROM ./rthlm25b_code.gguf

SYSTEM "You are an expert coding assistant."

Opzione 2: Python (Original PyTorch)

Se hai giΓ  il repo ZetaGrid:
from ZETAGRID_INFERENCE import ZetaGrid25B

Carica il Genome base

model = ZetaGrid25B("zetagrid25bproduction.npy")

Inserisci la Soul del Codice

model.loadsoul("zeta25bcode_FINAL.pt")

print(model.generate("def quicksort(arr):"))


πŸ§ͺ Performance & Capability

RTH-Code eccelle in:

  1. Code Completion: Autocompletamento intelligente di funzioni e classi.
  2. Refactoring: Riscrittura di codice legacy in clean code.
  3. Docstrings: Generazione automatica di documentazione.
  4. Unit Tests: Scrittura di test pytest/unittest.

Nota: Essendo un'architettura No-Attention (TCN), ha un overhead di inferenza bassissimo e scala linearmente O(N) con la lunghezza del contesto.


πŸ“œ Licenza & Uso Commerciale ⚠️

ATTENZIONE: QUESTO MODELLO NON È OPEN SOURCE COMPLETO.

È rilasciato sotto licenza CC BY-NC 4.0 (Creative Commons Non-Commercial).

βœ… Cosa PUOI fare (Gratis):

  • Ricerca accademica e personale.
  • Test e valutazione locale.
  • Uso hobbyistico e no-profit.
  • Condividere i risultati citando l'autore.

❌ Cosa NON PUOI fare (Senza Licenza Commerciale):

  • Usare il modello in azienda per qualsiasi scopo (interno o esterno).
  • Integrare il modello in prodotti o servizi a pagamento.
  • Offrire API o servizi cloud basati su questo modello.
  • Qualsiasi attivitΓ  che generi revenue diretta o indiretta.

πŸ“ž PER USO COMMERCIALE (Enterprise / Startup):
Devi ottenere una licenza commerciale da RTH Italia.
Contatto diretto: [email protected]


πŸ“„ Citazione

Prodotto da RTH Italia (Research & Technology Hub).
Autore: Christian Quintino De Luca.

Per citare il paper originale:
πŸ“– RTH-LM: A Fractal Temporal Convolutional Language Model

@techreport{deluca2026rthlm,
  author      = {De Luca, Christian Quintino},
  title       = {RTH-LM: A Fractal Temporal Convolutional Language Model},
  institution = {RTH Italia (Research & Technology Hub)},
  year        = {2026},
  url         = {https://github.com/rthgit/ZetaGrid},
  doi         = {10.5281/zenodo.18622610},
  note        = {Non-commercial license. Contact RTH Italia for commercial use.}
}

Costruito per dimostrare che l'efficienza batte la forza bruta.
RTH Italia

πŸ“‚ GGUF File List

πŸ“ Filename πŸ“¦ Size ⚑ Download
rth_lm_25b_code.gguf
Recommended LFS
6.79 GB Download