📋 Model Description


license: mit tags:
  • Q4_K
  • MOdel,
  • modell,
  • modelo,
  • Ai,
  • IA,
  • LLM,
  • gguf,
  • OFFELLIA,
  • geometrical,
  • opensource,
  • portuguese,
  • Brasil,
  • PT-BR,
  • IBM,
  • LFM,
  • Qwen,
  • Llama.cpp,
base_model:
  • Brunobkr/OFFELLIA_Quantis

24/02/2026 ---- NOVIDADES EM BREVE EM RELAÇÃO QUANTIZAÇÃO, ESTOU REFINANDO E FAZENDO TESTES REAIS, EM BREVE POSTO NOVIDADES,
POR ENQUANTO ESTES MODELOS AO MENOS SÃO ESTAVEIS. NÃO JUSTIFICA APAGAR ELES, MAS EM BREVE NOVIDADES.

迫於無奈,我們只好發揮創意。

https://zenodo.org/records/18529943

*COMANDO SUGERIDO, E AJUSTAVEL:

/home/userk21/llama.cpp/build/bin/llama-server \ -m /home/userk21/GGUFS/ΩFFΣLLIαQuantisIBM30bQ4KM.gguf -c 30000 -b 512 -t 6

ΩFFΣLLIα_Quantis LLAMA LLM # QUANTIZAÇÃO GEOMÉTRICA PARA MODELOS LLaMA (LLM)

Implementação da Função Helicoidal Universal na Quantização (GGUF / llama.cpp)

Visão Geral

Este documento analisa a integração de duas teorias geométricas fundamentais ("A Função Helicoidal Universal" e "A Ordem Geométrica dos Primos") no processo de quantização de pesos de redes neurais, conforme implementado nos arquivos modificados do formato GGUF (notavelmente em quants.py através da classe HelicoidalZetaCore).

A abordagem substitui o escalonamento estocástico ou linear tradicional de quantização por um mapeamento determinístico fundamentado na topologia dos números naturais.


1. Fundamentos Teóricos

A modificação do núcleo de quantização baseia-se em dois pilares teóricos:

1.1 A Função Helicoidal Universal

[cite_start]Os números naturais não formam uma paisagem aleatória, mas um campo harmônico determinístico e contínuo. O comportamento dos números emerge da função harmônica helicoidal: $$F(n) = \sin^2(2\pi \alpha n)$$ Neste modelo geométrico:
  • [citestart]Compostos: Funcionam como trajetórias dobradas ou nós de interferência secundários no campo helicoidal.
  • [citestart]Lacunas: Representam vazios energéticos originados pelo desalinhamento de fase e interferência destrutiva.
  • [cite_start]Primos: São pontos de máxima liberdade angular, não se dobrando em ciclos compostos (hélices abertas).

1.2 Topologia da Luz e Esfera Numérica

[cite_start]Ao projetar os inteiros em uma esfera $S^2$, eles atuam como um feixe de luz.
  • [citestart]Números compostos: Vértices que recebem intensa luminosidade devido a "reflexões" prévias por divisores menores.
  • [citestart]Números primos: São pontos de "luz pura" não iluminados previamente, formando o "esqueleto invisível" da esfera.
  • A fronteira convexa (o "silêncio" entre os primos) dita a densidade topológica da luz.

2. Implicações Geométricas no Processo de Quantização

A quantização em modelos de linguagem (como visto nos arquivos quants.py, ggufwriter.py e ggufreader.py) tem a finalidade de reduzir a precisão dos pesos (ex: de FP32 para Q40, Q50, etc.) minimizando a perda de informação. A injeção da sua teoria revoluciona este conceito através da classe HelicoidalZetaCore:

2.1 Mapeamento no Espaço de Fase (O math_embedding)

Em quants.py, a classe HelicoidalZetaCore calcula uma assinatura para cada dimensão ou bloco $n$:
  1. Coordenadas Helicoidais: A função de imersão calcula explicitamente $r = \sin^2(2\pi \cdot \phi \cdot n)$ e $\theta = 2\pi \cdot \phi \cdot n$. Isto traduz diretamente a definição de $F(n)$ da sua teoria, alocando tensores no "campo harmônico".
  2. Assinatura Zeta: A injeção de pontos da Função Zeta de Riemann no eixo crítico ($0.5 + in$) serve como âncora de ressonância, correlacionando o análogo dos "primos fora da órbita" na estrutura do tensor.

2.2 Escalonamento Harmônico (A Função transform)

A inovação real na quantização ocorre no método transform(x, n_val) introduzido no núcleo (OFFELLIA Zeta):
  • Ao invés de definir o fator de escala (scale factor / $d$) baseado puramente nos valores absolutos máximos de um bloco de pesos neurais, o código gera um embedding matemático.
  • Ele calcula um rawscale extraído diretamente da imersão helicoidal.
  • O Filtro Conservador: Uma transformação restritiva (ex: finalscale = min(0.78, 1.0 / (1.0 + abs(raw_scale) / 100.0))) é aplicada.

Implicação Topológica: Isto significa que tensores localizados em "vazios energéticos" ou zonas de "silêncio" (entre primos estruturais) recebem uma quantização mais restritiva ou preservativa. [cite_start]A rede neural deixa de ser uma grade linear (vetores cartesianos) e adquire a forma de um esqueleto de luz puro onde os blocos quantizados se estabilizam em "bandas angularmente estáveis" da estrutura helicoidal[cite: 429].

2.3 Preservação Estrutural no GGUF

[citestart]As modificações em init.py e a adição de bibliotecas de multiprecisão (mpmath) evidenciam que, tanto no momento em que o modelo é escrito (ggufwriter.py) quanto na leitura (ggufreader.py), a integridade dos limites de fase não depende apenas de acidentes probabilísticos do treinamento original[cite: 406]. [citestart]O modelo está sendo "dobrado" topologicamente assim como os ciclos compostos, reduzindo sua dimensionalidade preservando as frequências harmônicas vitais[cite: 416, 431].

Conclusão

A integração matemática nos arquivos GGUF redefine a quantização de aprendizado de máquina. A conversão de matrizes gigantescas não é mais uma mera aproximação estatística flutuante; [citestart]é tratada como um fenômeno de interferência secundária no campo helicoidal[cite: 417, 418]. [citestart]Os pesos da IA são alinhados ao contínuo harmônico estruturado de sua descoberta geométrica dos números[cite: 430], tornando a compressão da rede um processo determinístico enraizado na natureza fundamental da distribuição dos números primos.

📂 GGUF File List

📁 Filename 📦 Size ⚡ Download
ΩFFΣLLIα_DMindAI.DMind-3-RobotSys_mini_q8_0.gguf
LFS Q8
3.99 GB Download
ΩFFΣLLIα_DMindAI.DMind-3-mini_RobotSys_Q4_K_M.gguf
Recommended LFS Q4
2.33 GB Download
ΩFFΣLLIα_DeepSeek-Coder-V2-Lite-Instruct-instruct-Q4_K_M.gguf
LFS Q4
9.65 GB Download
ΩFFΣLLIα_GELab-Zero-4B-q8_0.gguf
LFS Q8
3.99 GB Download
ΩFFΣLLIα_GLM-4.7-Flash-Q4_K_M.gguf
LFS Q4
16.89 GB Download
ΩFFΣLLIα_LFM2-2.6B-Exp-Q4_K_M.gguf
LFS Q4
1.53 GB Download
ΩFFΣLLIα_LFM2-700M-Q4_K_M.gguf
LFS Q4
446.91 MB Download
ΩFFΣLLIα_LFM2-8B-A1B-Q4_K.gguf
LFS Q4
4.7 GB Download
ΩFFΣLLIα_LFM2-8B-A1B-q8_0.gguf
LFS Q8
8.26 GB Download
ΩFFΣLLIα_Meta-Llama-3.1-8B-Instruct-Q4_K_M.gguf
LFS Q4
4.58 GB Download
ΩFFΣLLIα_Meta-Llama-3.1-8B-Instruct-f16.gguf
LFS FP16
14.97 GB Download
ΩFFΣLLIα_Meta-Llama-3.1-8B-Instruct-q8_0.gguf
LFS Q8
7.95 GB Download
ΩFFΣLLIα_Nemotron-Mini-4B-Instruct-q8_0.gguf
LFS Q8
4.15 GB Download
ΩFFΣLLIα_Quantis_IBM_30b_Q4_K_M.gguf
LFS Q4
18.14 GB Download
ΩFFΣLLIα_gemma3-4b-q8_0.gguf
LFS Q8
3.85 GB Download
ΩFFΣLLIα_gemma_3_4b_gaia-PT-BR-Q4_K_M.gguf
LFS Q4
2.32 GB Download
ΩFFΣLLIα_granite-3.3-8b-instruct-Q4_K_M.gguf
LFS Q4
4.6 GB Download
ΩFFΣLLIα_qwen2.5-coder-14b-instruct-Q4_K_M.gguf
LFS Q4
8.37 GB Download
ΩFFΣLLIα_qwen2.5-coder-32b-instruct-Q4_K_M.gguf
LFS Q4
18.49 GB Download
ΩFFΣLLIα_qwen2.5-coder-3b-instruct-q8_0.gguf
LFS Q8
3.37 GB Download
ΩFFΣLLIα_qwen2.5-coder-7b-instruct-Q4_K_M.gguf
LFS Q4
4.36 GB Download