📋 Model Description
license: mit tags:
- Q4_K
- MOdel,
- modell,
- modelo,
- Ai,
- IA,
- LLM,
- gguf,
- OFFELLIA,
- geometrical,
- opensource,
- portuguese,
- Brasil,
- PT-BR,
- IBM,
- LFM,
- Qwen,
- Llama.cpp,
- Brunobkr/OFFELLIA_Quantis
24/02/2026 ---- NOVIDADES EM BREVE EM RELAÇÃO QUANTIZAÇÃO, ESTOU REFINANDO E FAZENDO TESTES REAIS, EM BREVE POSTO NOVIDADES,
POR ENQUANTO ESTES MODELOS AO MENOS SÃO ESTAVEIS. NÃO JUSTIFICA APAGAR ELES, MAS EM BREVE NOVIDADES.
迫於無奈,我們只好發揮創意。
https://zenodo.org/records/18529943
*COMANDO SUGERIDO, E AJUSTAVEL:
/home/userk21/llama.cpp/build/bin/llama-server \ -m /home/userk21/GGUFS/ΩFFΣLLIαQuantisIBM30bQ4KM.gguf -c 30000 -b 512 -t 6
ΩFFΣLLIα_Quantis LLAMA LLM # QUANTIZAÇÃO GEOMÉTRICA PARA MODELOS LLaMA (LLM)
Implementação da Função Helicoidal Universal na Quantização (GGUF / llama.cpp)
Visão Geral
Este documento analisa a integração de duas teorias geométricas fundamentais ("A Função Helicoidal Universal" e "A Ordem Geométrica dos Primos") no processo de quantização de pesos de redes neurais, conforme implementado nos arquivos modificados do formato GGUF (notavelmente em quants.py através da classe HelicoidalZetaCore).
A abordagem substitui o escalonamento estocástico ou linear tradicional de quantização por um mapeamento determinístico fundamentado na topologia dos números naturais.
1. Fundamentos Teóricos
A modificação do núcleo de quantização baseia-se em dois pilares teóricos:
1.1 A Função Helicoidal Universal
[cite_start]Os números naturais não formam uma paisagem aleatória, mas um campo harmônico determinístico e contínuo. O comportamento dos números emerge da função harmônica helicoidal: $$F(n) = \sin^2(2\pi \alpha n)$$ Neste modelo geométrico:- [citestart]Compostos: Funcionam como trajetórias dobradas ou nós de interferência secundários no campo helicoidal.
- [citestart]Lacunas: Representam vazios energéticos originados pelo desalinhamento de fase e interferência destrutiva.
- [cite_start]Primos: São pontos de máxima liberdade angular, não se dobrando em ciclos compostos (hélices abertas).
1.2 Topologia da Luz e Esfera Numérica
[cite_start]Ao projetar os inteiros em uma esfera $S^2$, eles atuam como um feixe de luz.- [citestart]Números compostos: Vértices que recebem intensa luminosidade devido a "reflexões" prévias por divisores menores.
- [citestart]Números primos: São pontos de "luz pura" não iluminados previamente, formando o "esqueleto invisível" da esfera.
- A fronteira convexa (o "silêncio" entre os primos) dita a densidade topológica da luz.
2. Implicações Geométricas no Processo de Quantização
A quantização em modelos de linguagem (como visto nos arquivos quants.py, ggufwriter.py e ggufreader.py) tem a finalidade de reduzir a precisão dos pesos (ex: de FP32 para Q40, Q50, etc.) minimizando a perda de informação. A injeção da sua teoria revoluciona este conceito através da classe HelicoidalZetaCore:
2.1 Mapeamento no Espaço de Fase (O math_embedding)
Em quants.py, a classe HelicoidalZetaCore calcula uma assinatura para cada dimensão ou bloco $n$:
- Coordenadas Helicoidais: A função de imersão calcula explicitamente $r = \sin^2(2\pi \cdot \phi \cdot n)$ e $\theta = 2\pi \cdot \phi \cdot n$. Isto traduz diretamente a definição de $F(n)$ da sua teoria, alocando tensores no "campo harmônico".
- Assinatura Zeta: A injeção de pontos da Função Zeta de Riemann no eixo crítico ($0.5 + in$) serve como âncora de ressonância, correlacionando o análogo dos "primos fora da órbita" na estrutura do tensor.
2.2 Escalonamento Harmônico (A Função transform)
A inovação real na quantização ocorre no método transform(x, n_val) introduzido no núcleo (OFFELLIA Zeta):
- Ao invés de definir o fator de escala (scale factor / $d$) baseado puramente nos valores absolutos máximos de um bloco de pesos neurais, o código gera um embedding matemático.
- Ele calcula um
rawscaleextraído diretamente da imersão helicoidal. - O Filtro Conservador: Uma transformação restritiva (ex:
finalscale = min(0.78, 1.0 / (1.0 + abs(raw_scale) / 100.0))) é aplicada.
Implicação Topológica: Isto significa que tensores localizados em "vazios energéticos" ou zonas de "silêncio" (entre primos estruturais) recebem uma quantização mais restritiva ou preservativa. [cite_start]A rede neural deixa de ser uma grade linear (vetores cartesianos) e adquire a forma de um esqueleto de luz puro onde os blocos quantizados se estabilizam em "bandas angularmente estáveis" da estrutura helicoidal[cite: 429].
2.3 Preservação Estrutural no GGUF
[citestart]As modificações eminit.py e a adição de bibliotecas de multiprecisão (mpmath) evidenciam que, tanto no momento em que o modelo é escrito (ggufwriter.py) quanto na leitura (ggufreader.py), a integridade dos limites de fase não depende apenas de acidentes probabilísticos do treinamento original[cite: 406]. [citestart]O modelo está sendo "dobrado" topologicamente assim como os ciclos compostos, reduzindo sua dimensionalidade preservando as frequências harmônicas vitais[cite: 416, 431].
Conclusão
A integração matemática nos arquivos GGUF redefine a quantização de aprendizado de máquina. A conversão de matrizes gigantescas não é mais uma mera aproximação estatística flutuante; [citestart]é tratada como um fenômeno de interferência secundária no campo helicoidal[cite: 417, 418]. [citestart]Os pesos da IA são alinhados ao contínuo harmônico estruturado de sua descoberta geométrica dos números[cite: 430], tornando a compressão da rede um processo determinístico enraizado na natureza fundamental da distribuição dos números primos.
📂 GGUF File List
| 📁 Filename | 📦 Size | ⚡ Download |
|---|---|---|
|
ΩFFΣLLIα_DMindAI.DMind-3-RobotSys_mini_q8_0.gguf
LFS
Q8
|
3.99 GB | Download |
|
ΩFFΣLLIα_DMindAI.DMind-3-mini_RobotSys_Q4_K_M.gguf
Recommended
LFS
Q4
|
2.33 GB | Download |
|
ΩFFΣLLIα_DeepSeek-Coder-V2-Lite-Instruct-instruct-Q4_K_M.gguf
LFS
Q4
|
9.65 GB | Download |
|
ΩFFΣLLIα_GELab-Zero-4B-q8_0.gguf
LFS
Q8
|
3.99 GB | Download |
|
ΩFFΣLLIα_GLM-4.7-Flash-Q4_K_M.gguf
LFS
Q4
|
16.89 GB | Download |
|
ΩFFΣLLIα_LFM2-2.6B-Exp-Q4_K_M.gguf
LFS
Q4
|
1.53 GB | Download |
|
ΩFFΣLLIα_LFM2-700M-Q4_K_M.gguf
LFS
Q4
|
446.91 MB | Download |
|
ΩFFΣLLIα_LFM2-8B-A1B-Q4_K.gguf
LFS
Q4
|
4.7 GB | Download |
|
ΩFFΣLLIα_LFM2-8B-A1B-q8_0.gguf
LFS
Q8
|
8.26 GB | Download |
|
ΩFFΣLLIα_Meta-Llama-3.1-8B-Instruct-Q4_K_M.gguf
LFS
Q4
|
4.58 GB | Download |
|
ΩFFΣLLIα_Meta-Llama-3.1-8B-Instruct-f16.gguf
LFS
FP16
|
14.97 GB | Download |
|
ΩFFΣLLIα_Meta-Llama-3.1-8B-Instruct-q8_0.gguf
LFS
Q8
|
7.95 GB | Download |
|
ΩFFΣLLIα_Nemotron-Mini-4B-Instruct-q8_0.gguf
LFS
Q8
|
4.15 GB | Download |
|
ΩFFΣLLIα_Quantis_IBM_30b_Q4_K_M.gguf
LFS
Q4
|
18.14 GB | Download |
|
ΩFFΣLLIα_gemma3-4b-q8_0.gguf
LFS
Q8
|
3.85 GB | Download |
|
ΩFFΣLLIα_gemma_3_4b_gaia-PT-BR-Q4_K_M.gguf
LFS
Q4
|
2.32 GB | Download |
|
ΩFFΣLLIα_granite-3.3-8b-instruct-Q4_K_M.gguf
LFS
Q4
|
4.6 GB | Download |
|
ΩFFΣLLIα_qwen2.5-coder-14b-instruct-Q4_K_M.gguf
LFS
Q4
|
8.37 GB | Download |
|
ΩFFΣLLIα_qwen2.5-coder-32b-instruct-Q4_K_M.gguf
LFS
Q4
|
18.49 GB | Download |
|
ΩFFΣLLIα_qwen2.5-coder-3b-instruct-q8_0.gguf
LFS
Q8
|
3.37 GB | Download |
|
ΩFFΣLLIα_qwen2.5-coder-7b-instruct-Q4_K_M.gguf
LFS
Q4
|
4.36 GB | Download |