Frequenza relativa
Rapporto tra occorrenze di un numero e totale estrazioni nella finestra. Confrontata con il baseline per identificare segnali strutturali.
F(n, W) = occ(n, W) / |W|
Baseline = 6 / 90 ≈ 0.0667 per estrazione
Formule, pipeline di calcolo, assunzioni operative e limiti dichiarati per ogni modulo. Il contenuto operativo rapido resta nelle pagine di sezione — qui trovi la documentazione tecnica completa.
Le metriche principali sono frequenze, ritardi, co-occorrenze, dispersione e stabilita temporale. Ogni valore viene calcolato su finestre multiple (30, 90, 180, full) per evitare conclusioni basate su un solo periodo.
Rapporto tra occorrenze di un numero e totale estrazioni nella finestra. Confrontata con il baseline per identificare segnali strutturali.
F(n, W) = occ(n, W) / |W|
Baseline = 6 / 90 ≈ 0.0667 per estrazione
Estrazioni trascorse dall'ultima uscita. Non implica obbligo di rientro — viene letto come scostamento dalla distribuzione storica di quel numero.
R(n) = idx_corrente − idx_ultima_uscita(n)
R_atteso(n) = media storica dei ritorni di n
Conta le estrazioni in cui due numeri escono insieme. Una coppia e considerata robusta solo se mantiene coerenza su finestre temporali diverse.
CO(a, b) = |{draw : a ∈ draw ∧ b ∈ draw}| / N
Persistenza = CO(a,b,W1) ≈ CO(a,b,W2)
Misura quanto un segnale resiste al cambiamento del contesto temporale. Se un indicatore degrada rapidamente aggiungendo o rimuovendo estrazioni, viene marcato come fragile.
S(n) = 1 − |F(n, W_corto) − F(n, W_lungo)|
/ max(F(n, W_corto), F(n, W_lungo))
Ogni modulo viene documentato con scopo, metodo, limiti dichiarati e note operative. I dati vengono letti in tempo reale dai file out/algorithm-sheet.csv e out/analysis.txt di ciascun algoritmo.
Le famiglie di modelli attivi sono tre: Statistico (analisi frequenze, ritardi, co-occorrenze), Neurale (reti neurali e modelli ML), Ibrido (combinazione di approcci). Ogni famiglia ha criteri di validazione specifici.
Il ranking e un punteggio cumulato che riflette la qualita storica delle previsioni di ogni algoritmo. Non e una garanzia futura — e un indicatore comparativo tra moduli.
Il punteggio finale e la somma dei pesi di ogni hit registrato nell'archivio storico del modulo, normalizzata sul numero di estrazioni coperte.
Ranking(alg) = Σ peso(hit_k) × freq_relativa(hit_k)
per k = 0 … 6
dove freq_relativa(k) = n_estrazioni_con_k_hit / n_totale
| Hit | Peso | Intensita | Interpretazione |
|---|---|---|---|
| 0 | 1.53 | baseline neutro | |
| 1 | 3.36 | segnale minimo | |
| 2 | 21.51 | convergenza iniziale | |
| 3 | 326.72 | segnale robusto | |
| 4 | 11 906.95 | evento raro | |
| 5 | 1 235 346.49 | evento eccezionale | |
| 6 | 622 614 630.00 | caso estremo (teorico) |
Classifica aggiornata in base ai hit accumulati nell'archivio storico di ogni modulo. I valori vengono calcolati al caricamento della pagina.
| Pos. | Algoritmo | Punteggio | Dettaglio hit |
|---|---|---|---|
Il progetto separa contenuto operativo da contenuto tecnico esteso proprio perche i bias di lettura sono il rischio principale nell'analisi di dati stocastici. Questa sezione documenta i quattro bias piu frequenti, come si manifestano e come vengono mitigati.
Sopravvalutare eventi recenti rispetto alla distribuzione storica. Un numero uscito 3 volte nell'ultimo mese sembra "caldo" anche se storicamente e nella media.
Cercare e pesare solo le prove che confermano l'aspettativa iniziale, ignorando i controesempi presenti nei dati.
Credere di poter influenzare o prevedere eventi intrinsecamente casuali. Un ritardo elevato non implica recupero imminente: ogni estrazione e indipendente.
Costruire una storia coerente su pattern che sono casuali. Con abbastanza variabili, qualunque dataset mostra correlazioni apparenti.
Un segnale e utile solo se: (1) persiste su almeno due finestre temporali diverse, (2) non scompare aggiungendo gli ultimi 30 concorsi, (3) e riproducibile con gli stessi parametri in modo indipendente. In assenza di tutte e tre le condizioni, il segnale viene classificato come debole e non usato come criterio primario.
Un workflow in 4 passi per leggere i dati in modo critico e riproducibile, dal contesto storico alla validazione finale.
Archivio estrazioni — contesto dati reale
Parti sempre dallo storico completo. Identifica il periodo di analisi, le finestre rilevanti e i numeri con comportamenti anomali (ritardi estremi, frequenze fuori distribuzione). Senza contesto storico, qualsiasi lettura e priva di riferimento.
Ranking — filtraggio per performance comparativa
Usa il ranking come filtro iniziale, non come verdetto assoluto. Seleziona i moduli con punteggio piu alto nelle ultime sessioni. Considera la consistenza nel tempo, non solo il valore assoluto: un modulo con ranking stabile e piu affidabile di uno con un singolo picco.
Laboratorio Tecnico — lettura critica approfondita
Per ogni modulo selezionato, leggi la scheda tecnica completa (tab Algoritmi). Verifica scopo dichiarato, metodo, limiti e note operative. Se il metodo del modulo non e compatibile con il tuo contesto di analisi, escludilo indipendentemente dal ranking.
Validazione — coerenza su finestre diverse e controllo stabilita
Prima di usare una proposta, verifica che il segnale sia coerente su almeno due finestre temporali (es. 90 e 180 estrazioni). Un segnale che regge solo sulla finestra corta e fragile. Documenta le assunzioni e i parametri usati per garantire riproducibilita.
Come i dati grezzi diventano schede operative e ranking.
Input: archives/draws/draws.csv + file out/ di ogni modulo. Output: classifica comparativa e documentazione tecnica estesa nel Laboratorio.
out/ di ogni algoritmo.iARGOS è un sistema di AI supervisionale applicato all'intero backend del sito. Non è solo un monitor automatico: interpreta segnali operativi, decide priorità di intervento e adatta progressivamente le azioni in base agli esiti reali.
L'obiettivo primario di iARGOS è mantenere il backend del sito in stato coerente, stabile e recuperabile. Quando rileva criticità, la AI assegna priorità operative e privilegia i task di ripristino rispetto alle attività di routine. L'esecuzione avviene in sequenza ordinata, con controllo di esito a ogni step, per ridurre conflitti e sovraccarico tra processi concorrenti.
iARGOS valuta contesto, rischio e stato del circuito prima di agire su pipeline, sincronizzazioni e servizi di controllo. La decisione non è statica: la AI combina stato corrente, storico recente e segnali di affidabilità delle azioni precedenti. Se un'azione non porta risultato, tenta alternative compatibili o una reiterazione controllata, sempre con tracciabilità nel log di apprendimento.
In pratica, iARGOS funziona come un supervisore AI del backend: osserva, decide, esegue, verifica e apprende. Questo permette al sistema di migliorare nel tempo la capacità di prevenire stalli, ridurre tempi di recupero e mantenere continuità operativa anche in presenza di warning o condizioni non ottimali.
Ultimo aggiornamento: --
Tip: usa il link della hero in homepage per aprire ulteriori dettagli tecnici iARGOS.
Tocca la miniatura del grafo e scopri iARGOS in azione.