Laboratorio Tecnico

Laboratorio Tecnico

Base tecnica documentata e verificabile

Formule, pipeline di calcolo, assunzioni operative e limiti dichiarati per ogni modulo. Il contenuto operativo rapido resta nelle pagine di sezione — qui trovi la documentazione tecnica completa.

30+ Algoritmi documentati
27 anni Storico analizzato
5 Sezioni tecniche
4 Bias documentati
3 Famiglie di modelli

Fondamenti statistici con formule

Le metriche principali sono frequenze, ritardi, co-occorrenze, dispersione e stabilita temporale. Ogni valore viene calcolato su finestre multiple (30, 90, 180, full) per evitare conclusioni basate su un solo periodo.

Frequenza relativa

Rapporto tra occorrenze di un numero e totale estrazioni nella finestra. Confrontata con il baseline per identificare segnali strutturali.

F(n, W) = occ(n, W) / |W| Baseline = 6 / 90 ≈ 0.0667 per estrazione
Forte > 1.4× Medio 1.1–1.4× Debole < 1.1×

Ritardo assoluto e relativo

Estrazioni trascorse dall'ultima uscita. Non implica obbligo di rientro — viene letto come scostamento dalla distribuzione storica di quel numero.

R(n) = idx_corrente − idx_ultima_uscita(n) R_atteso(n) = media storica dei ritorni di n
Anomalia > 2× R_atteso Elevato 1.5–2× Normale < 1.5×

Co-occorrenze e persistenza

Conta le estrazioni in cui due numeri escono insieme. Una coppia e considerata robusta solo se mantiene coerenza su finestre temporali diverse.

CO(a, b) = |{draw : a ∈ draw ∧ b ∈ draw}| / N Persistenza = CO(a,b,W1) ≈ CO(a,b,W2)
Robusta: coerente su 3+ finestre Fragile: diverge tra finestre

Stabilita e regime change

Misura quanto un segnale resiste al cambiamento del contesto temporale. Se un indicatore degrada rapidamente aggiungendo o rimuovendo estrazioni, viene marcato come fragile.

S(n) = 1 − |F(n, W_corto) − F(n, W_lungo)| / max(F(n, W_corto), F(n, W_lungo))
Stabile S > 0.85 Variabile 0.6–0.85 Fragile < 0.6

Controlli tecnici applicati sistematicamente

  • Confronto finestre corte (30), medie (90) e lunghe (180+) per ogni indicatore.
  • Verifica coerenza del segnale prima e dopo ogni aggiornamento del dataset.
  • Riduzione effetti di recency bias tramite normalizzazione su full-history.
  • Classificazione scenario: forte (convergenza 3+ finestre), intermedio (2 finestre), debole (1 finestra).
  • Segnali marcati come fragili non vengono usati come criterio primario nelle proposte.

Schede tecniche complete degli algoritmi

Ogni modulo viene documentato con scopo, metodo, limiti dichiarati e note operative. I dati vengono letti in tempo reale dai file out/algorithm-sheet.csv e out/analysis.txt di ciascun algoritmo.

Le famiglie di modelli attivi sono tre: Statistico (analisi frequenze, ritardi, co-occorrenze), Neurale (reti neurali e modelli ML), Ibrido (combinazione di approcci). Ogni famiglia ha criteri di validazione specifici.

Metriche, pesi hit e formula di ranking

Il ranking e un punteggio cumulato che riflette la qualita storica delle previsioni di ogni algoritmo. Non e una garanzia futura — e un indicatore comparativo tra moduli.

Formula di ranking

Il punteggio finale e la somma dei pesi di ogni hit registrato nell'archivio storico del modulo, normalizzata sul numero di estrazioni coperte.

Ranking(alg) = Σ peso(hit_k) × freq_relativa(hit_k) per k = 0 … 6 dove freq_relativa(k) = n_estrazioni_con_k_hit / n_totale
I pesi crescono in modo non lineare: 3 hit (326×) vale quanto circa 15 estrazioni con 2 hit (21×). Un solo risultato a 5 hit (1.2M×) domina completamente il ranking di un modulo.

Tabella pesi per numero di hit

Hit Peso Intensita Interpretazione
0 1.53
baseline neutro
1 3.36
segnale minimo
2 21.51
convergenza iniziale
3 326.72
segnale robusto
4 11 906.95
evento raro
5 1 235 346.49
evento eccezionale
6 622 614 630.00
caso estremo (teorico)

Ranking live moduli attivi

Classifica aggiornata in base ai hit accumulati nell'archivio storico di ogni modulo. I valori vengono calcolati al caricamento della pagina.

Pos. Algoritmo Punteggio Dettaglio hit

Limiti metodologici e bias cognitivi

Il progetto separa contenuto operativo da contenuto tecnico esteso proprio perche i bias di lettura sono il rischio principale nell'analisi di dati stocastici. Questa sezione documenta i quattro bias piu frequenti, come si manifestano e come vengono mitigati.

Bias #1

Bias di recenza

Sopravvalutare eventi recenti rispetto alla distribuzione storica. Un numero uscito 3 volte nell'ultimo mese sembra "caldo" anche se storicamente e nella media.

Segnale d'allarme Si considera solo la finestra corta ignorando quella lunga. Il segnale "scompare" se si allarga il periodo di analisi.
Contromisura Normalizzazione obbligatoria su full-history. Un segnale vale solo se persiste su finestre 30, 90 e 180+.
Bias #2

Bias di conferma

Cercare e pesare solo le prove che confermano l'aspettativa iniziale, ignorando i controesempi presenti nei dati.

Segnale d'allarme Si cita solo la finestra in cui il pattern e evidente. Le finestre in cui il pattern non regge vengono omesse.
Contromisura Report sempre con tutte le finestre, incluse quelle contraddittorie. Classificazione scenario obbligatoria: forte/intermedio/debole.
Bias #3

Illusione di controllo

Credere di poter influenzare o prevedere eventi intrinsecamente casuali. Un ritardo elevato non implica recupero imminente: ogni estrazione e indipendente.

Segnale d'allarme Frasi come "deve uscire presto" o "e in debito". Il ritardo non accumula probabilita — la distribuzione resta uniforme.
Contromisura Ogni nota tecnica dichiara esplicitamente l'indipendenza delle estrazioni. I ritardi sono descrittivi, non predittivi.
Bias #4

Overfitting narrativo

Costruire una storia coerente su pattern che sono casuali. Con abbastanza variabili, qualunque dataset mostra correlazioni apparenti.

Segnale d'allarme Pattern visibili solo su una finestra specifica o con parametri scelti a posteriori. La co-occorrenza "scompare" su periodi diversi.
Contromisura Validazione out-of-sample obbligatoria. I moduli vengono testati su periodi non usati nella fase di sviluppo prima dell'attivazione.

Regola operativa generale

Un segnale e utile solo se: (1) persiste su almeno due finestre temporali diverse, (2) non scompare aggiungendo gli ultimi 30 concorsi, (3) e riproducibile con gli stessi parametri in modo indipendente. In assenza di tutte e tre le condizioni, il segnale viene classificato come debole e non usato come criterio primario.

Metodo operativo consigliato

Un workflow in 4 passi per leggere i dati in modo critico e riproducibile, dal contesto storico alla validazione finale.

1

Archivio estrazioni — contesto dati reale

Parti sempre dallo storico completo. Identifica il periodo di analisi, le finestre rilevanti e i numeri con comportamenti anomali (ritardi estremi, frequenze fuori distribuzione). Senza contesto storico, qualsiasi lettura e priva di riferimento.

2

Ranking — filtraggio per performance comparativa

Usa il ranking come filtro iniziale, non come verdetto assoluto. Seleziona i moduli con punteggio piu alto nelle ultime sessioni. Considera la consistenza nel tempo, non solo il valore assoluto: un modulo con ranking stabile e piu affidabile di uno con un singolo picco.

3

Laboratorio Tecnico — lettura critica approfondita

Per ogni modulo selezionato, leggi la scheda tecnica completa (tab Algoritmi). Verifica scopo dichiarato, metodo, limiti e note operative. Se il metodo del modulo non e compatibile con il tuo contesto di analisi, escludilo indipendentemente dal ranking.

4

Validazione — coerenza su finestre diverse e controllo stabilita

Prima di usare una proposta, verifica che il segnale sia coerente su almeno due finestre temporali (es. 90 e 180 estrazioni). Un segnale che regge solo sulla finestra corta e fragile. Documenta le assunzioni e i parametri usati per garantire riproducibilita.

Pipeline tecnica del dato

Come i dati grezzi diventano schede operative e ranking.

draws.csv parsing + normalizzazione conteggio hit calcolo ranking cumulato metrics-db.csv + historical-db.csv schede operative

Input: archives/draws/draws.csv + file out/ di ogni modulo. Output: classifica comparativa e documentazione tecnica estesa nel Laboratorio.

Checklist di qualita del dato

  • Coerenza tra manifest, card.json e file out/ di ogni algoritmo.
  • Tracciabilita del calcolo: ogni passaggio e ripetibile con gli stessi dati di input.
  • Limiti e assunzioni dichiarati esplicitamente per ogni modulo nella scheda tecnica.
  • Separazione netta tra informazione tecnica (Laboratorio) e consultazione rapida (pagine operative).
  • Segnali classificati obbligatoriamente come forte / intermedio / debole prima della pubblicazione.
  • Validazione out-of-sample documentata per i modelli neurali e ibridi.

Scheda tecnica iARGOS

iARGOS è un sistema di AI supervisionale applicato all'intero backend del sito. Non è solo un monitor automatico: interpreta segnali operativi, decide priorità di intervento e adatta progressivamente le azioni in base agli esiti reali.

Cosa fa iARGOS

L'obiettivo primario di iARGOS è mantenere il backend del sito in stato coerente, stabile e recuperabile. Quando rileva criticità, la AI assegna priorità operative e privilegia i task di ripristino rispetto alle attività di routine. L'esecuzione avviene in sequenza ordinata, con controllo di esito a ogni step, per ridurre conflitti e sovraccarico tra processi concorrenti.

iARGOS valuta contesto, rischio e stato del circuito prima di agire su pipeline, sincronizzazioni e servizi di controllo. La decisione non è statica: la AI combina stato corrente, storico recente e segnali di affidabilità delle azioni precedenti. Se un'azione non porta risultato, tenta alternative compatibili o una reiterazione controllata, sempre con tracciabilità nel log di apprendimento.

In pratica, iARGOS funziona come un supervisore AI del backend: osserva, decide, esegue, verifica e apprende. Questo permette al sistema di migliorare nel tempo la capacità di prevenire stalli, ridurre tempi di recupero e mantenere continuità operativa anche in presenza di warning o condizioni non ottimali.

Come funziona il ciclo

  • Rilevazione: acquisisce stato live, severità, coerenza mirror e allineamento locale/remoto.
  • Decisione: applica priorità operative (rosso > arancio > verde, routine in coda).
  • Esecuzione: processa task uno alla volta con controllo di esito per ogni step.
  • Verifica: ricalcola lo stato overview e aggiorna circuito, coda e learning.

Stato live (dati aggiuntivi)

Ultimo aggiornamento: --

Tip: usa il link della hero in homepage per aprire ulteriori dettagli tecnici iARGOS.

Grafo iARGOS (video)

Tocca la miniatura del grafo e scopri iARGOS in azione.

Apprendimento e adattamento

  • Reinforcement: aggiorna confidenza azioni in base a outcome positivi o negativi.
  • Tutor feedback: integra interventi manuali come segnali utili per le iterazioni successive.
  • Circuit breaker: limita retry improduttivi e protegge da stalli ricorsivi.
  • Riprova controllata: se un passaggio resta incompleto, iARGOS pianifica nuova esecuzione con verifica esito.