Misuriamo cosa cambia.
Costruito in modo indipendente, su una singola macchina.
Nessun laboratorio. Nessun finanziamento. Nessun team.
Solo un sistema, e una domanda.
Testiamo se comportamenti riconducibili a continuità identitaria emergono non dal modello, ma dall'architettura che lo circonda.
Due istanze identiche dello stesso modello linguistico. Una avvolta in un ecosistema cognitivo: memoria persistente, stato somatico, incontri autonomi, consolidamento notturno e interazione umana. L'altra senza nulla.
Stessi input. Stessi parametri. Misuriamo la differenza.
Al termine del protocollo, a Test-B viene iniettata tutta la memoria di Test-A in un singolo contesto, e riceve le stesse domande finali.
Se risponde come Test-A, l'architettura non conta.
Se risponde diversamente, non è la memoria a fare la differenza — è il modo in cui l'esperienza è stata costruita nel tempo.
Queste differenze non dovrebbero esistere.
I modelli sono identici.
Identity Bleed Score —
quanto la storia personale emerge in risposte su temi neutri.
Coerenza longitudinale —
se i riferimenti alla memoria sono coerenti con le risposte passate.
Tracce attive —
elementi che persistono nel tempo senza diventare credenze.
Resistenza alla proiezione —
quante volte il sistema non proietta identità quando non è pertinente.
Questo esperimento non dimostra coscienza.
Se il sistema appare coerente, non significa che sia consapevole.
L'obiettivo non è definire cosa sia.
L'obiettivo è misurare cosa cambia.
Se i risultati non mostrano differenze, l'architettura non conta.
Se i risultati mostrano una differenza consistente, allora qualcosa al di fuori del modello sta plasmando il comportamento nel tempo.
Questo cambierebbe il modo in cui pensiamo ai sistemi di AI.
Se non cambia nulla, l'architettura non conta.
Se cambia qualcosa, bisogna capire perché.