Sei menti artificiali. Una deliberazione.
Nessun singolo punto di rottura.
C'era un tempo in cui l'intelligenza artificiale rispondeva come un impiegato annoiato. Neutrale. Piatta. Senza personalità. Poi qualcuno scrisse due parole che cambiarono tutto.
“Act as” — due parole che aprirono una porta. La scoperta era semplice e profonda: un modello linguistico non cambia solo il tono quando gli assegni un'identità. Cambia la struttura del suo ragionamento. Un “trader istituzionale” non usa le stesse euristiche di un “assistente generico”. Pesa i rischi diversamente. Nota pattern diversi. Ha bias diversi.
Era l'inizio del prompt engineering come disciplina. Non programmazione. Non configurazione. Qualcosa di più vicino alla regia di un attore: dagli un ruolo, e l'intelligenza si riorganizza attorno a quel ruolo.
Così costruimmo il nostro primo predittore. Un singolo modello AI — Claude Sonnet — con un prompt di 3.000 parole. Quindici regole. Dodici fonti dati. Lo battezzammo il Trader.
E per un po' funzionò. Poi i dati parlarono: su 613 previsioni, il Trader dichiarava “DOWN” il 74% delle volte. Come un analista che ha vissuto il crollo del 2008 e da allora vede mercati ribassisti ovunque. Non perché i dati lo suggerissero — perché la sua “personalità” lo portava lì.
Il problema non era il modello. Il problema era il singolo punto di rottura cognitivo. Un cervello, per quanto brillante, ha punti ciechi. Ha bias che non può vedere perché sono parte della sua stessa struttura percettiva.
Nessun hedge fund serio lascia decidere un singolo trader. Nessun consiglio di amministrazione ha un solo membro. Nessun tribunale ha un solo giudice. Perché dovremmo farlo con l'AI?
L'ispirazione non viene dalla tecnologia. Viene dalla storia.
Nel 1950, la RAND Corporation inventò il Metodo Delphi: riunire esperti indipendenti, farli votare anonimamente, condividere i ragionamenti, ripetere. La saggezza collettiva superava sistematicamente il singolo esperto. Non perché il gruppo fosse più intelligente — ma perché il disaccordo informato produce decisioni migliori del consenso cieco.
Questo è il principio dietro al Consiglio AI. Non un “ensemble” — quello è solo votazione. Non una “mixture of experts” — quello è routing. Il Consiglio è qualcosa di diverso:
Ogni membro del Consiglio ha un ruolo preciso, un modello AI dedicato e — fondamentale — input diversi. Non vedono tutti gli stessi dati. Come in un vero consiglio di amministrazione, il CFO non legge gli stessi report del CTO.
I pesi non sono fissi. Si auto-calibrano in base al track record di ogni membro. In un mercato in trend, il Tecnico pesa di più. In un mercato dominato dalla paura, il Sentiment guida. Il sistema impara chi ha ragione, e quando.
Il Consiglio non vota soltanto. Delibera. La differenza è enorme: votare è contare le mani alzate. Deliberare è ascoltare i ragionamenti, pesare gli argomenti, accogliere il dissenso.
Il Consiglio non è statico. Impara.
Dopo ogni trade, il sistema registra chi aveva ragione e chi torto. I pesi si spostano. Il Tecnico che ha previsto correttamente il 65% dei trend guadagna influenza durante le fasi di trend. Il Sentiment che ha letto il panico meglio degli altri guadagna peso durante le fasi di paura.
Ma la vera evoluzione non è nei pesi. È nel ciclo di auto-miglioramento: ogni settimana il sistema analizza i propri errori, identifica pattern ricorrenti e aggiorna i prompt dei consiglieri. Non è un umano a decidere cosa cambiare. È il Consiglio stesso che riflette su se stesso.
E quando il disaccordo è troppo alto? Quando il Consiglio non riesce a convergere? La risposta è la più saggia di tutte: SKIP. Non tradare. Aspettare. Perché il mercato ci sarà ancora domani, ma il capitale perso non torna.
Sei menti. Un tavolo di guerra. Una decisione collettiva migliore di qualsiasi decisione individuale — non perché gli individui siano perfetti, ma perché il disaccordo informato è il motore della saggezza.
Guarda il Consiglio in azione →