← Indice documentazione Fondamenti › Prospettive & Giudizio

myclaw

Prospettive & Giudizio
Versione 1.0 — 21 aprile 2026
Il design di myclaw analizzato da quattro ottiche esperte (programmazione
agentica, psicologia, UI, AI) e pesato contro tre obiettivi: utile, intelligente, autonomo.

Pubblico: chi deve prendere decisioni di priorità. Chiude il ciclo di design della fase 0.

Indice

  1. Scopo e metodo
  2. I tre aggettivi: utile, intelligente, autonomo
  3. Quattro prospettive in sintesi
  4. Giudizio consolidato: 24 critiche, cinque verdetti
  5. Le sette critiche bloccanti (accettate)
  6. Le tensioni insanabili
  7. L'osservazione chiave: l'autonomia è emergente
  8. Piano di lavoro aggiornato

1. Scopo e metodo

Il design d'insieme di myclaw era abbastanza maturo per una revisione critica. L'ho sottoposto a quattro ottiche esperte (programmazione agentica, psicologia, UI, AI) e poi pesato ciascun punto emerso rispetto ai tre obiettivi dichiarati del prodotto. Questo documento consolida sia l'analisi sia il giudizio e chiude la fase 0 di progettazione.

Il metodo: generare critiche generose dalle quattro prospettive, poi applicare un filtro pragmatico "questa critica blocca utilità/intelligenza/autonomia? se sì la accetto, altrimenti la soppeso". Cinque verdetti possibili:

VerdettoSignificato
bloccanteSenza questa modifica, almeno uno dei tre obiettivi non può essere raggiunto. Va fatta.
rinforzoNon nuovo concept. Completa un pezzo del design esistente. Accettato.
rinvioUtile, non bloccante. Si farà, con un gate esplicito per promuoverlo quando serve davvero.
tensioneProblema reale non risolvibile. Si gestisce, non si elimina. Accettazione esplicita del trade-off.
scartatoValutato, costo supera il beneficio. Motivazione tracciata.

2. I tre aggettivi: utile, intelligente, autonomo

Prima di giudicare serve definire. I tre termini non sono interscambiabili.

Utile

Risolve un problema reale di Roberto al primo tentativo, senza intervento tecnico.
Misurato in: task completati / approvazioni chieste.

Intelligente

Capisce il contesto, sceglie lo strumento giusto, gestisce l'inatteso senza cadere in loop o risposte generiche.
Misurato in: success rate su casi non visti + qualità del "non lo so".

Autonomo

Agisce da solo nei casi prevedibili, chiede permesso solo quando serve.
Misurato in: azioni riuscite / approvazioni chieste.

Attenzione: un agente può essere utile senza essere autonomo (Claude API con tool calling). Può essere intelligente senza essere autonomo (ogni chatbot di oggi). Solo un agente che tara correttamente le prime due proprietà diventa autonomo. L'autonomia è l'unico aggettivo emergente.

3. Quattro prospettive in sintesi

Programmazione agentica — "il reasoning loop non è specificato"

Architettura a 4 strati pulita, protocol-based, audit log come feature. Ma manca: la scelta del loop (ReAct? function calling? planner+executor?), l'ownership dello stato in caso di crash, l'idempotenza dei tool, una ExecutionTrace come oggetto first-class, la modalità dry-run, e qualsiasi test strategy. Senza ExecutionTrace non ricucirai mai audit + replay + fitness darwiniana + eval — perché sono la stessa cosa vista da angolature diverse.

Psicologia — "la metafora biologica invita alla fiducia cieca"

La memoria a tre livelli allinea con working/episodic/semantic. La selezione darwiniana ha fondamento in RL/ACT-R. Le 4 Leggi sono etica deontologica trasparente. Ma: "neurone" evoca intenzionalità (effetto ELIZA amplificato), l'approval fatigue svuota il significato dei gate, l'automation bias cresce con la fitness. Capability creep nelle aspettative: gli utenti proietteranno "diventa sempre più intelligente" e saranno delusi.

UI — "il flusso di approvazione è undocumented, ed è il punto critico"

Documenti visivamente coerenti, progressive disclosure buona. Ma la superficie UX più delicata — il "vuoi che proceda?" in Telegram, in CLI, alla voce — non ha design. Status visibility durante il thinking è invisibile. Audit JSONL va benissimo per forensica e malissimo per "cosa ha fatto oggi il mio maggiordomo". Una dashboard admin minimale (anche sobria) cambia la quotidianità più di dieci feature nuove.

AI / ML — "nessuna eval harness, cost model implicito, synthesis prompt vuoto"

Consapevolezza esplicita dei limiti del self-judge LLM e del prompt injection indiretto. Vocabolario CoALA adottato. Ma: nessun modo di misurare se v0.2 è meglio di v0.1 (serve una mini eval, 15-20 scenari). Nessun cost model (ordine di grandezza: 1-3 €/giorno con Claude Sonnet su uso domestico). Model tiering ignorato: 60-80% di costo risparmiabile mettendo i gate su modello locale e le azioni serie su frontier. Il synthesis prompt per i neuroni — il pezzo che determina l'80% del success rate — non è specificato.

4. Giudizio consolidato: 24 critiche, cinque verdetti

La tavola completa. Ogni riga è una critica specifica con il verdetto e la destinazione nel piano di lavoro.

#CriticaProspettivaVerdettoDove / quando
1Reasoning loop non specificatoagentica + AIbloccanteagent_runtime.html
2Tool-call validation con schema + reject loopAIbloccanteagent_runtime.html
3ExecutionTrace come oggetto first-classagentica + AIbloccanteagent_runtime.html
4Status visibility in ogni canaleUIbloccantechannel.html (req.)
5Approval UX disegnata (batching, pause, revoca)psicologia + UIbloccanteapproval_ux.html
6Eval minimo (15-20 scenari YAML + harness)AIbloccanteeval.html
7Model tiering + 5ª Legge operativaAI + agenticabloccantepolicy.html + cost_tiering
8Framing linguistico anti-antropomorfizzazionepsicologiarinforzoconstitution.html
9Prompt structure esplicita + caching rulesAIrinforzoagent_runtime.html
10Admin web UI minimale (5 viste htmx)UIrinviofase 3-bis; gate: se JSONL non è mai aperto → promuove a fase 1
11Retrieval strategy memoria lungaAIrinviogate: >4k token lunga → RAG
12MCP adoptionAIrinviogate: 3+ tool esterni MCP
13State persistence post-crashagenticarinviofase 1 accetta "sessione persa"; gate: >1×/settimana
14Neuron versioning formale (semver)agenticarinviogate: >20 neuroni in library
15Antropomorfizzazione → ELIZApsicologiatensionemitigata da #8 + tool "cosa sai di me"
16Automation bias con fitness altapsicologiatensionemitigata da tutor mode in approval_ux.html
17Costo dell'autonomiapsicologia + AItensioneRoberto deve sapere "Full mode 24h = X €"
18Pairing SLA formale come meta-docUIscartatodettaglio di pairing.html
19Mobile-first esplicitoUIscartatoè testing, non design
20Docs searchUIscartatotrigger: >15 doc (ora 5)
21Deadlock sinapsi come design dedicatoagenticascartatotimeout globale copre il 95%
22Multimodal day-1AIscartatogià rimandato nel Survival Kit
23Multi-utente famiglia day-1UIscartatoprima release mono-principale; fase 3
24Cost model fine (TCO analysis)AIscartatoordine di grandezza basta

Totale: 7 bloccanti · 2 rinforzi · 5 rinvii · 3 tensioni · 7 scartati.

5. Le sette critiche bloccanti (accettate)

Queste sono le uniche modifiche non negoziabili. Tutte le altre sono al contorno.

#CosaScelta di default + motivazione
1 Reasoning loop ReAct + function calling nativo del provider per fase 1. Semplice, testato, compatibile con caching. Rivedere a fase 5 valutando CodeAct.
2 Tool-call validation Ogni tool ha uno JSON Schema strict. Il dispatcher valida prima di eseguire. Errore di validazione → risposta "tool X esiste ma l'argomento Y è di tipo Z" reiniettata al LLM, max 2 tentativi, poi abbandono con messaggio utente.
3 ExecutionTrace first-class Oggetto Python con: id, session_id, channel, messages[], tool_calls[], cost_tokens, cost_usd, wall_time_ms, outcome. È la stessa struttura usata da audit log, dry-run/replay, fitness darwiniana, eval. Una sola fonte di verità su "cosa è successo".
4 Status visibility Ogni canale ha il dovere di mostrare "penso...", typing indicator, e aggiornare al cambio di tool in esecuzione. Telegram: messaggio editabile; CLI: spinner con tool-name; voce: prompt di cortesia a fine di ogni secondo.
5 Approval UX Batching: "approva azioni simili per 10 minuti". Pausa lettura: il pulsante "ok" si abilita dopo 3 secondi. Revoca: un comando /undo che ferma l'esecuzione in corso. Tutor mode: ogni N approvazioni consecutive, un prompt obbligatorio "controlla tu questa" rompe il flusso.
6 Eval minimo 15-20 scenari YAML con input + oracolo (risposta attesa o criterio). Harness che li gira via replay del reasoning loop. Report: success rate, p95 latency, cost. Rigira ad ogni commit che tocca agent_runtime/ o policy/.
7 Model tiering + budget Due tier: local-fast (llama.cpp locale, < 500ms, gratis) per gate di policy + classification; frontier (Claude/Opus via supra) per ragionamento, sintesi, risposta utente. Budget: 2 €/giorno soft cap, 5 € hard cap. Notifica quando hai consumato 80%.

6. Le tensioni insanabili

Non tutte le critiche hanno soluzione. Alcune sono trade-off strutturali del tipo di sistema che stiamo costruendo. Dichiararle qui significa che sono state viste, pesate, e accettate con consapevolezza.

Tensione 1 — Calore vs antropomorfizzazione

Se elimini la metafora "maggiordomo", perdi calore e familiarità; se la lasci libera, scivoli nell'effetto ELIZA (utenti che attribuiscono coscienza e responsabilità morale al sistema). Scelta: teniamo la metafora, accettiamo la mitigazione al 70% via framing linguistico + tool "cosa sai di me" + tutor mode. Preferiamo caldo-con-monitoraggio a freddo-senza-ambiguità.

Tensione 2 — Affidabilità storica vs automation bias

Più la fitness di un neurone è alta, più l'utente smette di controllare l'output. È il paradosso della selezione per qualità: amplifica la fiducia anche dove non dovrebbe. Mitigazione: tutor mode (forza review periodica anche su neuroni "affidabili"), separazione visiva tra "ho fatto X" e "ho fatto X perché l'ho già fatto 40 volte". Non risolve, limita.

Tensione 3 — Autonomia richiesta vs costo cloud

Più l'utente vuole autonomia, più il sistema esplora, più spende. Gestione: dichiarazione esplicita del costo prima di ogni upgrade di autonomy (es. myclaw session --level full --for 24h mostra "stima: 3.50 €"). Budget diventa parte del consenso.

7. L'osservazione chiave: l'autonomia è emergente

Dei tre aggettivi, utile e intelligente sono proprietà che l'agente può avere indipendentemente. Autonomo no: emerge solo se le prime due sono tarate bene e i gate di approvazione sono dimensionati correttamente. Né un punto in più di utilità né un punto in più di intelligenza producono autonomia. Solo la calibrazione del gap tra "fa da solo" e "chiede permesso" la produce.

Implicazione operativa:

8. Piano di lavoro aggiornato

Prima di questo giudizio, la fase 1 prevedeva 4 doc di microprogettazione classici: gateway · channel · tool · sandbox.

Dopo questo giudizio, vanno prodotti prima tre doc trasversali, e solo dopo i quattro classici:

Ordine cogente

OrdineDocCoprono (critiche bloccanti)
1agent_runtime.html#1 reasoning loop · #2 tool validation · #3 ExecutionTrace · #9 prompt structure
2approval_ux.html#5 approval UX · mitigazione tensioni 1 e 2
3eval.html#6 eval harness
4gateway.html(fase 1 classici) #4 status visibility in parte
5channel.html#4 status visibility completo
6tool.htmlpre-requisito per #2
7sandbox.html
8+policy.html + cost_tiering (sotto-sezione)#7 tiering · #17 costo autonomia
Motivazione dell'ordine: i 4 classici, scritti senza i 3 trasversali, sarebbero pattern-violators. Ogni loro decisione entrerebbe in conflitto con scelte non ancora fatte sul loop, sull'UX di approvazione, sull'evaluazione. Scrivendoli nell'ordine giusto, ogni doc classico può citare e conformarsi a decisioni già prese.

Cosa NON cambia nel piano


Continua a leggere

fondamenti · 20 min
Architettura — Introduzione v1
Il sistema giudicato. I quattro strati, l'autonomy, il workspace — il contenuto su cui pesano le sette critiche bloccanti.
estensione · 30 min
Neuroni, Sinapsi e Memoria v1.1
L'estensione critica dove si concentrano i rischi (antropomorfizzazione, automation bias, capability creep): qui la fitness darwiniana è il pressure point.
razionale · 15 min
Letteratura & Adattamenti
I 10 adattamenti pre-giudizio. Molte critiche qui diventano più esplicite: questo doc e il giudizio si parlano.
microprogettazione
Indice componenti
Il piano di lavoro aggiornato: 3 trasversali (agent_runtime, approval_ux, eval) prima dei 4 classici.
home
← Indice documentazione
Tutti i documenti in un colpo solo.

myclaw — Prospettive & Giudizio v1.0 — 2026-04-21
Chiude la fase 0 di progettazione. Apre la fase 1 con un ordine nuovo.