Quando un’AI ti restituisce una risposta ordinata, coerente e ben scritta in pochi secondi, la tentazione è chiudere lì. Anche quando non dovresti. -
CDL HR per PMINewsletter per consulenti e PMI che vogliono passare dal fare adempimenti al creare strategia HR.
CDLHRBP - Newsletter #41
Quando un’IA ti restituisce una risposta ordinata, coerente e ben scritta in pochi secondi, la tentazione è chiudere lì. Anche quando non dovresti.
In oltre vent’anni di lavoro ho visto professionisti molto competenti fare errori costosi. Non per ignoranza. Per una premessa sbagliata trattata come ovvia.
Lo schema è ricorrente. Una certa classificazione viene data per “pacifica” perché è stata usata per anni o perché l’ha suggerita chi c’era prima. Da quel punto in poi tutto fila calcoli corretti, ragionamenti coerenti, testi che reggono.
Il conto arriva dopo. Contributi accumulati male, differenze che emergono all’improvviso, contenziosi che nessuno aveva previsto. Quando te ne accorgi, non puoi più sistemare senza danni.
Un’IA, interrogata bene, avrebbe aiutato. Avrebbe reso tutto più ordinato, più solido, più difendibile.
Ed è proprio lì il rischio.
Perché l’IA non mette in discussione una premessa che tu stai già dando per buona.
Per anni la prudenza non era una qualità personale. Era attrito di sistema. Le cose richiedevano tempo cercare una fonte, rileggere una circolare, confrontarsi con qualcuno che non la pensava come te. E poi quella sensazione fastidiosa prima di firmare, quando qualcosa non tornava del tutto.
Quel fastidio serviva. Ti faceva rallentare.
Oggi gran parte di quell’attrito non c’è più.
In pochi secondi ottieni risposte plausibili, ben scritte, rassicuranti. Il punto non è l’efficienza. È che la risposta arriva prima che il dubbio abbia spazio.
Prima il percorso era più o meno questo: pensiero → incertezza → verifica → decisione
Ora spesso diventa: pensiero → risposta ben fatta → decisione
Il passaggio che salta è quello che ti teneva vigile.
La settimana scorsa dovevo rispondere a un cliente. Gestione “alternativa”, prassi diffusa, nessuna contestazione in passato.
La norma non era in discussione. L’assunzione sì.
Stavo trattando l’assenza di problemi come una conferma di correttezza. Non è un’assunzione falsa. È comoda.
Se avessi aperto subito una conversazione con l'IA, avrei avuto una risposta equilibrata, prudente, ben argomentata. Un testo che stava in piedi.
Non necessariamente una decisione migliore.
Mi sono fermato un attimo prima e ho cambiato domanda. Sto confondendo tolleranza del sistema con correttezza?
Quella domanda non l’ho fatta all’AI. Lì serve memoria. Responsabilità. Esperienza di come finiscono certe storie.
L’AI l’ho usata dopo. Per sistemare, verificare, confrontare. Non per decidere.
Questa distinzione non l’ho imparata sui libri. L’ho imparata vedendo casi “accettati” per anni diventare improvvisamente sbagliati, tutti insieme, senza sconti.
A posteriori era tutto funzionante. Mancava solo una cosa, la consapevolezza che ciò che il sistema tollera e ciò che riconosce come corretto non coincidono sempre.
Da allora frasi come “non è mai successo” o “lo fanno tutti” non mi tranquillizzano. Mi fanno fermare.
Da qui nasce > PromptA come un CdL.
Non come teoria elegante, formula magia o mindset. Come manutenzione professionale.
Un micro-passaggio ripetibile: isolare l’assunzione che regge una decisione, capire da cosa dipende, decidere sapendo dove può cedere.
Serve a chi prende decisioni che presentano il conto più avanti. Il confine non è la professione. È il peso di ciò che firmi.
Decidere con l’IA non è un problema. Decidere mentre il pensiero è ancora in corso, sì.