Wirtschaft | Futuro del lavoro

L'IA non ruba il lavoro: lo cambia

I plugin di Anthropic hanno fatto tremare i mercati, bruciando 285 miliardi in un giorno. Ma le professioni di concetto non spariscono: cambiano forma. Il valore si sposta dall'output al giudizio, dalla produzione alla regia.
Hinweis: Dieser Artikel ist ein Beitrag der Community und spiegelt nicht notwendigerweise die Meinung der SALTO-Redaktion wider.
Foto di Igor Omilaev su Unsplash
Foto: di Igor Omilaev
  • Per qualche giorno, a inizio febbraio 2026, un assistente digitale ha fatto quello che politici ed economisti promettono e temono da anni: ha spostato soldi. Non metaforicamente — soldi veri, e tanti. Il 4 febbraio, dopo che Anthropic ha rilasciato undici plugin per il suo agente Claude Cowork, i mercati hanno cancellato circa 285 miliardi di dollari di capitalizzazione nel settore software in una sola sessione. In India, dove l’outsourcing IT vale quasi 300 miliardi l’anno e impiega oltre cinque milioni di ingegneri, l’indice Nifty IT ha perso il 6% — la giornata peggiore dal 2020. Infosys è scesa del 7,3%, TCS del 5,8%. In Occidente, Thomson Reuters ha registrato il crollo più grande della sua storia in un singolo giorno (meno 16%), LegalZoom ha perso quasi il 20%, e a Londra RELX (proprietaria di LexisNexis) è affondata del 14%. Qualcuno ha subito battezzato la giornata “SaaSpocalypse”, e Bloomberg ha rilanciato il termine.

    Che il panico fosse proporzionato alla realtà è discutibile. Lo è quasi sempre, in borsa. Ma il segnale è reale, e va al di là del singolo prodotto — così come il crollo di Nvidia causato da DeepSeek nel gennaio 2025 non riguardava davvero un modello cinese a basso costo, ma la scoperta improvvisa che l’efficienza dei modelli stava cambiando le regole del gioco. Qui il meccanismo è diverso ma la logica è la stessa: non è più un assistente che risponde, è un agente che fa cose. Legge file locali, coordina sotto-agenti, produce documenti, fogli di calcolo, presentazioni — e lavora a lungo su compiti complessi, senza che qualcuno gli detti ogni passaggio. Nella documentazione ufficiale, Anthropic lo presenta come anteprima di ricerca e lo sconsiglia esplicitamente per carichi regolati, perché le garanzie di tracciabilità e audit non sono quelle di un workflow enterprise tradizionale. Traduzione: non è un chatbot, è un pezzo di catena di montaggio cognitiva che entra negli uffici.

    Il riflesso sbagliato
    A questo punto arriva la reazione più comune, e anche la più sterile: “Se l’IA fa tutto, sono spacciato”. È una reazione comprensibile ma fuorviante, per due ragioni che vale la pena guardare da vicino.

    La prima: usare bene l’IA non significa delegare il proprio mestiere a un prompt di tre righe. Significa progettare un processo. Un bravo professionista non è solo qualcuno che produce un output — è qualcuno che sa definire un obiettivo, scegliere vincoli e priorità, anticipare errori, verificare risultati, assumersi la responsabilità di dire sì o no. L’IA accelera enormemente la produzione dell’output. Ma l’output, senza il contesto giusto, vale poco. E il contesto lo mette ancora la persona.

    La seconda: quando una tecnologia diventa general purpose — cioè applicabile a quasi tutto — non distrugge soltanto lavori. Ne crea di nuovi, spesso più vicini al controllo che alla produzione. Il punto critico è la velocità. E su questo i numeri non sono rassicuranti.

    I numeri
    Il Fondo Monetario Internazionale stima che quasi il 40% dell’occupazione globale sia esposta all’IA. Nei paesi avanzati, la quota sale al 60%, non perché ci siano più lavori manuali — al contrario: l’IA colpisce soprattutto i compiti cognitivi, quelli che caratterizzano le economie ad alto reddito. La stessa analisi dell’FMI precisa che “esposizione” non significa automaticamente “sostituzione”: in molti casi l’IA complementa il lavoro umano e aumenta la produttività. Ma dove complementa, può anche amplificare le disuguaglianze tra chi la sa usare e chi no. Il punto è stato ribadito dalla direttrice del Fondo, Kristalina Georgieva, a Davos poche settimane fa, quando ha paragonato l’impatto dell’IA sul mercato del lavoro a “uno tsunami”.

    Il World Economic Forum, nel suo Future of Jobs Report 2025, proietta una trasformazione strutturale che toccherà il 22% dei posti di lavoro esistenti entro il 2030 — con 170 milioni di nuovi ruoli creati e 92 milioni distrutti, per un saldo netto positivo di 78 milioni. In cima alle competenze in crescita mette “AI and big data”, “networks and cybersecurity” e “technological literacy”, insieme a pensiero analitico e resilienza. E aggiunge un dato poco poetico ma decisivo: in media il 39% delle competenze attuali dei lavoratori sarà trasformato o diventerà obsoleto nel periodo 2025–2030. Quasi 6 lavoratori su 10 avranno bisogno di formazione.

    La competenza che diventa scarsa
    Ecco allora la domanda utile: qual è la competenza che rimane scarsa quando l’output diventa abbondante?

    La risposta è meno romantica di quanto si speri e più concreta di quanto si tema. La competenza scarsa diventa il giudizio — e si declina in tre capacità che, guarda caso, non si insegnano quasi mai nei percorsi formativi tradizionali.

    La prima è il problem framing: capire qual è il problema vero, non quello apparente. La seconda è la verifica: saper distinguere ciò che “suona bene” da ciò che è corretto. La terza è l’orchestrazione: mettere insieme strumenti, persone, dati, vincoli normativi e responsabilità in un flusso che funziona.

    Prendiamo il settore legale, che è stato al centro del panico di mercato di questi giorni. Se un agente è capace di revisionare contratti, fare il triage di NDA, preparare memo e controlli di conformità, è evidente che molte ore di lavoro junior rischiano di evaporare — e che le aziende il cui valore si basa su database e workflow proprietari sentano il terreno tremare. Ma c‘è un dettaglio che i titoli catastrofisti tendono a trascurare: quando l’output è generato automaticamente, il rischio non sparisce — si sposta. Chi risponde di un errore nel contratto? Chi decide che quel contratto è accettabile dato il profilo di rischio dell’azienda? Chi traduce una norma in una policy operativa? L’IA può aiutare in tutte queste cose. Ma qualcuno deve possedere il modello mentale e la responsabilità del sì e del no.

    Lo stesso schema si ripete in finanza, marketing, analisi dati, product management. L’IA può produrre report, slide, analisi preliminari, segmentazioni, persino piani strategici. Ma il valore non sta più nel “saper fare la slide” — abilità che si sta rapidamente commoditizzando — bensì nel saper rispondere a domande come: quali dati sono affidabili? Quali assunzioni sono implicite? Quali metriche contano davvero? Qual è il margine d’errore accettabile? Dove può rompersi il processo?

    La figura professionale che ne esce è meno artigiano dell’output e più ingegnere del workflow.

    Nuovi ruoli (non “prompt engineer”)
    Se guardiamo a ciò che le aziende dichiarano di voler cercare, emerge un paradosso interessante: mentre temiamo l’automazione, cresce la domanda di competenze per governarla. Stiamo uscendo dalla fase — già abbastanza caricaturale — del “prompt engineer” come professione del futuro. Stiamo entrando in un mondo dove contano, e vengono pagati, ruoli diversi:

    Progettisti di workflow con agenti, cioè persone che definiscono processi, guardrail, punti di passaggio e criteri di controllo qualità. Figure di AI assurance e auditing, che valutano affidabilità, bias, tracciabilità e rischi operativi. Agent operations, che si occupano di monitoraggio, risposta agli incidenti, gestione degli errori e delle regressioni. Knowledge steward — curatori di basi di conoscenza aziendale, perché senza dati e contesto strutturato l’agente diventa un pappagallo elegante. E infine risk e compliance per sistemi IA, perché l’adozione reale di queste tecnologie in azienda passa dai vincoli normativi, non dagli annunci di prodotto.

    La paura giusta
    E qui vale la pena essere onesti, anche se suona un po’ cinico. La paura non dovrebbe essere “l’IA mi sostituisce”. La paura dovrebbe essere “qualcun altro ridisegna il processo, e io resto attaccato al pezzo di lavoro che viene automatizzato per primo”. La differenza è enorme. Nella prima versione si è vittime passive di una forza impersonale. Nella seconda si è davanti a una scelta: diventare parte di chi progetta e governa i nuovi processi, o restare un esecutore dentro processi progettati da altri.

    Molte professioni di concetto stanno andando al capolinea nel loro formato attuale. Non perché sparisca il concetto, ma perché cambia la forma del valore. Fino a poco tempo fa, il valore stava nel saper produrre un documento, una presentazione, un report, una ricerca. Oggi — non domani, oggi — il valore sta nel saper trasformare un obiettivo in un sistema di lavoro affidabile, verificabile e ripetibile, dove l’IA è una componente potente ma non magica. Il professionista non è quello che scrive; è quello che decide come si decide.

    Che cosa ne segue
    La conseguenza culturale è grossa, e non riguarda solo le aziende. Riguarda la scuola, l’università, la formazione professionale. Dobbiamo smettere di insegnare solo strumenti e cominciare a insegnare metodo: scomposizione del problema, pensiero critico, verifica, responsabilità. Perché l’IA è un acceleratore — amplifica i bravi, ma amplifica anche gli errori. E quando gli errori diventano più veloci, servono più persone capaci di governarli, non meno.

    Il futuro non è “IA contro umani”. È il lavoro che cambia padrone: dall’output al giudizio.

    Come capire se il tuo lavoro è in zona rossa
    Se la tua attività consiste soprattutto nel tradurre input in output standardizzati — report da dati, contratti da template, slide da brief, codice da specifiche ripetitive — sei nella fascia più esposta. Se il tuo lavoro è definire obiettivi, gestire rischio, prendere decisioni e risponderne, sei nella fascia più protetta — così come lo sono i lavori che richiedono presenza fisica, relazione diretta con le persone o intervento manuale specializzato. Se sei nel mezzo, il consiglio è uno solo: spostati verso la regia.

    Fonti: IMF Staff Discussion Note, “Gen-AI: Artificial Intelligence and the Future of Work”, gennaio 2024; World Economic Forum, “Future of Jobs Report 2025", gennaio 2025; Wired Italia, ”Claude Cowork, il crollo dei mercati e la fine del lavoro", febbraio 2026; Reuters, ABC News, CNN Business, Bloomberg — copertura della reazione dei mercati a Claude Cowork, 3–6 febbraio 2026.