Salta al contenuto principale
Pubblicato il

Klarna, AI nel supporto e ritorno al fattore umano: non e fallimento dell AI, e fallimento di implementazione (stato al 25 febbraio 2026)

Autori
  • Foto profilo di Alessandro Iannacone
    Nome
    Alessandro Iannacone
    Profilo X

Il caso Klarna viene spesso raccontato cosi: "ha tolto persone, ha messo AI, poi e tornata indietro". Il punto corretto e piu preciso: Klarna ha ridotto la forza lavoro soprattutto con hiring freeze e attrition, ha automatizzato molto il supporto, poi ha dovuto riequilibrare con piu presenza umana per motivi di qualita e brand.

Quindi la tesi forte non e "AI inutile". La tesi forte e: implementazione sbagliata quando il costo diventa l unico KPI e la qualita della relazione cliente passa in secondo piano.


Cosa sappiamo con certezza (timeline)

  • 27 febbraio 2024: Klarna annuncia che il suo AI assistant gestisce circa due terzi delle chat di supporto e "equivale" al lavoro di 700 agenti full-time.
  • 12 dicembre 2024: il CEO spiega che l azienda ha bloccato gran parte delle assunzioni gia dal 2023 e ridotto l organico anche tramite attrition.
  • maggio 2025: in interviste riprese da Bloomberg/CNBC, Klarna conferma la necessita di aumentare di nuovo il supporto umano, ammettendo limiti qualitativi con un approccio troppo AI-only.
  • 25 febbraio 2026: il tema resta aperto in tutto il settore: AI molto utile su volumi e velocita, ma l escalation umana resta decisiva per casi complessi o emotivi.

Licenziamenti, riassunzioni, narrativa: cosa evitare

Dire "Klarna ha licenziato in massa il supporto e poi ha riassunto tutti" e una semplificazione non supportata in modo lineare dalle fonti pubbliche. Le informazioni piu solide parlano di:

  • contrazione dell organico nel tempo
  • blocco assunzioni in molte aree
  • forte automazione del primo livello supporto
  • successivo ritorno a piu operatori umani (anche con modelli flessibili)

Questa distinzione conta perche cambia il giudizio strategico. Non e una smentita totale dell AI: e una correzione del modello operativo.


Il vero errore: trattare l AI come sostituto, non come strumento

Quando l AI viene usata come "rimpiazzo totale" del contatto umano, emergono tre problemi prevedibili:

  1. calo di fiducia nei momenti ad alta frizione
  2. peggior gestione dei casi non standard
  3. impoverimento del segnale cliente per migliorare prodotto e processo

L approccio piu robusto e opposto:

  • AI per triage, FAQ, raccolta dati, routing e risoluzioni ripetitive
  • umano per eccezioni, negoziazione, empatia, responsabilita finale

In sintesi: AI come amplificatore di capacita, non come politica di rimozione delle persone.


Cosa imparano le aziende da questo caso

Se vuoi usare AI nel customer care senza perdere qualita:

  • misura non solo costo per ticket, ma anche soddisfazione e retention
  • disegna escalation umana chiara e veloce
  • separa i casi "standard" da quelli "sensibili" prima di automatizzare
  • valuta gli impatti di brand: un supporto rapido ma freddo puo costare piu nel medio periodo

Il focus corretto non e "quante persone posso togliere". Il focus corretto e "quante frizioni posso eliminare mantenendo relazione e fiducia".


Conclusione

Il caso Klarna non dimostra che l AI non funziona. Dimostra che una implementazione sbilanciata sul risparmio puo peggiorare l esperienza cliente.

Per questo l AI va considerata prima di tutto uno strumento per fare meglio le cose: piu velocita dove il lavoro e ripetitivo, piu presenza umana dove serve giudizio, responsabilita e relazione.


Fonti