Moment Of Truth | 03:33 Minuti
Il tuo touchpoint sullo spazio digitale: uno strumento pratico dove troverai idee, riflessioni, conoscenze e framework in grado di guidarti nell’esecuzione della tua innovazione digitale. Testala, è gratis ↓
Buondì, e buon lunedì.
Perché la fiducia è importante per l’AI?
In queste settimane il 90% del management ha discusso gli OKR 24.
Il 90% dei keynote di trasmissione degli obiettivi presenta la stessa identica slide, che più o meno recita così: “Investire nell’AI”. Se neghi, o rientri nel 10% o menti al 90%.
Il motivo è abbastanza chiaro: l’intelligenza artificiale sta emergendo sempre di più e, di conseguenza, il suo impatto; ma allo stesso tempo non ci sono investimenti di capitali davvero importanti, se non nelle famose realtà che stanno trainando il Mondo sull’AI.
Perciò, come capirai bene, tante organizzazioni stanno riadattando i loro service plan in vista di un nuovo e importante movimento di capitale. Chi sarà la prima ad essere pronta, ne gioverà pesantemente. Ma c’è un però…
Tra i dirigenti e i collaboratori delle aziende si riscontrano notevoli lacune nella fiducia che l'IA venga implementata in modo trasparente e aperto nella propria organizzazione.
I rischi di riporre troppa fiducia nel software dovrebbero essere ben presenti ai leader di tutto il mondo. Ma è davvero così? O ci stiamo perdendo qualcosa?
Vediamo un po’ di dati assieme.
GO↓
🔵 C-level Agenda.
Un po’ di intro non fa male a nessuno.
L'IA è lungi dall'essere perfetta, ma è già utile. Si tratta di un problema importante non solo per i collaboratori che temono per il loro benessere e per il loro lavoro, ma anche per il management che potrebbe presiedere all'uso improprio dei sistemi di IA nelle loro organizzazioni senza un'adeguata formazione o supervisione.
L'indagine, condotta dall'azienda Workday, giunge mentre in UK sono attanagliati dalla storia dell'errore giudiziario nei confronti di migliaia di subappaltatori delle Poste, accusati ingiustamente di furto e frode contabile, per quello che si è rivelato essere un difetto della piattaforma stessa.
Se c'è una lezione chiave da questa storia, è che la tecnologia non può essere al di sopra di ogni dubbio, specialmente per una scatola nera come le AI.
La trasparenza e la supervisione sono fondamentali.
Il punto di svolta per il successo dell'IA sarà la capacità di un'organizzazione di creare fiducia attraverso la trasparenza. La sfida è che l'innovazione dell'IA deve essere bilanciata con un impegno costante per una governance e una comunicazione intelligenti.
Referral Program
Se pensi che questo Remarks possa interessare a qualcuno, puoi condividerlo.
🔵 C-level Agenda.
Il divario di fiducia
L'indagine condotta da FT Longitude ha raccolto le opinioni di 1.375 dirigenti aziendali e 4.000 collaboratori. Ha rilevato un divario di fiducia nell'IA di circa il 10%.
Tra i C-Level:
Il 62% è favorevole all'IA;
Il 62% è fiducioso che verrà implementata in modo affidabile e responsabile.
Tra i collaboratori:
Il 52% è favorevole all'IA;
Il 55% è fiducioso che sarà implementata in modo affidabile e responsabile.
I collaboratori e i C-level sono ampiamente allineati sul potenziale di trasformazione del business e sulla probabilità che si verifichino regolamentazioni e controlli.
Il controllo è fondamentale, poiché il 70% dei C-Level e il 69% dei collaboratori ritiene che le applicazioni di IA debbano rimanere sotto il controllo umano.
Ma c’è di più ↓
Nonostante l'enfasi posta dai C-level sul controllo, il 42% dei collaboratori ritiene che la propria azienda non abbia una chiara comprensione di quali sistemi debbano o non debbano richiedere l'intervento umano.
In effetti, il benessere delle persone è una preoccupazione:
Il 23% ritiene che la propria organizzazione non anteponga gli interessi dei collaboratori ai propri quando implementa l'IA (contro il 21% dei leader).
Il 23% non crede che la propria organizzazione dia priorità a un'innovazione attenta alle persone rispetto a un'innovazione veloce (contro il 17% dei leader).
Il 23% non crede che la propria organizzazione implementerà l'IA in modo responsabile e affidabile (contro il 17% dei leader).
Solo 1/4 dei collaboratori afferma che la propria organizzazione ha collaborato con loro sulla regolamentazione dell'IA (contro il 36% dei leader) e 1/5 afferma che la propria azienda ha condiviso con loro le linee guida sull'uso responsabile
Forse il problema più grande è la mancanza di consapevolezza da parte dell'intera forza lavoro su come viene utilizzata l'IA, su come usarla in modo responsabile e su come essere trasparenti sul suo utilizzo.
Se hai quella slide, dovresti inserire questo Key Resuls.
Questo è Remarks. Il Touchpoint digitale di Catobi. Se ti fa piacere continuare a parlare di questi temi, basta scrivermi → In questo canale offriamo spazio, attraverso varianti pubblicitarie, al racconto dell’innovazione dei nostri Partner, e veicolando il contenuto su tutte le nostre piattaforme, comprese LinkedIn, Instagram e Telegram. Qui tutte le informazioni su come sponsorizzare gli episodi della newsletter→