Is Your AI Tool A Competent Jerk Or A Lovable Fool?
Il co-fondatore e CEO di Guru Rick Nucci ha osservato un grande e crescente divario tra l'hype sull'AI e la realtà dell'AI, che tende a portare a fallimenti dell'AI. Questi fallimenti coinvolgono tipicamente gli strumenti AI 'Competente Scemo' e 'Scemo Amabile'. Quale soluzione AI scegli?
Questo articolo è apparso originariamente per conto del Forbes Technology Council, una comunità per CIO, CTO ed esperti di tecnologia di livello mondiale. Leggi il post originale qui.
Secondo il PwC CEO Survey pubblicato alla fine del mese scorso, il 45% delle organizzazioni nordamericane ha introdotto iniziative di intelligenza artificiale (AI), con un ulteriore 37% che prevede di farlo nei prossimi tre anni. Non sorprende che così tanti CEO stiano adottando strumenti di intelligenza artificiale, date le vantaggio promessi. Come CEO che lavora con leader senior in aziende in rapida crescita per potenziare i loro team a contatto con i clienti, sto osservando un grande e crescente divario tra l'hype sull'AI e la realtà dell'AI. Non solo, ma vedo due categorie di “fallimenti dell'AI” — iniziative che non si avvicinano nemmeno a raggiungere i risultati attesi. Questi coinvolgono tipicamente gli strumenti AI del “Competente Scemo” e gli strumenti AI del “Scemo Amabile”.
L'AI Tool “Competente Scemo”
Nel 2014, il team di apprendimento automatico di Amazon ha costruito un algoritmo progettato per accelerare il processo di revisione dei cv con l'obiettivo di bypassare il tradizionalmente lento e costoso processo gestito dagli esseri umani. Un computer può esaminare migliaia di cv più velocemente anche del reclutatore più esperto. Usare l'AI in questa situazione era un vero colpo — sulla carta.
Tuttavia, entro un anno, Amazon si rese conto che l'AI non stava funzionando come speravano. Addestrando l'AI su schemi di assunzione e cv inviati nell'ultimo decennio — che tendevano a essere schiacciantemente maschili — il sistema ha deciso che i candidati dovevano essere uomini per essere considerati i migliori candidati. I cv che includevano la parola “donna” o “donne”, o che indicavano candidati laureati in alcuni collegi femminili, venivano automaticamente declassati. Anche dopo aggiustamenti manuali all'algoritmo per prevenire i bias più ovvi, i dirigenti di Amazon alla fine hanno perso fiducia e hanno chiuso il progetto.
Questo esempio è un errore di alto profilo della categoria “competente scemo”. Sebbene lo strumento di reclutamento AI di Amazon possa aver svolto i propri compiti fedelmente, ha finito per amplificare i bias degli esseri umani, il che ha portato a un risultato inaccettabile in qualsiasi contesto. Amazon non è l'unica vittima di un progetto del genere, peraltro. Conosco dozzine di aziende che stanno attualmente eseguendo progetti di AI con risultati altrettanto deludenti perché i loro strumenti AI sono “scemi competenti”.
Peggio ancora, molte di queste iniziative sono orientate al cliente. Immagina uno strumento AI “competente scemo” liberato su un decennio di risposte dei tuoi agenti di supporto a domande e ticket dei clienti. Se lo strumento ottimizza per rispondere alle domande dei clienti il più rapidamente possibile e allontanarli da te, ignorerà completamente qualsiasi opportunità per educare i tuoi clienti e magari proporre loro degli upselling. Ignorerà anche le emozioni dei clienti e potrebbe portare a unaumento di clienti che abbandonano.
Ci sono molti altri modi di fallire oltre a questi. Sei disposto a mettere a rischio il fatturato della tua azienda su un gruppo di strumenti AI “competenti scemi”?
L'AI Tool “Scemo Amabile”
Sebbene i “competenti scemi” non sembrino così grandi, gli strumenti AI “scemi amabili” possono essere anche peggiori. Nel tentativo di rendere i chatbot più umani, molte aziende hanno intrapreso sforzi per dare ai loro chatbot delle “personalità”. Sfortunatamente, questo sforzo ha un costo sull'efficacia dello strumento AI e sul valore che fornisce ai clienti. All'estremo degli strumenti AI “scemi amabili” c'è questo esempio di due bot bloccati in un ciclo infinito che rispondono l'uno all'altro su Twitter. È l'equivalente moderno dei due idioti del villaggio che urlano l'uno contro l'altro nella piazza del paese.
Un esempio più realistico (eppure altrettanto frustrante) è il numero crescente di volte che ho chiamato un numero di assistenza clienti solo per sentire: “Ciao! Spero che tu stia passando una buona giornata! Per favore, pronuncia ad alta voce il problema che stai riscontrando.” Sperando, vista la “personalità” piacevole del bot, obbedisco e parlo nel telefono, solo per vedere che il bot ha frainteso e ha dirottato la mia chiamata.
Un esempio reale di questo è il chatbot commerciale di Vodafone chiamato TOBi, che apparentemente in passato dirottava i clienti al team di lutto quando segnalavano che i loro telefoni erano “morti.” Nonostante il brivido di tristezza che tutti proviamo quando un telefono amato raggiunge il grande fornitore nel cielo, non credo che il team di lutto sia dove la maggior parte dei clienti voglia essere dirottata.
Potresti sostenere che questi bot non sono “veramente AI”, e io sarei d'accordo con te. Tuttavia, per quanto riguarda la mia esperienza, vengono certamente commercializzati in quel modo verso dirigenti senior in aziende di tutto il mondo che vogliono assicurarsi di non perdere l'occasione della prossima grande innovazione. E date le alte volume di chiamate di servizio clienti che avvengono, queste sono grandi occasioni di formazione per la prossima generazione di strumenti AI “scemi amabili”.
Un modo migliore — forse
Una cosa che ho appreso personalmente, in base alle storie che ho sentito dai clienti e agli strumenti che uso personalmente come consumatore, è che gli strumenti AI non sono pronti per sostituire gli esseri umani. Facciamo così tante cose bene, dalla comprensione del contesto e delle emozioni e del linguaggio colloquiale fino alla comunicazione efficace e all'adattamento in un momento di cambiamento delle circostanze.
Una azienda che comprende veramente questo è un gigante silenzioso nel settore fintech, PrecisionLender. La sua tecnologia AI consente alle banche di scrivere il prestito più ottimale per i potenziali clienti. Allo stesso tempo, consente ai banchieri che scrivono i prestiti di avere relazioni più informate e migliori con i loro clienti, e di essere simultaneamente più basati sui dati e più umani rispetto all'approccio precedente che enfatizzava un esito binario, sì/no.
Immagina un futuro in cui impari effettivamente a utilizzare meglio i prodotti di un'azienda ogni volta che chiami la sua hotline per il supporto. Siamo certamente a portata di mano di questo futuro. Dopotutto, perché accontentarsi di un competente scemo o di uno scemo amabile quando puoi avere qualcos'altro: una vera partnership benefica?
Questo articolo è apparso originariamente per conto del Forbes Technology Council, una comunità per CIO, CTO ed esperti di tecnologia di livello mondiale. Leggi il post originale qui.
Secondo il PwC CEO Survey pubblicato alla fine del mese scorso, il 45% delle organizzazioni nordamericane ha introdotto iniziative di intelligenza artificiale (AI), con un ulteriore 37% che prevede di farlo nei prossimi tre anni. Non sorprende che così tanti CEO stiano adottando strumenti di intelligenza artificiale, date le vantaggio promessi. Come CEO che lavora con leader senior in aziende in rapida crescita per potenziare i loro team a contatto con i clienti, sto osservando un grande e crescente divario tra l'hype sull'AI e la realtà dell'AI. Non solo, ma vedo due categorie di “fallimenti dell'AI” — iniziative che non si avvicinano nemmeno a raggiungere i risultati attesi. Questi coinvolgono tipicamente gli strumenti AI del “Competente Scemo” e gli strumenti AI del “Scemo Amabile”.
L'AI Tool “Competente Scemo”
Nel 2014, il team di apprendimento automatico di Amazon ha costruito un algoritmo progettato per accelerare il processo di revisione dei cv con l'obiettivo di bypassare il tradizionalmente lento e costoso processo gestito dagli esseri umani. Un computer può esaminare migliaia di cv più velocemente anche del reclutatore più esperto. Usare l'AI in questa situazione era un vero colpo — sulla carta.
Tuttavia, entro un anno, Amazon si rese conto che l'AI non stava funzionando come speravano. Addestrando l'AI su schemi di assunzione e cv inviati nell'ultimo decennio — che tendevano a essere schiacciantemente maschili — il sistema ha deciso che i candidati dovevano essere uomini per essere considerati i migliori candidati. I cv che includevano la parola “donna” o “donne”, o che indicavano candidati laureati in alcuni collegi femminili, venivano automaticamente declassati. Anche dopo aggiustamenti manuali all'algoritmo per prevenire i bias più ovvi, i dirigenti di Amazon alla fine hanno perso fiducia e hanno chiuso il progetto.
Questo esempio è un errore di alto profilo della categoria “competente scemo”. Sebbene lo strumento di reclutamento AI di Amazon possa aver svolto i propri compiti fedelmente, ha finito per amplificare i bias degli esseri umani, il che ha portato a un risultato inaccettabile in qualsiasi contesto. Amazon non è l'unica vittima di un progetto del genere, peraltro. Conosco dozzine di aziende che stanno attualmente eseguendo progetti di AI con risultati altrettanto deludenti perché i loro strumenti AI sono “scemi competenti”.
Peggio ancora, molte di queste iniziative sono orientate al cliente. Immagina uno strumento AI “competente scemo” liberato su un decennio di risposte dei tuoi agenti di supporto a domande e ticket dei clienti. Se lo strumento ottimizza per rispondere alle domande dei clienti il più rapidamente possibile e allontanarli da te, ignorerà completamente qualsiasi opportunità per educare i tuoi clienti e magari proporre loro degli upselling. Ignorerà anche le emozioni dei clienti e potrebbe portare a unaumento di clienti che abbandonano.
Ci sono molti altri modi di fallire oltre a questi. Sei disposto a mettere a rischio il fatturato della tua azienda su un gruppo di strumenti AI “competenti scemi”?
L'AI Tool “Scemo Amabile”
Sebbene i “competenti scemi” non sembrino così grandi, gli strumenti AI “scemi amabili” possono essere anche peggiori. Nel tentativo di rendere i chatbot più umani, molte aziende hanno intrapreso sforzi per dare ai loro chatbot delle “personalità”. Sfortunatamente, questo sforzo ha un costo sull'efficacia dello strumento AI e sul valore che fornisce ai clienti. All'estremo degli strumenti AI “scemi amabili” c'è questo esempio di due bot bloccati in un ciclo infinito che rispondono l'uno all'altro su Twitter. È l'equivalente moderno dei due idioti del villaggio che urlano l'uno contro l'altro nella piazza del paese.
Un esempio più realistico (eppure altrettanto frustrante) è il numero crescente di volte che ho chiamato un numero di assistenza clienti solo per sentire: “Ciao! Spero che tu stia passando una buona giornata! Per favore, pronuncia ad alta voce il problema che stai riscontrando.” Sperando, vista la “personalità” piacevole del bot, obbedisco e parlo nel telefono, solo per vedere che il bot ha frainteso e ha dirottato la mia chiamata.
Un esempio reale di questo è il chatbot commerciale di Vodafone chiamato TOBi, che apparentemente in passato dirottava i clienti al team di lutto quando segnalavano che i loro telefoni erano “morti.” Nonostante il brivido di tristezza che tutti proviamo quando un telefono amato raggiunge il grande fornitore nel cielo, non credo che il team di lutto sia dove la maggior parte dei clienti voglia essere dirottata.
Potresti sostenere che questi bot non sono “veramente AI”, e io sarei d'accordo con te. Tuttavia, per quanto riguarda la mia esperienza, vengono certamente commercializzati in quel modo verso dirigenti senior in aziende di tutto il mondo che vogliono assicurarsi di non perdere l'occasione della prossima grande innovazione. E date le alte volume di chiamate di servizio clienti che avvengono, queste sono grandi occasioni di formazione per la prossima generazione di strumenti AI “scemi amabili”.
Un modo migliore — forse
Una cosa che ho appreso personalmente, in base alle storie che ho sentito dai clienti e agli strumenti che uso personalmente come consumatore, è che gli strumenti AI non sono pronti per sostituire gli esseri umani. Facciamo così tante cose bene, dalla comprensione del contesto e delle emozioni e del linguaggio colloquiale fino alla comunicazione efficace e all'adattamento in un momento di cambiamento delle circostanze.
Una azienda che comprende veramente questo è un gigante silenzioso nel settore fintech, PrecisionLender. La sua tecnologia AI consente alle banche di scrivere il prestito più ottimale per i potenziali clienti. Allo stesso tempo, consente ai banchieri che scrivono i prestiti di avere relazioni più informate e migliori con i loro clienti, e di essere simultaneamente più basati sui dati e più umani rispetto all'approccio precedente che enfatizzava un esito binario, sì/no.
Immagina un futuro in cui impari effettivamente a utilizzare meglio i prodotti di un'azienda ogni volta che chiami la sua hotline per il supporto. Siamo certamente a portata di mano di questo futuro. Dopotutto, perché accontentarsi di un competente scemo o di uno scemo amabile quando puoi avere qualcos'altro: una vera partnership benefica?
Scopri il potere della piattaforma Guru in prima persona - fai il nostro tour interattivo del prodotto