Is Your AI Tool A Competent Jerk Or A Lovable Fool?
Der Guru-Mitbegründer und CEO Rick Nucci hat eine große und wachsende Kluft zwischen KI-Hype und KI-Realität festgestellt, die oft zu KI-Fehlern führt. Diese Fehler betreffen typischerweise die KI-Tools „kompetent-arrogant“ und die KI-Tools „liebenswerter Narr“. Welche KI-Lösung wählen Sie?
Dieser Artikel erschien ursprünglich im Namen des Forbes Technology Council, einer Gemeinschaft für erstklassige CIOs, CTOs und Technologie-executives. Lesen Sie den Originalbeitrag hier.
Laut der PwC CEO-Umfrage, die Ende letzten Monats veröffentlicht wurde, haben 45 % der nordamerikanischen Organisationen künstliche Intelligenz (KI) eingeführt, wobei weitere 37 % planen, dies in den nächsten drei Jahren zu tun. Es ist nicht überraschend, dass so viele CEOs künstliche Intelligenz-Tools übernehmen, angesichts der oft gepriesenen Vorteile. Als CEO, der mit leitenden Führungskräften in schnell wachsenden Unternehmen arbeitet, um ihre kundenorientierten Teams zu stärken, beobachte ich eine große und wachsende Kluft zwischen KI-Hype und KI-Realität. Nicht nur das, ich sehe zwei Kategorien von "KI-Fehlern" — Initiativen, die nicht einmal nahe daran sind, die erwarteten Ergebnisse zu erzielen. Diese betreffen typischerweise die KI-Tools "kompetent-arrogant" und die KI-Tools "liebenswerter Narr".
Das KI-Tool 'kompetent-arrogant'
Im Jahr 2014 entwickelte das maschinelle Lernteam bei Amazon einen Algorithmus, der den Überprüfungsprozess von Lebensläufen beschleunigen sollte, um den traditionell langsamen und kostspieligen, menschlich gesteuerten Prozess zu umgehen. Ein Computer kann Tausende von Lebensläufen schneller durchsehen als selbst der erfahrenste, schnelllesende Recruiter. Die Verwendung von KI in dieser Situation war ein Selbstläufer — auf dem Papier.
Innerhalb eines Jahres stellte Amazon jedoch fest, dass die KI nicht so funktionierte, wie sie es sich erhofft hatten. Durch das Trainieren der KI mit Einstellmustern und Lebensläufen, die im Laufe des letzten Jahrzehnts eingereicht wurden — die überwiegend männlich waren — entschied das System, dass Kandidaten männlich sein mussten, um als Top-Kandidaten zu gelten. Lebensläufe, die das Wort „Frau“ oder „Frauen“ enthielten oder Kandidaten als Absolventen einiger Frauenschulen auflisteten, wurden automatisch heruntergestuft. Selbst nach manuellen Anpassungen des Algorithmus, um die offensichtlichsten Vorurteile zu verhindern, verloren die Führungskräfte von Amazon letztendlich das Vertrauen und stellten das Projekt ein.
Dieses Beispiel ist ein hochkarätiger Fehler der Art „kompetent-arrogant“. Obwohl das KI-Rekrutierungstool von Amazon seine Aufgaben gewissenhaft erledigt haben mag, verstärkte es letztendlich die Vorurteile der Menschen, was zu einem inakzeptablen Ergebnis führte. Übrigens ist Amazon nicht das einzige Opfer eines solchen Projekts. Ich kenne Dutzende von Unternehmen, die derzeit KI-Projekte durchführen, die ebenso enttäuschende Ergebnisse liefern, weil ihre KI-Tools „kompetente Arrogante“ sind.
Schlimmer noch, viele dieser Initiativen sind kundenorientiert. Stellen Sie sich ein KI-Tool „kompetent-arrogant“ vor, das auf einem Jahrzehnt von Antworten Ihrer Supportmitarbeiter auf Kundenfragen und Tickets losgelassen wird. Wenn das Tool darauf optimiert, Kundenfragen so schnell wie möglich zu beantworten und sie von Ihrem Rücken zu bekommen, ignoriert es völlig alle Möglichkeiten, Ihre Kunden zu schulen und möglicherweise zu verkaufen. Es ignoriert auch die Emotionen der Kunden und könnte dazu führen, dass mehr Ihrer Kunden gehen.
Es gibt viele andere Fehlerquellen über die oben genannten. Sind Sie bereit, das Einkommen Ihres Unternehmens auf eine Reihe von „kompetent-arroganten“ KI-Tools zu setzen?
Das KI-Tool 'liebenswerter Narr'
Während „kompetente Arrogante“ nicht so großartig erscheinen, können „liebenswerte Narren“ KI-Tools sogar noch schlimmer sein. Um Chatbots menschlicher erscheinen zu lassen, haben viele Unternehmen Anstrengungen unternommen, ihren Chatbots „Persönlichkeiten“ zu verleihen. Leider geht dieser Aufwand zu Lasten der Effektivität des KI-Tools und des Wertes, den es den Kunden bietet. An der extremen Spitze der „liebenswerte Narr“-KI-Tools steht dieses Beispiel von zwei Bots, die in einer Endlosschleife stecken und sich gegenseitig auf Twitter antworten. Es ist das moderne Pendant zu den beiden Dorfidioten, die sich auf dem Marktplatz anbrüllen.
Ein realistischeres (aber ebenso frustrierendes) Beispiel ist die zunehmende Zahl von Anrufen, die ich bei einer Telefonnummer für den Kundensupport getätigt habe, nur um zu hören: „Hallo! Ich hoffe, Sie haben einen großartigen Tag! Bitte sagen Sie laut, welches Problem Sie haben.” In der Hoffnung, dass der Bot mit seiner angenehmen „Persönlichkeit“ überzeugt, willige ich ein und spreche ins Telefon, nur um dann eine Missverständnis zu erleben und an die falsche Stelle geleitet zu werden.
Ein reales Beispiel hierfür ist der Handels-Chatbot von Vodafone namens TOBi, der anscheinend Kunden an das Trauerteam leitete, wenn sie berichteten, dass ihre Telefone „tot“ waren. Trotz des Anflugs von Traurigkeit, den wir alle empfinden, wenn ein geliebtes Telefon seinen Weg zum großen Anbieter im Himmel machte, glaube ich nicht, dass das Trauerteam der Ort ist, an den die meisten Kunden geleitet werden wollen.
Sie könnten argumentieren, dass diese Bots nicht „wirklich KI“ sind, und ich würde Ihnen zustimmen. Allerdings werden sie in meiner Erfahrung auf jeden Fall so vermarktet, dass sie bei Führungskräften in Unternehmen auf der ganzen Welt Begeisterung auslösen, die sicherstellen wollen, dass sie nicht den Anschluss an die nächste große Innovationswelle verpassen. Und angesichts des hohen Aufkommens an Kundenservice-Anrufen, die stattfinden, sind diese ideale Trainingsfelder für die nächste Generation von „liebenswerter Narr“-KI-Tools.
Ein besserer Weg — vielleicht
Eine der Erkenntnisse für mich persönlich, basierend auf den Geschichten, die ich von Kunden gehört habe, und den Tools, die ich persönlich als Verbraucher benutze, ist, dass KI-Tools nicht bereit sind, Menschen zu ersetzen. Wir machen so viele Dinge gut, von der Wahrnehmung von Kontext, Emotion und Redewendungen bis hin zu einer effektiven Kommunikation und der Fähigkeit, uns im Moment anzupassen, wenn sich die Umstände ändern.
Ein Unternehmen, das dies wirklich versteht, ist ein stiller Riese in der Fintech-Branche, PrecisionLender. Seine KI-Technologie ermöglicht es Banken, das optimalste Darlehen für potenzielle Kunden zu erstellen. Gleichzeitig ermöglicht es den Bankern, die die Darlehen vergeben, bessere, informierte Beziehungen zu ihren Kunden zu haben und gleichzeitig datengestützte und menschliche Ansätze zu verfolgen, die sich von dem vorherigen Ansatz, der auf einem binären Ja/Nein-Ergebnis basierte, abheben.
Stellen Sie sich eine Zukunft vor, in der Sie tatsächlich lernen, wie man die Produkte eines Unternehmens besser nutzt, jedes Mal, wenn Sie deren Hotline für den Support anrufen. Wir sind sicherlich auf dem Weg zu dieser Zukunft. Schließlich, warum sich mit einem kompetenten Arroganten oder einem liebenswürdigen Narren zufrieden geben, wenn man etwas ganz anderes haben kann: eine wirklich vorteilhafte Partnerschaft?
Dieser Artikel erschien ursprünglich im Namen des Forbes Technology Council, einer Gemeinschaft für erstklassige CIOs, CTOs und Technologie-executives. Lesen Sie den Originalbeitrag hier.
Laut der PwC CEO-Umfrage, die Ende letzten Monats veröffentlicht wurde, haben 45 % der nordamerikanischen Organisationen künstliche Intelligenz (KI) eingeführt, wobei weitere 37 % planen, dies in den nächsten drei Jahren zu tun. Es ist nicht überraschend, dass so viele CEOs künstliche Intelligenz-Tools übernehmen, angesichts der oft gepriesenen Vorteile. Als CEO, der mit leitenden Führungskräften in schnell wachsenden Unternehmen arbeitet, um ihre kundenorientierten Teams zu stärken, beobachte ich eine große und wachsende Kluft zwischen KI-Hype und KI-Realität. Nicht nur das, ich sehe zwei Kategorien von "KI-Fehlern" — Initiativen, die nicht einmal nahe daran sind, die erwarteten Ergebnisse zu erzielen. Diese betreffen typischerweise die KI-Tools "kompetent-arrogant" und die KI-Tools "liebenswerter Narr".
Das KI-Tool 'kompetent-arrogant'
Im Jahr 2014 entwickelte das maschinelle Lernteam bei Amazon einen Algorithmus, der den Überprüfungsprozess von Lebensläufen beschleunigen sollte, um den traditionell langsamen und kostspieligen, menschlich gesteuerten Prozess zu umgehen. Ein Computer kann Tausende von Lebensläufen schneller durchsehen als selbst der erfahrenste, schnelllesende Recruiter. Die Verwendung von KI in dieser Situation war ein Selbstläufer — auf dem Papier.
Innerhalb eines Jahres stellte Amazon jedoch fest, dass die KI nicht so funktionierte, wie sie es sich erhofft hatten. Durch das Trainieren der KI mit Einstellmustern und Lebensläufen, die im Laufe des letzten Jahrzehnts eingereicht wurden — die überwiegend männlich waren — entschied das System, dass Kandidaten männlich sein mussten, um als Top-Kandidaten zu gelten. Lebensläufe, die das Wort „Frau“ oder „Frauen“ enthielten oder Kandidaten als Absolventen einiger Frauenschulen auflisteten, wurden automatisch heruntergestuft. Selbst nach manuellen Anpassungen des Algorithmus, um die offensichtlichsten Vorurteile zu verhindern, verloren die Führungskräfte von Amazon letztendlich das Vertrauen und stellten das Projekt ein.
Dieses Beispiel ist ein hochkarätiger Fehler der Art „kompetent-arrogant“. Obwohl das KI-Rekrutierungstool von Amazon seine Aufgaben gewissenhaft erledigt haben mag, verstärkte es letztendlich die Vorurteile der Menschen, was zu einem inakzeptablen Ergebnis führte. Übrigens ist Amazon nicht das einzige Opfer eines solchen Projekts. Ich kenne Dutzende von Unternehmen, die derzeit KI-Projekte durchführen, die ebenso enttäuschende Ergebnisse liefern, weil ihre KI-Tools „kompetente Arrogante“ sind.
Schlimmer noch, viele dieser Initiativen sind kundenorientiert. Stellen Sie sich ein KI-Tool „kompetent-arrogant“ vor, das auf einem Jahrzehnt von Antworten Ihrer Supportmitarbeiter auf Kundenfragen und Tickets losgelassen wird. Wenn das Tool darauf optimiert, Kundenfragen so schnell wie möglich zu beantworten und sie von Ihrem Rücken zu bekommen, ignoriert es völlig alle Möglichkeiten, Ihre Kunden zu schulen und möglicherweise zu verkaufen. Es ignoriert auch die Emotionen der Kunden und könnte dazu führen, dass mehr Ihrer Kunden gehen.
Es gibt viele andere Fehlerquellen über die oben genannten. Sind Sie bereit, das Einkommen Ihres Unternehmens auf eine Reihe von „kompetent-arroganten“ KI-Tools zu setzen?
Das KI-Tool 'liebenswerter Narr'
Während „kompetente Arrogante“ nicht so großartig erscheinen, können „liebenswerte Narren“ KI-Tools sogar noch schlimmer sein. Um Chatbots menschlicher erscheinen zu lassen, haben viele Unternehmen Anstrengungen unternommen, ihren Chatbots „Persönlichkeiten“ zu verleihen. Leider geht dieser Aufwand zu Lasten der Effektivität des KI-Tools und des Wertes, den es den Kunden bietet. An der extremen Spitze der „liebenswerte Narr“-KI-Tools steht dieses Beispiel von zwei Bots, die in einer Endlosschleife stecken und sich gegenseitig auf Twitter antworten. Es ist das moderne Pendant zu den beiden Dorfidioten, die sich auf dem Marktplatz anbrüllen.
Ein realistischeres (aber ebenso frustrierendes) Beispiel ist die zunehmende Zahl von Anrufen, die ich bei einer Telefonnummer für den Kundensupport getätigt habe, nur um zu hören: „Hallo! Ich hoffe, Sie haben einen großartigen Tag! Bitte sagen Sie laut, welches Problem Sie haben.” In der Hoffnung, dass der Bot mit seiner angenehmen „Persönlichkeit“ überzeugt, willige ich ein und spreche ins Telefon, nur um dann eine Missverständnis zu erleben und an die falsche Stelle geleitet zu werden.
Ein reales Beispiel hierfür ist der Handels-Chatbot von Vodafone namens TOBi, der anscheinend Kunden an das Trauerteam leitete, wenn sie berichteten, dass ihre Telefone „tot“ waren. Trotz des Anflugs von Traurigkeit, den wir alle empfinden, wenn ein geliebtes Telefon seinen Weg zum großen Anbieter im Himmel machte, glaube ich nicht, dass das Trauerteam der Ort ist, an den die meisten Kunden geleitet werden wollen.
Sie könnten argumentieren, dass diese Bots nicht „wirklich KI“ sind, und ich würde Ihnen zustimmen. Allerdings werden sie in meiner Erfahrung auf jeden Fall so vermarktet, dass sie bei Führungskräften in Unternehmen auf der ganzen Welt Begeisterung auslösen, die sicherstellen wollen, dass sie nicht den Anschluss an die nächste große Innovationswelle verpassen. Und angesichts des hohen Aufkommens an Kundenservice-Anrufen, die stattfinden, sind diese ideale Trainingsfelder für die nächste Generation von „liebenswerter Narr“-KI-Tools.
Ein besserer Weg — vielleicht
Eine der Erkenntnisse für mich persönlich, basierend auf den Geschichten, die ich von Kunden gehört habe, und den Tools, die ich persönlich als Verbraucher benutze, ist, dass KI-Tools nicht bereit sind, Menschen zu ersetzen. Wir machen so viele Dinge gut, von der Wahrnehmung von Kontext, Emotion und Redewendungen bis hin zu einer effektiven Kommunikation und der Fähigkeit, uns im Moment anzupassen, wenn sich die Umstände ändern.
Ein Unternehmen, das dies wirklich versteht, ist ein stiller Riese in der Fintech-Branche, PrecisionLender. Seine KI-Technologie ermöglicht es Banken, das optimalste Darlehen für potenzielle Kunden zu erstellen. Gleichzeitig ermöglicht es den Bankern, die die Darlehen vergeben, bessere, informierte Beziehungen zu ihren Kunden zu haben und gleichzeitig datengestützte und menschliche Ansätze zu verfolgen, die sich von dem vorherigen Ansatz, der auf einem binären Ja/Nein-Ergebnis basierte, abheben.
Stellen Sie sich eine Zukunft vor, in der Sie tatsächlich lernen, wie man die Produkte eines Unternehmens besser nutzt, jedes Mal, wenn Sie deren Hotline für den Support anrufen. Wir sind sicherlich auf dem Weg zu dieser Zukunft. Schließlich, warum sich mit einem kompetenten Arroganten oder einem liebenswürdigen Narren zufrieden geben, wenn man etwas ganz anderes haben kann: eine wirklich vorteilhafte Partnerschaft?
Erleben Sie die Leistungsfähigkeit der Guru-Plattform aus erster Hand – machen Sie unsere interaktive Produkttour