Is Your AI Tool A Competent Jerk Or A Lovable Fool?

ผู้ร่วมก่อตั้งและ CEO ของ Guru, Rick Nucci ได้สังเกตเห็นช่องว่างที่ใหญ่และขยายมากขึ้นระหว่างความตื่นเต้นของ AI และความเป็นจริงของ AI ซึ่งมักส่งผลให้เกิดการล้มเหลวของ AI. การล้มเหลวเหล่านี้มักเกี่ยวข้องกับเครื่องมือ AI ประเภท 'Competent Jerk' และเครื่องมือ AI ประเภท 'Lovable Fool'. คุณจะเลือกโซลูชั่น AI ไหน
สารบัญเนื้อหา

บทความนี้เคยปรากฏขึ้นแทนที่ Forbes Technology Council ชุมชนสำหรับ CIO, CTO และผู้บริหารด้านเทคโนโลยีชั้นนำของโลก. อ่านโพสต์ต้นฉบับ ที่นี่.

ตามที่ WCI CEO Survey ที่เผยแพร่เมื่อปลายเดือนที่แล้ว 45% ขององค์กรในอเมริกาเหนือได้ริเริ่มโครงการปัญญาประดิษฐ์ (AI) โดยมีอีก 37% มีแผนจะทำในอีกสามปีข้างหน้า. จึงไม่แปลกใจที่ CEO หลายคนกำลังนำเครื่องมือปัญญาประดิษฐ์มาใช้เมื่อพิจารณาจากผลประโยชน์ที่ได้ถูกกล่าวอ้างไว้. ในฐานะที่เป็น CEO ที่ทำงานร่วมกับผู้นำระดับสูงในองค์กรที่เติบโตอย่างรวดเร็วเพื่อเสริมพลังให้กับทีมที่มีปฏิสัมพันธ์กับลูกค้า ฉันเห็นช่องว่างที่ใหญ่และขยายระหว่างความตื่นเต้นของ AI และความจริงของ AI. ไม่เพียงเท่านั้น ฉันเห็นสองประเภทของ "AI ที่ล้มเหลว" — โครงการที่ไม่สามารถเข้าใกล้ผลลัพธ์ที่คาดหวังได้. ซึ่งมักเกี่ยวข้องกับเครื่องมือ AI ประเภท "Competent Jerk" และเครื่องมือ AI ประเภท "Lovable Fool".

artboard-1-copy.png

เครื่องมือ AI 'Competent Jerk'

ในปี 2014 ทีมงานการเรียนรู้ของเครื่องที่ Amazon ได้สร้างอัลกอริธึมที่ออกแบบมาเพื่อเร่งกระบวนการตรวจสอบประวัติย่อโดยมีเป้าหมายเพื่อข้ามกระบวนการที่ช้าและมีค่าใช้จ่ายสูงแบบดั้งเดิมที่ขับเคลื่อนโดยมนุษย์. คอมพิวเตอร์สามารถคัดกรองประวัติย่อหลายพันใบได้เร็วกว่าแม้แต่ผู้สรรหาที่เป็นมืออาชีพที่สุด. การใช้ AI ในสถานการณ์นี้นับว่าเป็นความสำเร็จ — บนกระดาษ.

อย่างไรก็ตามภายในปีหนึ่ง Amazon ตระหนักว่า AI ไม่ได้ทำงานอย่างที่พวกเขาหวังไว้. โดยการฝึก AI ตามรูปแบบการจ้างงานและประวัติย่อที่ส่งเข้ามาในช่วงทศวรรษก่อนหน้า — ซึ่งมักเอียงไปทางเพศชายอย่างมาก — ทำให้ระบบตัดสินใจว่าผู้สมัครต้องเป็นเพศชายเพื่อที่จะได้รับการพิจารณาเป็นผู้สมัครชั้นนำ. ประวัติย่อที่รวมคำว่า "ผู้หญิง" หรือ "ผู้หญิง" หรือที่ระบุผู้สมัครว่าเป็นบัณฑิตจากวิทยาลัยของผู้หญิงจะถูกลดคะแนนโดยอัตโนมัติ. แม้หลังจากการปรับปรุงด้วยมือในอัลกอริธึมเพื่อป้องกันอคติที่ชัดเจนที่สุด ผู้บริหารของ Amazon สุดท้ายก็หมดความเชื่อมั่นและปิดโครงการลง.

ตัวอย่างนี้เป็นความผิดพลาดที่มีชื่อเสียงในประเภท "competent jerk". แม้ว่าเครื่องมือการสรรหาของ AI ของ Amazon จะสามารถปฏิบัติหน้าที่ได้อย่างซื่อสัตย์ แต่สุดท้ายก็เป็นการขยายการอคติของมนุษย์ ซึ่งนำไปสู่ผลลัพธ์ที่ไม่สามารถยอมรับได้ในทุกๆ ด้าน. Amazon ไม่ใช่เหยื่อเพียงรายเดียวของโครงการเช่นนี้นะ. ฉันรู้จักบริษัทหลายสิบแห่งที่กำลังดำเนินการโครงการ AI ในตอนนี้ด้วยผลลัพธ์ที่น่าผิดหวังเช่นเดียวกัน เพราะเครื่องมือ AI ของพวกเขาเป็น "competent jerks."

ยิ่งไปกว่านั้น โครงการเหล่านี้มากมายมีการติดต่อโดยตรงกับลูกค้า. ลองนึกภาพเครื่องมือ AI "competent jerk" ที่ปล่อยออกมาสำหรับการตอบสนองจากเอเจนต์สนับสนุนของคุณต่อลูกค้าในช่วงสิบปีที่ผ่านมา. ถ้าเครื่องมือนี้มุ่งเน้นที่จะตอบคำถามของลูกค้าให้เร็วที่สุดและผลักดันพวกเขาให้ห่างออกไป มันจะไม่สนใจโอกาสในการให้ความรู้แก่ลูกค้าและอาจนำไปสูการขึ้นราคาบวกกับลูกค้า. มันจะไม่สนใจอารมณ์ของลูกค้า และอาจส่งผลให้ลูกค้าของคุณหลุดออกไปมากขึ้น.

ยังมีโหมดการล้มเหลวอื่นๆ อีกมากมายเหนือจากที่กล่าวมาข้างต้น. คุณเต็มใจที่จะพนันรายได้ของบริษัทของคุณด้วย “competent jerk” AI tools?

เครื่องมือ AI 'Lovable Fool'

แม้ว่า "competent jerks" อาจดูไม่ดีนัก แต่เครื่องมือ AI "lovable fool" ก็อาจแย่กว่าได้. ในความพยายามที่จะทำให้ chatbot ดูมีมนุษยธรรมมากขึ้น หลายบริษัทได้ทำการพยายามให้ chatbot ของพวกเขามี "บุคลิกภาพ". น่าเสียดายที่ความพยายามนี้ทำให้เครื่องมือ AI ขาดประสิทธิภาพและมูลค่าที่จะส่งถึงลูกค้า. ที่ปลายสุดของเครื่องมือ AI "lovable fool" มีตัวอย่างของ บ็อตสองตัวที่ติดอยู่ในวงจรอันไม่สิ้นสุด ที่ตอบกันใน Twitter. นี่คือการเปรียบเทียบของคนโง่สองคนที่ตะโกนใส่กันในจัตุรัสหมู่บ้าน.

ตัวอย่างที่ใกล้เคียงกับชีวิตจริงคือจำนวนครั้งที่ฉันโทรไปยังหมายเลขฝ่ายสนับสนุนลูกค้าและได้ยินว่า “หวังว่าคุณจะมีวันที่ดี!” โปรดกล่าวออกมาปัญหาที่คุณกำลังเผชิญอยู่.” หวังว่าได้ยินเสียงที่เป็นกันเองของบอท ฉันจึงตอบและพูดในโทรศัพท์ของฉัน แต่บอทเข้าใจผิดและเปลี่ยนเส้นทางการโทรของฉัน. ตัวอย่างจริงในชีวิตคือ chatbot ของ Vodafone ชื่อ TOBi ซึ่งแต่ก่อนใช้ส่งลูกค้าไปยังทีมดูแลผู้ที่สูญเสียเมื่อพวกเขารายงานว่ามือถือของพวกเขา "เสียชีวิต".

ตัวอย่างในชีวิตจริงของเรื่องนี้คือแชทบ็อตการค้าขายของ Vodafone ชื่อ TOBi ซึ่ง apparently เคยใช้เพื่อส่งลูกค้าไปยังทีมดูแลผู้ประสบภัยเมื่อพวกเขารายงานว่ามือถือของพวกเขา "ตาย" แม้จะมีอาการเศร้าโศกที่เราทุกคนรู้สึกเมื่อโทรศัพท์ที่รักของเราต้องไปอยู่ในที่ที่สงบในสวรรค์ แต่ฉันไม่เชื่อว่าทีมดูแลผู้ที่สูญเสียคือสถานที่ที่ลูกค้าส่วนใหญ่ต้องการจะถูกระบุ.

คุณอาจโต้แย้งว่าเหล่าบอทเหล่านี้ไม่ใช่ "AI" ของจริง และฉันก็เห็นด้วยกับคุณ. อย่างไรก็ตามจากประสบการณ์ของฉัน พวกเขาได้ถูกตลาดไปยังผู้บริหารระดับสูงในบริษัททั่วโลกที่ต้องการที่จะหลีกเลี่ยงไม่ให้พวกเขาพลาดเรือในคลื่นนวัตกรรมขนาดใหญ่ต่อไป. และด้วยจำนวนการโทรบริการลูกค้าที่มีปริมาณสูงที่เกิดขึ้น เหล่านี้จึงเป็นพื้นที่การฝึกอบรมที่ยอดเยี่ยมสำหรับเครื่องมือ "lovable fool" AI รุ่นต่อไป.

วิธีที่ดีกว่า — บางที

ข้อคิดที่ได้สำหรับฉันส่วนตัว จากเรื่องราวที่ฉันได้ยินจากลูกค้าและเครื่องมือที่ฉันใช้อย่างเป็นผู้บริโภคเองคือ เครื่องมือ AI ยังไม่สามารถแทนที่มนุษย์ได้. เราทำได้หลายสิ่งหลายอย่างได้ดี ตั้งแต่การเข้าใจบริบทและอารมณ์และการพูดภาษาให้มีประสิทธิภาพและความสามารถในการปรับตัวเมื่อสถานการณ์เปลี่ยนแปลง.

บริษัทหนึ่งที่จริงจังกับเรื่องนี้คือยักษ์เงียบในอุตสาหกรรม fintech, PrecisionLender. เทคโนโลยี AI ของพวกเขาช่วยให้ธนาคารเขียนเงินกู้ที่ดีที่สุดสำหรับลูกค้าทั้งหลาย. ในขณะเดียวกันมันทำให้พนักงานธนาคารที่เขียนเงินกู้มีความสัมพันธ์ที่ดีกว่าและมีข้อมูลมากขึ้นกับลูกค้าของพวกเขา และทำให้เป็นข้อมูลมากขึ้นและยังคงมีมนุษยธรรมมากกว่าหมายเลขครั้งก่อนที่เน้นผลลัพธ์แบบไบนารี ที่ใช่/ไม่ใช่.

ลองนึกภาพอนาคตที่คุณได้เรียนรู้วิธีการใช้ผลิตภัณฑ์ของบริษัทได้ดีขึ้นทุกครั้งที่คุณโทรไปที่ฝ่ายสนับสนุนของพวกเขา. เราอยู่ในระยะที่ใกล้เคียงกับอนาคตนี้. ท้ายที่สุดแล้ว ทำไมต้องยอมรับคนที่มีความสามารถหรือนักโง่ที่น่ารักในเมื่อคุณสามารถมีสิ่งอื่นที่สิ้นเชิง: ความร่วมมือที่เป็นประโยชน์จริงๆ?

บทความนี้เคยปรากฏขึ้นแทนที่ Forbes Technology Council ชุมชนสำหรับ CIO, CTO และผู้บริหารด้านเทคโนโลยีชั้นนำของโลก. อ่านโพสต์ต้นฉบับ ที่นี่.

ตามที่ WCI CEO Survey ที่เผยแพร่เมื่อปลายเดือนที่แล้ว 45% ขององค์กรในอเมริกาเหนือได้ริเริ่มโครงการปัญญาประดิษฐ์ (AI) โดยมีอีก 37% มีแผนจะทำในอีกสามปีข้างหน้า. จึงไม่แปลกใจที่ CEO หลายคนกำลังนำเครื่องมือปัญญาประดิษฐ์มาใช้เมื่อพิจารณาจากผลประโยชน์ที่ได้ถูกกล่าวอ้างไว้. ในฐานะที่เป็น CEO ที่ทำงานร่วมกับผู้นำระดับสูงในองค์กรที่เติบโตอย่างรวดเร็วเพื่อเสริมพลังให้กับทีมที่มีปฏิสัมพันธ์กับลูกค้า ฉันเห็นช่องว่างที่ใหญ่และขยายระหว่างความตื่นเต้นของ AI และความจริงของ AI. ไม่เพียงเท่านั้น ฉันเห็นสองประเภทของ "AI ที่ล้มเหลว" — โครงการที่ไม่สามารถเข้าใกล้ผลลัพธ์ที่คาดหวังได้. ซึ่งมักเกี่ยวข้องกับเครื่องมือ AI ประเภท "Competent Jerk" และเครื่องมือ AI ประเภท "Lovable Fool".

artboard-1-copy.png

เครื่องมือ AI 'Competent Jerk'

ในปี 2014 ทีมงานการเรียนรู้ของเครื่องที่ Amazon ได้สร้างอัลกอริธึมที่ออกแบบมาเพื่อเร่งกระบวนการตรวจสอบประวัติย่อโดยมีเป้าหมายเพื่อข้ามกระบวนการที่ช้าและมีค่าใช้จ่ายสูงแบบดั้งเดิมที่ขับเคลื่อนโดยมนุษย์. คอมพิวเตอร์สามารถคัดกรองประวัติย่อหลายพันใบได้เร็วกว่าแม้แต่ผู้สรรหาที่เป็นมืออาชีพที่สุด. การใช้ AI ในสถานการณ์นี้นับว่าเป็นความสำเร็จ — บนกระดาษ.

อย่างไรก็ตามภายในปีหนึ่ง Amazon ตระหนักว่า AI ไม่ได้ทำงานอย่างที่พวกเขาหวังไว้. โดยการฝึก AI ตามรูปแบบการจ้างงานและประวัติย่อที่ส่งเข้ามาในช่วงทศวรรษก่อนหน้า — ซึ่งมักเอียงไปทางเพศชายอย่างมาก — ทำให้ระบบตัดสินใจว่าผู้สมัครต้องเป็นเพศชายเพื่อที่จะได้รับการพิจารณาเป็นผู้สมัครชั้นนำ. ประวัติย่อที่รวมคำว่า "ผู้หญิง" หรือ "ผู้หญิง" หรือที่ระบุผู้สมัครว่าเป็นบัณฑิตจากวิทยาลัยของผู้หญิงจะถูกลดคะแนนโดยอัตโนมัติ. แม้หลังจากการปรับปรุงด้วยมือในอัลกอริธึมเพื่อป้องกันอคติที่ชัดเจนที่สุด ผู้บริหารของ Amazon สุดท้ายก็หมดความเชื่อมั่นและปิดโครงการลง.

ตัวอย่างนี้เป็นความผิดพลาดที่มีชื่อเสียงในประเภท "competent jerk". แม้ว่าเครื่องมือการสรรหาของ AI ของ Amazon จะสามารถปฏิบัติหน้าที่ได้อย่างซื่อสัตย์ แต่สุดท้ายก็เป็นการขยายการอคติของมนุษย์ ซึ่งนำไปสู่ผลลัพธ์ที่ไม่สามารถยอมรับได้ในทุกๆ ด้าน. Amazon ไม่ใช่เหยื่อเพียงรายเดียวของโครงการเช่นนี้นะ. ฉันรู้จักบริษัทหลายสิบแห่งที่กำลังดำเนินการโครงการ AI ในตอนนี้ด้วยผลลัพธ์ที่น่าผิดหวังเช่นเดียวกัน เพราะเครื่องมือ AI ของพวกเขาเป็น "competent jerks."

ยิ่งไปกว่านั้น โครงการเหล่านี้มากมายมีการติดต่อโดยตรงกับลูกค้า. ลองนึกภาพเครื่องมือ AI "competent jerk" ที่ปล่อยออกมาสำหรับการตอบสนองจากเอเจนต์สนับสนุนของคุณต่อลูกค้าในช่วงสิบปีที่ผ่านมา. ถ้าเครื่องมือนี้มุ่งเน้นที่จะตอบคำถามของลูกค้าให้เร็วที่สุดและผลักดันพวกเขาให้ห่างออกไป มันจะไม่สนใจโอกาสในการให้ความรู้แก่ลูกค้าและอาจนำไปสูการขึ้นราคาบวกกับลูกค้า. มันจะไม่สนใจอารมณ์ของลูกค้า และอาจส่งผลให้ลูกค้าของคุณหลุดออกไปมากขึ้น.

ยังมีโหมดการล้มเหลวอื่นๆ อีกมากมายเหนือจากที่กล่าวมาข้างต้น. คุณเต็มใจที่จะพนันรายได้ของบริษัทของคุณด้วย “competent jerk” AI tools?

เครื่องมือ AI 'Lovable Fool'

แม้ว่า "competent jerks" อาจดูไม่ดีนัก แต่เครื่องมือ AI "lovable fool" ก็อาจแย่กว่าได้. ในความพยายามที่จะทำให้ chatbot ดูมีมนุษยธรรมมากขึ้น หลายบริษัทได้ทำการพยายามให้ chatbot ของพวกเขามี "บุคลิกภาพ". น่าเสียดายที่ความพยายามนี้ทำให้เครื่องมือ AI ขาดประสิทธิภาพและมูลค่าที่จะส่งถึงลูกค้า. ที่ปลายสุดของเครื่องมือ AI "lovable fool" มีตัวอย่างของ บ็อตสองตัวที่ติดอยู่ในวงจรอันไม่สิ้นสุด ที่ตอบกันใน Twitter. นี่คือการเปรียบเทียบของคนโง่สองคนที่ตะโกนใส่กันในจัตุรัสหมู่บ้าน.

ตัวอย่างที่ใกล้เคียงกับชีวิตจริงคือจำนวนครั้งที่ฉันโทรไปยังหมายเลขฝ่ายสนับสนุนลูกค้าและได้ยินว่า “หวังว่าคุณจะมีวันที่ดี!” โปรดกล่าวออกมาปัญหาที่คุณกำลังเผชิญอยู่.” หวังว่าได้ยินเสียงที่เป็นกันเองของบอท ฉันจึงตอบและพูดในโทรศัพท์ของฉัน แต่บอทเข้าใจผิดและเปลี่ยนเส้นทางการโทรของฉัน. ตัวอย่างจริงในชีวิตคือ chatbot ของ Vodafone ชื่อ TOBi ซึ่งแต่ก่อนใช้ส่งลูกค้าไปยังทีมดูแลผู้ที่สูญเสียเมื่อพวกเขารายงานว่ามือถือของพวกเขา "เสียชีวิต".

ตัวอย่างในชีวิตจริงของเรื่องนี้คือแชทบ็อตการค้าขายของ Vodafone ชื่อ TOBi ซึ่ง apparently เคยใช้เพื่อส่งลูกค้าไปยังทีมดูแลผู้ประสบภัยเมื่อพวกเขารายงานว่ามือถือของพวกเขา "ตาย" แม้จะมีอาการเศร้าโศกที่เราทุกคนรู้สึกเมื่อโทรศัพท์ที่รักของเราต้องไปอยู่ในที่ที่สงบในสวรรค์ แต่ฉันไม่เชื่อว่าทีมดูแลผู้ที่สูญเสียคือสถานที่ที่ลูกค้าส่วนใหญ่ต้องการจะถูกระบุ.

คุณอาจโต้แย้งว่าเหล่าบอทเหล่านี้ไม่ใช่ "AI" ของจริง และฉันก็เห็นด้วยกับคุณ. อย่างไรก็ตามจากประสบการณ์ของฉัน พวกเขาได้ถูกตลาดไปยังผู้บริหารระดับสูงในบริษัททั่วโลกที่ต้องการที่จะหลีกเลี่ยงไม่ให้พวกเขาพลาดเรือในคลื่นนวัตกรรมขนาดใหญ่ต่อไป. และด้วยจำนวนการโทรบริการลูกค้าที่มีปริมาณสูงที่เกิดขึ้น เหล่านี้จึงเป็นพื้นที่การฝึกอบรมที่ยอดเยี่ยมสำหรับเครื่องมือ "lovable fool" AI รุ่นต่อไป.

วิธีที่ดีกว่า — บางที

ข้อคิดที่ได้สำหรับฉันส่วนตัว จากเรื่องราวที่ฉันได้ยินจากลูกค้าและเครื่องมือที่ฉันใช้อย่างเป็นผู้บริโภคเองคือ เครื่องมือ AI ยังไม่สามารถแทนที่มนุษย์ได้. เราทำได้หลายสิ่งหลายอย่างได้ดี ตั้งแต่การเข้าใจบริบทและอารมณ์และการพูดภาษาให้มีประสิทธิภาพและความสามารถในการปรับตัวเมื่อสถานการณ์เปลี่ยนแปลง.

บริษัทหนึ่งที่จริงจังกับเรื่องนี้คือยักษ์เงียบในอุตสาหกรรม fintech, PrecisionLender. เทคโนโลยี AI ของพวกเขาช่วยให้ธนาคารเขียนเงินกู้ที่ดีที่สุดสำหรับลูกค้าทั้งหลาย. ในขณะเดียวกันมันทำให้พนักงานธนาคารที่เขียนเงินกู้มีความสัมพันธ์ที่ดีกว่าและมีข้อมูลมากขึ้นกับลูกค้าของพวกเขา และทำให้เป็นข้อมูลมากขึ้นและยังคงมีมนุษยธรรมมากกว่าหมายเลขครั้งก่อนที่เน้นผลลัพธ์แบบไบนารี ที่ใช่/ไม่ใช่.

ลองนึกภาพอนาคตที่คุณได้เรียนรู้วิธีการใช้ผลิตภัณฑ์ของบริษัทได้ดีขึ้นทุกครั้งที่คุณโทรไปที่ฝ่ายสนับสนุนของพวกเขา. เราอยู่ในระยะที่ใกล้เคียงกับอนาคตนี้. ท้ายที่สุดแล้ว ทำไมต้องยอมรับคนที่มีความสามารถหรือนักโง่ที่น่ารักในเมื่อคุณสามารถมีสิ่งอื่นที่สิ้นเชิง: ความร่วมมือที่เป็นประโยชน์จริงๆ?

ได้สัมผัสพลังของแพลตฟอร์ม Guru โดยตรง - เข้าร่วมทัวร์ผลิตภัณฑ์ของเราอย่างแบบอินเทอร์แอคทีฟ
ไปทัวร์