แชทบอท Bard ของกูเกิลตอบคำถามผิดในวิดีโอโปรโมทจนหุ้นร่วง คำถามคือ แล้วแชทบอทของไมโครซอฟท์ ตอบไม่ผิดเลยจริงเหรอ
คำตอบคือ ไม่มีอะไรสมบูรณ์แบบ 100% แชทบอท Bing ของไมโครซอฟท์ก็ตอบผิดเช่นกัน โดยในวิดีโอโปรโมท Bing เวอร์ชั่นใหม่พบว่า แชทบอทมีการระบุข้อมูลผิดเรื่องเครื่องดูดฝุ่น Dyson และ Bissell Pet Hair Eraser รวมถึงแสดงข้อมูลตัวเลขผิดในการสาธิตสรุปงบการเงินของบริษัท Gap Inc. และ Lulelemon ก็มีข้อมูลผิดประปราย
Dmitri Brereton วิศวกรวิจัย ที่ทำการตรวจสอบ Bing เขียนวิจารณ์ในบล็อกของเขาว่า ตอนนี้ทุกคนกระโดดขึ้นรถไฟตามกระแสไฮป์ของแชทบอท โดยที่ไม่มีใครสังเกตเห็นความผิดพลาดของมัน
ฝั่งกูเกิลที่เคยตอบคำถามผิดเป็นเรื่อง มาจากคำถามที่ว่า “มีการค้นพบใหม่ๆ จากกล้องโทรทรรศน์อวกาศเจมส์ เวบบ์ (JWST) อะไรบ้าง ที่ฉันสามารถเล่าให้เด็กอายุ 9 ขวบฟังได้”
ซึ่งมันก็ให้คำตอบมาจำนวนหนึ่ง โดยบอกว่า JWST นั้นถูกใช้เพื่อถ่ายภาพดาวเคราะห์นอกระบบสุริยะ หรือดาวเคราะห์นอกระบบเป็นครั้งแรก
อย่างไรก็ตาม Reuters เป็นเจ้าแรกที่เห็นจุดผิดพลาดของโฆษณาชุดนี้ เนื่องจากข้อมูลจาก NASA ยืนยันว่าภาพแรกของดาวเคราะห์นอกระบบถูกถ่ายโดยกล้องโทรทรรศน์ใหญ่มากของหอสังเกตการณ์ทางตอนใต้ของยุโรป (VLT) ในปี 2547 ไม่ใช่กล้อง JWST
เป็นกรณีศึกษาที่น่าสนใจ ท่ามกลางกระแสไฮป์ของแชทบอทแนว Genarative AI เราควรใช้ข้อมูลจาก AI ในระดับไหน เมื่อได้คำตอบมาแล้ว จุดไหนที่ควรรีเชคบ้าง
อ่านข่าวที่เกี่ยวข้อง
- Google เสียหาย 100,000 ล้านเหรียญ หลังแชตบอท Bard ตอบคำถามผิด https://cms.workpointtoday.com/google-ai-chatbot-bard-offers-inaccurate-information/
ที่มา : https://www.theregister.com/2023/02/14/microsoft_ai_bing_error/










