แชทบอท Bing ของไมโครซอฟท์ ก็ตอบผิดไม่ต่างจาก Bard ของกูเกิล

แชทบอท Bing ของไมโครซอฟท์ ก็ตอบผิดไม่ต่างจาก Bard ของกูเกิล

ธุรกิจ

แชทบอท Bard ของกูเกิลตอบคำถามผิดในวิดีโอโปรโมทจนหุ้นร่วง คำถามคือ แล้วแชทบอทของไมโครซอฟท์ ตอบไม่ผิดเลยจริงเหรอ

คำตอบคือ ไม่มีอะไรสมบูรณ์แบบ 100% แชทบอท Bing ของไมโครซอฟท์ก็ตอบผิดเช่นกัน โดยในวิดีโอโปรโมท Bing เวอร์ชั่นใหม่พบว่า แชทบอทมีการระบุข้อมูลผิดเรื่องเครื่องดูดฝุ่น Dyson และ Bissell Pet Hair Eraser รวมถึงแสดงข้อมูลตัวเลขผิดในการสาธิตสรุปงบการเงินของบริษัท Gap Inc. และ Lulelemon ก็มีข้อมูลผิดประปราย 

Dmitri Brereton วิศวกรวิจัย ที่ทำการตรวจสอบ Bing เขียนวิจารณ์ในบล็อกของเขาว่า ตอนนี้ทุกคนกระโดดขึ้นรถไฟตามกระแสไฮป์ของแชทบอท โดยที่ไม่มีใครสังเกตเห็นความผิดพลาดของมัน

ฝั่งกูเกิลที่เคยตอบคำถามผิดเป็นเรื่อง มาจากคำถามที่ว่า “มีการค้นพบใหม่ๆ จากกล้องโทรทรรศน์อวกาศเจมส์ เวบบ์ (JWST) อะไรบ้าง ที่ฉันสามารถเล่าให้เด็กอายุ 9 ขวบฟังได้”

ซึ่งมันก็ให้คำตอบมาจำนวนหนึ่ง โดยบอกว่า JWST นั้นถูกใช้เพื่อถ่ายภาพดาวเคราะห์นอกระบบสุริยะ หรือดาวเคราะห์นอกระบบเป็นครั้งแรก

อย่างไรก็ตาม Reuters เป็นเจ้าแรกที่เห็นจุดผิดพลาดของโฆษณาชุดนี้ เนื่องจากข้อมูลจาก NASA ยืนยันว่าภาพแรกของดาวเคราะห์นอกระบบถูกถ่ายโดยกล้องโทรทรรศน์ใหญ่มากของหอสังเกตการณ์ทางตอนใต้ของยุโรป (VLT) ในปี 2547 ไม่ใช่กล้อง JWST

เป็นกรณีศึกษาที่น่าสนใจ ท่ามกลางกระแสไฮป์ของแชทบอทแนว Genarative AI เราควรใช้ข้อมูลจาก AI ในระดับไหน เมื่อได้คำตอบมาแล้ว จุดไหนที่ควรรีเชคบ้าง 

อ่านข่าวที่เกี่ยวข้อง 

ที่มา : https://www.theregister.com/2023/02/14/microsoft_ai_bing_error/ 

https://dkb.blog/p/bing-ai-cant-be-trusted

แท็กที่เกี่ยวข้อง
KanokjunWriterKanokjun
ผู้สื่อข่าวเทคโนโลยี สนใจเรื่องราวบนโลกไอทีที่มาพร้อมโอกาส ความสร้างสรรค์ และปัญหาด้านมืดของเทคโนโลยี

Podcast

บทความที่เกี่ยวข้อง