posttoday

เปิดเบื้องหลัง "อาการหลอน" ของ AI ภัยคุกคามความน่าเชื่อถือของข้อมูล

27 ธันวาคม 2567

แม้ AI จะเก่งกาจในการวิเคราะห์ข้อมูลและสร้างสรรค์ผลงานใหม่ๆ แต่ “อาการหลอน” หรือการสร้างข้อมูลเท็จยังถือเป็นจุดอ่อนและปัญหาใหญ่ที่บริษัทไอทีระดับโลกยังหาวิธีแก้ไขไม่ได้

แม้ปัญญาประดิษฐ์เชิงสร้างสรรค์ (Generative AI) จะเป็นเทคโนโลยีที่เข้ามาเปลี่ยนโลกด้วยความสามารถในการวิเคราะห์ข้อมูลจำนวนมหาศาลและมีประสิทธิภาพในการสร้างสรรค์ผลงานต่างๆ แต่ในความเป็นจริงแล้วเทคโนโลยีตัวดังกล่าวสามารถเกิดอาการ "หลอน" ขึ้นมาได้เหมือนกัน 

กล่าวคือ อาการหลอนของ AI คือการให้ข้อมูลที่ไม่ถูกต้อง ไม่ตรงกับความเป็นจริง หรือสร้างข้อมูลเท็จขึ้นมาเองทั้งหมด จนส่งผลต่อความน่าเชื่อถือของผลลัพธ์ที่มอบให้กับผู้ใช้ ซึ่งถือเป็นความท้าทายของบริษัทยักษ์ใหญ่ไอทีที่กำลังเผชิญอยู่ในปัจจุบัน

เปิดเบื้องหลัง \"อาการหลอน\" ของ AI ภัยคุกคามความน่าเชื่อถือของข้อมูล

ตัวอย่างเช่น Google Bard เคยให้ข้อมูลที่ไม่ถูกต้องเกี่ยวกับกล้องโทรทรรศน์อวกาศเจมส์ เว็บบ์ โดยระบุว่ากล้องได้ถ่ายภาพดาวเคราะห์ดวงแรกนอกระบบสุริยะ ซึ่งไม่เป็นความจริง นอกจากนี้ ยังมีกรณีของทนายความในนิวยอร์กสองคนที่ถูกศาลลงโทษ เนื่องจากใช้ ChatGPT สร้างเอกสารที่มีการอ้างถึงคดีที่ไม่มีอยู่จริงถึง 6 คดี

Duncan Curtis รองประธานฝ่าย GenAI และผลิตภัณฑ์ AI ของ Sama ให้ข้อมูลว่า แม้แต่โมเดล AI ชั้นนำยังเกิดอาการหลอนราว 2.5% ซึ่งตัวเลขอาจดูเหมือนความเสี่ยงน้อย แต่เมื่อพิจารณาจากความนิยมของเครื่องมือ AI อย่าง ChatGPT ที่มีผู้ใช้ส่งคำถามถึงวันละ 10 ล้านครั้ง หาก AI เกิดอาการหลอนหรือตอบคำถามผิดที่อัตรา 2.5% นั่นหมายความว่าความผิดพลาดจะเกิดขึ้น 250,000 ครั้งต่อวัน หรือ 1.75 ล้านครั้งต่อสัปดาห์

Curtis ยังเตือนว่าปัญหาอาจรุนแรงขึ้นเรื่อยๆ หากเราปล่อยให้โมเดล AI เชื่อว่าข้อมูลที่ผิดพลาดนั้นถูกต้อง เพราะจะทำให้โมเดลเรียนรู้แบบผิดๆ และในอนาคตความแม่นยำของโมเดล AI จะลดลงเรื่อยๆและให้ข้อมูลที่ผิดพลาดแก่ผู้ใช้งานต่อไป

เปิดเบื้องหลัง \"อาการหลอน\" ของ AI ภัยคุกคามความน่าเชื่อถือของข้อมูล

ทำไม AI ถึงเกิดอาการหลอน ตอบคำถามผิดพลาด?

คำตอบง่ายๆ เลยคือ AI แม้ปัญญาประดิษฐ์เชิงสร้างสรรค์ (Generative AI) จะคาดเดาคำหรือประโยคถัดไปจากสิ่งที่มันเคยเรียนรู้มา แต่ถ้ามันไม่เข้าใจข้อมูลที่เราให้ไป AI ก็อาจจะสร้างอะไรที่ดูสมเหตุสมผลแต่ไม่ถูกต้องตามข้อเท็จจริง

Simona Vasytė ซีอีโอของ Perfection42 ผู้คลุกคลีกับ AI ด้านการสร้างสรรค์รูปภาพให้ความเห็นว่า เป็นเรื่องปกติของ AI ที่ต้องเรียนรู้จากข้อมูลจำนวนมหาศาลบนอินเทอร์เน็ต ซึ่ง AI ก็อาจเจอข้อมูลที่ทั้งจริงและไม่จริงปะปนกันไป ทำให้เวลาตอบคำถาม อาจจะตอบออกมาเพี้ยนๆ หรือไม่ถูกต้องได้ นั่นเป็นเหตุผลว่าทำไม AI ถึงเกิดอาการหลอน และตอบคำถามผิดพลาด

"ตราบใดที่ปัญญาประดิษฐ์ยังสร้างข้อมูลที่ผิดพลาดหรือไม่น่าเชื่อถืออยู่ เราไม่สามารถเชื่อข้อมูลที่ได้จาก AI ทั้งหมด ดังนั้น สิ่งสำคัญที่สุดและพอจะเป็นไปได้ในตอนนี้ คือการลดปัญหาข้อมูลผิดพลาดให้เหลือน้อยที่สุด เพราะหลายคนมักจะเชื่อข้อมูลที่ AI ให้ในทันทีโดยไม่ตรวจสอบ" -  Simona Vasytė

เปิดเบื้องหลัง \"อาการหลอน\" ของ AI ภัยคุกคามความน่าเชื่อถือของข้อมูล

ผู้เชี่ยวชาญระบุว่า แม้การกำจัดอาการหลอนของ AI จะเป็นเรื่องท้าทาย แต่การลดปัญหาดังกล่าวย่อมเป็นไปได้ และปัจจัยสำคัญเริ่มต้นจากชุดข้อมูลที่นำมาใช้ฝึกอบรมโมเดล LLM ซึ่งชุดข้อมูลที่มีคุณภาพสูงและเป็นข้อเท็จจริงจะช่วยลดอาการหลอนของ AI ได้อย่างมีประสิทธิภาพ

ดังนั้น บริษัทที่ต้องการพัฒนาผลิตภัณฑ์ด้านปัญญาประดิษฐ์ที่แม่นยำ ปลอดภัย และเชื่อถือได้ ควรลงทุนไปกับการฝึกอบรมโมเดล LLM ด้วยชุดข้อมูลเฉพาะของตนเอง ซึ่งจะช่วยให้โมเดลเข้าใจบริบทและความต้องการของผู้ใช้ได้ดียิ่งขึ้น