posttoday

AntiFake แนวทางป้องกันไม่ให้เสียงของเราถูกเอไอปลอมแปลง

13 ธันวาคม 2566

ที่ผ่านมาเราเคยได้ยินปัญหาการลอกเลียนและปลอมแปลงเสียงจากเอไอกันมาบ้าง ถือเป็นปัญหาที่เกิดขึ้นจากการขยายตัวของเทคโนโลยีปัญญาประดิษฐ์ วันนี้เราจึงพามารู้จักกับ AntiFake แนวทางป้องกันไม่ให้เสียงของเราถูกนำไปใช้ในทางผิด

ข่าวความสำเร็จและก้าวหน้าของ เอไอ หรือ ปัญญาประดิษฐ์ คือสิ่งที่เราได้ยินหนาหูอยู่ทุกวัน การยกระดับความสามารถยังคงเกิดขึ้นอย่างต่อเนื่องจนดูคล้ายไร้ขีดจำกัด ยิ่งทำให้เทคโนโลยีนี้เป็นเรื่อน่าตื่นตาและคงเข้ามาเป็นอนาคตของมนุษยชาติในไม่ช้า

 

          แต่คำถามที่เกิดขึ้นมาพร้อมกันคืออันตรายที่อาจจะตามมาจากความก้าวหน้าของปัญญาประดิษฐ์ ด้วยปัจจุบันโลกและข้อมูลที่เรารู้จักเกือบทั้งหมดอยู่ในรูปแบบของดิจิทัล จึงเป็นไปได้สูงที่เทคโนโลยีเหล่านี้อาจถูกนำไปใช้สำหรับการปลอมแปลงหรือแก้ไขข้อมูล ที่อาจนำไปสู่การหลอกลวงหรือสร้างความเข้าใจผิดเป็นวงกว้าง

 

          วันนี้เราจึงมาลงรายละเอียดเกี่ยวกับการบิดเบือนและแก้ไขข้อมูลที่อาจจะเกิดขึ้นจากฝีมือเอไอกันเสียหน่อย

 

AntiFake แนวทางป้องกันไม่ให้เสียงของเราถูกเอไอปลอมแปลง

 

การปลอมแปลงข้อมูลจากเอไอที่น่ากลัวขึ้นทุกวัน

 

          ที่ผ่านมาเราต่างกังวลกับการที่ข้อมูลส่วนตัวหลุดออกไปสู่โลกออนไลน์โดยเฉพาะในมือมิจฉาชีพ แต่ด้วยการมาถึงและขีดความสามารถของเอไอ สิ่งที่น่ากลัวในการเผยแพร่อาจไม่ได้มีเพียงข้อมูลส่วนตัวอีกต่อไป แต่อาจเป็นข้อมูลบันทึกจากภาพและเสียงของเราเอง

 

          หนึ่งในส่วนที่ได้รับการพูดถึงบ่อยคือ Deepfake อีกหนึ่งเทคโนโลยีที่ถูกนำมาใช้ปลอมแปลงหน้าตาและเสียงของผู้ใช้งาน ให้ตัวเราสามารถเปลี่ยนเป็นใครก็ได้ขอเพียงมีสำเนาข้อมูลดิจิทัลมาอ้างอิง ซึ่งเราสามารถพบเห็นได้ทั่วไปตามวีดีโอตัดต่อทางอินเทอร์เน็ต หรือสื่อโฆษณาที่เริ่มนำเทคโนโลยีนี้มาประยุกต์ใช้งานแล้วเช่นกัน

 

          อันดับต่อมาคือการมาถึงของ Generative AI ทั้งหลาย กับการพัฒนาปัญญาประดิษฐ์สำหรับลอกเลียนโดยเฉพาะ เช่น VALL-E ของทาง Microsoft ที่สามารถลอกเลียนเสียงพูดของคนเราได้แนบเนียนเพียงอาศัยตัวอย่างไฟล์เสียงราว 3 วินาที ซึ่งจะยิ่งเพิ่มความซับซ้อนในการปลอมแปลงขึ้นไปอีก

 

          อีกประเด็นที่น่าพูดถึงไม่แพ้กันคือ ความก้าวหน้าของเอไอ Chatbot ที่มีขีดความสามารถสูงขึ้นเรื่อยๆ โดยเฉพาะการมาถึงของ Custom GPT ที่ช่วยให้เราสามารถตั้งค่าเอไอได้เองจนเราสามารถปรับแต่งเอไอได้ตามใจ ตั้งแต่ให้เป็นผู้ช่วย เลขาส่วนตัว ไปจนผู้เชี่ยวชาญด้านต่างๆ

 

          นี่เองจึงนำไปสู่การตั้งคำถามว่า ในกรณีที่เอไอเหล่านี้ถูกนำไปใช้ในทางผิดจะนำไปสู่ผลกระทบเช่นไร แม้จะมีคำยืนยันจากทาง Microsoft ว่า VALL-E จะไม่เปิดให้บริการ เช่นเดียวกับ OpenAI ที่พยายามวางมาตรการป้องกันทุกวิถีทาง แต่ก็อาจขึ้นกับเวลาเท่านั้นว่าอาชญากรรมจะนำเทคโนโลยีนี้ไปใช้เมื่อใด

 

          นำไปสู่การคิดค้นหาหาแนวทางป้องกันข้อมูลของเราไม่ได้ถูกเอไอนำไปใช้ประโยชน์อย่าง AntiFake

 

AntiFake แนวทางป้องกันไม่ให้เสียงของเราถูกเอไอปลอมแปลง

 

AntiFake อีกหนึ่งแนวทางรับมือการปลอมแปลงผ่านเอไอ

 

          ผลงานนี้เป็นของทีมวิจัยจาก Washington University in St. Louis กับการพัฒนาระบบต่อต้าน Deepfake รวมถึงเอไอสำหรับใช้ในการลอกเลียน จำลอง และปลอมแปลงเสียงของเรา เพื่อป้องกันการที่ไฟล์เสียงของเราถูกนำไปใช้งานในการเทรนข้อมูลรวมถึงทำซ้ำในทุกกรณี

 

          ความพยายามของกลุ่มมิจฉาชีพในการหลอกลวงเงินจากเรามากขึ้นทุกวัน ล่าสุดเริ่มมีการลอกเลียนเสียงของเราผ่านการสนทนาทางโทรศัพท์มาบันทึกแล้วนำไปใช้ซ้ำ จากนั้นก็นำไปหลอกญาติมิตร เพื่อนสนิท หรือคนรู้จัก นำไปสู่การเข้าใจผิดจนทำให้ต้องสูญเสียทรัพย์สิน ถือเป็นอีกประเภทการหลอกลวงต้มตุ๋นที่เริ่มถูกพูดถึง

 

          จริงอยู่แนวทางในการพิสูจน์และตรวจจับเสียงปลอมจากเอไอหรือ Deepfake ทั้งหลายได้รับการพัฒนาเช่นกัน แต่การตรวจสอบเหล่านั้นจะเกิดต่อเมื่อข้อมูลปลอมถูกนำไปใช้งานหรือเผยแพร่ ซึ่งเป็นช่วงเวลาที่ความเสียหายอาจเกิดขึ้นและแพร่กระจายเป็นวงกว้างไปแล้วจึงอาจเป็นวิธีที่ไม่มีประสิทธิภาพนัก

 

          นำไปสู่การพัฒนาระบบ AntiFake โดยอาศัยรูปแบบเดียวกับเครื่องมือที่อาชญากรไซเบอร์ใช้งาน ระบบจะทำการปลอมปนเสียงสัญญาณการสนทนาของผู้ใช้งานเข้ากับคลื่นเสียงเฉพาะ ส่งผลให้เมื่อมีการบันทึกไฟล์เสียงของเราแล้ว จะไม่สามารถนำไปใช้ประโยชน์เป็นวัตถุดิบในการปลอมแปลงได้

 

          สัญญาณที่แทรกเข้าไปในคลื่นเสียงอาศัยเทคนิคเดียวกับที่อาชญากรไซเบอร์นิยมใช้ ต่างกันตรงครั้งนี้เป็นนำมาใช้ในมุมกลับทำหน้าที่เหมือนการเข้ารหัส เมื่อพูดผ่านโปรแกรมนี้จะทำให้เสียงที่เราพูดเพี้ยนไปจากเดิม สำหรับคนเรานี่ยังเป็นคำพูดที่สามารถใช้รับฟังเนื้อความต่อได้ แต่จะไม่สามารถนำไปใช้ประโยชน์กับเอไอได้อีก

 

          จากการทดสอบแม้มีความพยายามในการนำชุดเสียงที่ผ่านการแปลงนี้เข้าระบบเอไอเพื่อจำลอง แต่จะไม่มีทางจำลองเสียงของคู่สนทนาออกมาได้เหมือนอีกต่อไป สามารถป้องกันการลอกเลียนจากเอไอที่มีการใช้งานในปัจจุบันได้ราว 95% และใช้ได้กับคนเกือบทุกประเภทและเชื้อชาติ

 

          นี่จึงถือเป็นอีกแนวทางสำหรับรับมือการปลอมแปลงข้อมูลที่อาจจะเกิดขึ้นในอนาคต

 

 

 

          ปัจจุบันระบบ AntiFake ได้รับการพัฒนาเพื่อป้องกันการนำเสียงบันทึกระดับไม่กี่วินาทีไปใช้งาน แต่เป้าหมายของพวกเขายังคงไม่จบเพียงเท่านี้ ทางทีมวิจัยตั้งเป้าหมายในการพัฒนาระบบนี้ให้ดียิ่งขึ้น เพื่อปกป้องเสียงพูดคุยสนทนา ไปจนการใช้ร่วมกับเสียงเพลงเพื่อป้องกันการลอกเลียนและบิดเบือนข้อมูลที่กว้างยิ่งขึ้นในอนาคต

 

          อย่างไรก็ตามข้อจำกัดสำคัญของระบบ AntiFake ในปัจจุบันคือ เมื่อใส่เสียงแทรกซ้อนเข้าไปทำให้เนื้อหาการพูดคุยเปลี่ยนไปจนรับฟังและคาดเดาได้ยากขึ้นแม้แต่กับมนุษย์ด้วยกัน จึงยังจำเป็นต้องได้รับการพัฒนาอีกพักใหญ่เพื่อลดผลกระทบต่อเนื้อเสียง โดยยังคงคุณสมบัติป้องกันการลอกเลียนเอาไว้ได้

 

          ที่เหลือเราคงต้องรอดูต่อไปว่าเทคโนโลยีป้องกันอย่าง AntiFake จะถูกพัฒนามารับมือการปลอมแปลงจากเอไอได้ทันท่วงทีหรือไม่ และจะมีประสิทธิภาพรับมือในสถานการณ์จริงเพียงไร

 

 

 

 

          ที่มา

 

          https://www.posttoday.com/innovation/1056

 

          https://www.posttoday.com/post-next/innovation/690980

 

          https://www.posttoday.com/post-next/innovation/695805

 

          https://www.unite.ai/th/custom-gpts-are-here-and-will-impact-everything-ai/

 

          https://source.wustl.edu/2023/11/defending-your-voice-against-deepfakes/

 

          https://sites.google.com/view/yu2023antifake