posttoday

Gartner คาดการณ์ Gen AI จะเป็นต้นตอการรั่วไหลข้อมูล 40% ใน 2 ปีข้างหน้า

06 มีนาคม 2568

Gartner คาดว่า 40% ของปัญหาข้อมูลรั่วไหลในปี 2570 มาจาก Generative AI องค์กรต้องเร่งปรับกลยุทธ์ก่อนกฎระเบียบใหม่บังคับใช้

บริษัท Gartner คาดการณ์ว่า ภายในปี 2570 กว่า 40% ของปัญหาข้อมูลรั่วไหลที่เกี่ยวข้องกับ AI จะเกิดจากการใช้ Generative AI (GenAI) ข้ามประเทศอย่างไม่เหมาะสม

 

ปัจจุบัน การใช้งาน GenAI กำลังเติบโตอย่างรวดเร็วในหมู่ผู้ใช้ทั่วไป เร็วกว่าการพัฒนามาตรการกำกับดูแลและรักษาความปลอดภัย ส่งผลให้เกิดความกังวลเกี่ยวกับการจัดเก็บและประมวลผลข้อมูลในประเทศ (Data Localization) เนื่องจากเทคโนโลยีเหล่านี้ต้องอาศัยการประมวลผลแบบรวมศูนย์ (Centralized Computing)

 

การถ่ายโอนข้อมูลข้ามประเทศ ความท้าทายที่องค์กรต้องเผชิญ

 

Joerg Fritsch รองประธานนักวิเคราะห์ของ Gartner ระบุว่า ปัญหาการถ่ายโอนข้อมูลข้ามประเทศโดยไม่ตั้งใจมักเกิดจากการขาดแนวทางกำกับดูแลที่เหมาะสม โดยเฉพาะเมื่อมีการรวม GenAI เข้ากับผลิตภัณฑ์เดิมโดยไม่มีคำอธิบายหรือการแจ้งเตือนที่ชัดเจน

 

แม้ว่าหลายองค์กรจะอนุญาตให้พนักงานใช้เครื่องมือ GenAI ในแอปพลิเคชันทางธุรกิจ แต่ก็มีความเสี่ยงด้านความปลอดภัย หากมีการป้อนข้อมูลที่ละเอียดอ่อนไปยัง AI หรือ API ที่ตั้งอยู่ในต่างประเทศ ซึ่งอาจไม่สามารถควบคุมได้

 

ช่องว่างของมาตรฐาน AI ทั่วโลก ส่งผลต่อการดำเนินธุรกิจ

 

การขาดมาตรฐานสากลสำหรับการกำกับดูแล AI และการปกป้องข้อมูล ทำให้เกิดความท้าทายหลายประการ ได้แก่

 

- การแบ่งแยกตลาด องค์กรต้องปรับกลยุทธ์แยกตามแต่ละภูมิภาค

 

- ข้อจำกัดในการขยายธุรกิจ ทำให้การขยายตลาดระดับโลกทำได้ยากขึ้น

 

- ต้นทุนการกำกับดูแลสูงขึ้น เนื่องจากต้องลงทุนเพิ่มเติมด้านความปลอดภัยและกฎระเบียบ

 

Joerg Fritsch ระบุว่า องค์กรต้องลงทุนในมาตรการกำกับดูแล AI และการรักษาความปลอดภัยข้อมูลมากขึ้น เพื่อปกป้องข้อมูลสำคัญและปฏิบัติตามกฎระเบียบของแต่ละประเทศ

 

AI Governance จะกลายเป็นข้อบังคับภายในปี 2570

 

Gartner คาดการณ์ว่า ภายในปี 2570 การกำกับดูแล AI (AI Governance) จะกลายเป็นข้อบังคับทั่วโลก องค์กรที่ไม่สามารถปรับตัวให้สอดคล้องกับมาตรฐานเหล่านี้อาจเสียเปรียบในการแข่งขัน โดยเฉพาะองค์กรที่ไม่มีทรัพยากรเพียงพอในการขยายระบบกำกับดูแลข้อมูลให้ทันกับการเปลี่ยนแปลง

 

กลยุทธ์ป้องกันความเสี่ยงจากข้อมูลรั่วไหลของ AI

 

Gartner แนะนำให้องค์กรเร่งดำเนินการ 4 แนวทางหลัก เพื่อลดความเสี่ยงจากข้อมูลรั่วไหลของ AI และเตรียมพร้อมรับกฎระเบียบใหม่ในอนาคต

 

1.เพิ่มประสิทธิภาพการกำกับดูแลข้อมูล

 

- ตรวจสอบการถ่ายโอนข้อมูลข้ามประเทศโดยไม่ตั้งใจ

 

- ขยายกรอบการกำกับดูแลให้ครอบคลุมข้อมูลที่ใช้ AI

 

- ประเมินผลกระทบของข้อมูลที่อาจละเมิดความเป็นส่วนตัว

 

2.จัดตั้งคณะกรรมการกำกับดูแล AI

 

- ควบคุมความเสี่ยงและการปฏิบัติตามกฎระเบียบ

 

- สื่อสารแนวทางการใช้ AI อย่างโปร่งใสภายในองค์กร

 

3.เสริมสร้างความปลอดภัยข้อมูล

 

- ใช้การเข้ารหัสและการปกปิดตัวตนของข้อมูล

 

- ตรวจสอบให้แน่ใจว่า AI ประมวลผลข้อมูลในสภาพแวดล้อมที่ปลอดภัย เช่น Trusted  Execution Environment (TEE)

 

4.ลงทุนในโซลูชัน TRiSM (Trust, Risk & Security Management)

 

- ใช้ระบบ AI TRiSM เพื่อควบคุมความเสี่ยงด้านข้อมูล

 

- Gartner คาดการณ์ว่า ภายในปี 2569 องค์กรที่ใช้ AI TRiSM จะลดการใช้ข้อมูลที่ไม่ถูกต้องลงอย่างน้อย 50% และลดการตัดสินใจผิดพลาด