Gartner คาดการณ์ Gen AI จะเป็นต้นตอการรั่วไหลข้อมูล 40% ใน 2 ปีข้างหน้า
Gartner คาดว่า 40% ของปัญหาข้อมูลรั่วไหลในปี 2570 มาจาก Generative AI องค์กรต้องเร่งปรับกลยุทธ์ก่อนกฎระเบียบใหม่บังคับใช้
บริษัท Gartner คาดการณ์ว่า ภายในปี 2570 กว่า 40% ของปัญหาข้อมูลรั่วไหลที่เกี่ยวข้องกับ AI จะเกิดจากการใช้ Generative AI (GenAI) ข้ามประเทศอย่างไม่เหมาะสม
ปัจจุบัน การใช้งาน GenAI กำลังเติบโตอย่างรวดเร็วในหมู่ผู้ใช้ทั่วไป เร็วกว่าการพัฒนามาตรการกำกับดูแลและรักษาความปลอดภัย ส่งผลให้เกิดความกังวลเกี่ยวกับการจัดเก็บและประมวลผลข้อมูลในประเทศ (Data Localization) เนื่องจากเทคโนโลยีเหล่านี้ต้องอาศัยการประมวลผลแบบรวมศูนย์ (Centralized Computing)
การถ่ายโอนข้อมูลข้ามประเทศ ความท้าทายที่องค์กรต้องเผชิญ
Joerg Fritsch รองประธานนักวิเคราะห์ของ Gartner ระบุว่า ปัญหาการถ่ายโอนข้อมูลข้ามประเทศโดยไม่ตั้งใจมักเกิดจากการขาดแนวทางกำกับดูแลที่เหมาะสม โดยเฉพาะเมื่อมีการรวม GenAI เข้ากับผลิตภัณฑ์เดิมโดยไม่มีคำอธิบายหรือการแจ้งเตือนที่ชัดเจน
แม้ว่าหลายองค์กรจะอนุญาตให้พนักงานใช้เครื่องมือ GenAI ในแอปพลิเคชันทางธุรกิจ แต่ก็มีความเสี่ยงด้านความปลอดภัย หากมีการป้อนข้อมูลที่ละเอียดอ่อนไปยัง AI หรือ API ที่ตั้งอยู่ในต่างประเทศ ซึ่งอาจไม่สามารถควบคุมได้
ช่องว่างของมาตรฐาน AI ทั่วโลก ส่งผลต่อการดำเนินธุรกิจ
การขาดมาตรฐานสากลสำหรับการกำกับดูแล AI และการปกป้องข้อมูล ทำให้เกิดความท้าทายหลายประการ ได้แก่
- การแบ่งแยกตลาด องค์กรต้องปรับกลยุทธ์แยกตามแต่ละภูมิภาค
- ข้อจำกัดในการขยายธุรกิจ ทำให้การขยายตลาดระดับโลกทำได้ยากขึ้น
- ต้นทุนการกำกับดูแลสูงขึ้น เนื่องจากต้องลงทุนเพิ่มเติมด้านความปลอดภัยและกฎระเบียบ
Joerg Fritsch ระบุว่า องค์กรต้องลงทุนในมาตรการกำกับดูแล AI และการรักษาความปลอดภัยข้อมูลมากขึ้น เพื่อปกป้องข้อมูลสำคัญและปฏิบัติตามกฎระเบียบของแต่ละประเทศ
AI Governance จะกลายเป็นข้อบังคับภายในปี 2570
Gartner คาดการณ์ว่า ภายในปี 2570 การกำกับดูแล AI (AI Governance) จะกลายเป็นข้อบังคับทั่วโลก องค์กรที่ไม่สามารถปรับตัวให้สอดคล้องกับมาตรฐานเหล่านี้อาจเสียเปรียบในการแข่งขัน โดยเฉพาะองค์กรที่ไม่มีทรัพยากรเพียงพอในการขยายระบบกำกับดูแลข้อมูลให้ทันกับการเปลี่ยนแปลง
กลยุทธ์ป้องกันความเสี่ยงจากข้อมูลรั่วไหลของ AI
Gartner แนะนำให้องค์กรเร่งดำเนินการ 4 แนวทางหลัก เพื่อลดความเสี่ยงจากข้อมูลรั่วไหลของ AI และเตรียมพร้อมรับกฎระเบียบใหม่ในอนาคต
1.เพิ่มประสิทธิภาพการกำกับดูแลข้อมูล
- ตรวจสอบการถ่ายโอนข้อมูลข้ามประเทศโดยไม่ตั้งใจ
- ขยายกรอบการกำกับดูแลให้ครอบคลุมข้อมูลที่ใช้ AI
- ประเมินผลกระทบของข้อมูลที่อาจละเมิดความเป็นส่วนตัว
2.จัดตั้งคณะกรรมการกำกับดูแล AI
- ควบคุมความเสี่ยงและการปฏิบัติตามกฎระเบียบ
- สื่อสารแนวทางการใช้ AI อย่างโปร่งใสภายในองค์กร
3.เสริมสร้างความปลอดภัยข้อมูล
- ใช้การเข้ารหัสและการปกปิดตัวตนของข้อมูล
- ตรวจสอบให้แน่ใจว่า AI ประมวลผลข้อมูลในสภาพแวดล้อมที่ปลอดภัย เช่น Trusted Execution Environment (TEE)
4.ลงทุนในโซลูชัน TRiSM (Trust, Risk & Security Management)
- ใช้ระบบ AI TRiSM เพื่อควบคุมความเสี่ยงด้านข้อมูล
- Gartner คาดการณ์ว่า ภายในปี 2569 องค์กรที่ใช้ AI TRiSM จะลดการใช้ข้อมูลที่ไม่ถูกต้องลงอย่างน้อย 50% และลดการตัดสินใจผิดพลาด