การ์ทเนอร์ อิงก์ บริษัทวิจัยและให้คำปรึกษาด้านธุรกิจและเทคโนโลยีเปิดเผยว่าภายในปี 2571 กว่าครึ่ง (50%) ของการตอบสนองต่ออุบัติการณ์ทางความมั่นคงทางไซเบอร์ขององค์กรจะมุ่งเน้นไปที่เหตุการณ์ที่เกี่ยวข้องกับแอปพลิเคชัน AI ที่พัฒนาขึ้นเอง

Christopher Mixter รองประธานนักวิเคราะห์ของการ์ทเนอร์ กล่าวว่า “AI กำลังพัฒนาไปอย่างรวดเร็ว แต่เครื่องมือจำนวนมากโดยเฉพาะแอปพลิเคชัน AI ที่องค์กรพัฒนาขึ้นเองกลับถูกนำมาใช้งานทั้งที่ยังไม่ผ่านการทดสอบอย่างสมบูรณ์ ระบบเหล่านี้มีความซับซ้อน เปลี่ยนแปลงตลอดเวลาและควบคุมความปลอดภัยในระยะยาวได้ยาก นอกจากนี้ทีมงานด้านความปลอดภัยส่วนใหญ่ยังขาดกระบวนการที่ชัดเจนในการจัดการกับอุบัติการณ์ที่เกี่ยวข้องกับ AI ซึ่งส่งผลให้การแก้ไขปัญหาอาจใช้เวลานานขึ้น และต้องใช้ความพยายามมากขึ้นอย่างมหาศาล”
การ์ทเนอร์แนะนำให้ผู้นำด้านความมั่นคงทางไซเบอร์ เข้าไปมีส่วนร่วมในโครงการพัฒนาแอปพลิเคชัน AI ตั้งแต่ระยะเริ่มต้น เพื่อให้มั่นใจว่ามีระยะเวลาดำเนินการที่เพียงพอ มีการวางแผนทรัพยากรและมีการจัดการความคาดหวังเพื่อให้เกิดมาตรการควบคุมความปลอดภัยที่เหมาะสม
นี่คือหนึ่งในบทวิเคราะห์คาดการณ์ด้านความมั่นคงปลอดภัยไซเบอร์ที่สำคัญที่สุดของการ์ทเนอร์ที่เปิดเผยไปเมื่อเร็ว ๆ นี้ โดยการ์ทเนอร์แนะนำให้ผู้นำด้านความปลอดภัยนำปัจจัยเหล่านี้ไปประกอบการวางกลยุทธ์ด้านความมั่นคงปลอดภัยในช่วงสองปีข้างหน้า
ภายในปี 2571 องค์กรกว่า 50% จะใช้งาน แพลตฟอร์มความปลอดภัย AI หรือ AI Security Platforms เพื่อควบคุมดูแลการใช้บริการ AI จากภายนอกและปกป้องแอปพลิเคชัน AI ที่พัฒนาขึ้นเอง
แพลตฟอร์มเหล่านี้ช่วยให้องค์กรบริหารจัดการความเสี่ยงใหม่ ๆ ที่มาพร้อมกับการนำ AI มาใช้อย่างรวดเร็วได้แบบรวมศูนย์ เช่น การโจมตีแบบ Prompt Injection, การนำข้อมูลไปใช้ในทางที่ผิด และอื่น ๆ ด้วยการรวมศูนย์และการควบคุมนี้ จะช่วยให้ CISO สามารถบังคับใช้นโยบายการใช้งาน ตรวจสอบกิจกรรมของ AI และวางแนวทางความปลอดภัย ให้สอดคล้องกันทั้งในแอปพลิเคชันภายนอกและแอปพลิเคชันที่สร้างขึ้นเอง ผู้นำด้านความปลอดภัยจึงควรประเมินแพลตฟอร์มความปลอดภัย AI เพื่อให้มั่นใจว่าสามารถครอบคลุมการใช้งานได้ทั้งสองรูปแบบ
กระบวนการตรวจสอบการปฏิบัติตามกฎระเบียบ AI แบบแมนนวล จะส่งผลให้ 75% ขององค์กรที่อยู่ภายใต้การกำกับดูแล เสี่ยงต่อการถูกปรับเงินเกิน 5% ของรายได้รวมทั่วโลกจนถึงปี 2570
แม้แนวทางการกำกับดูแลทั่วโลกจะมีความแตกต่างกัน แต่กฎระเบียบด้าน AI ในภาพรวมมีเป้าหมายร่วมกันคือ การเรียกร้องให้มี “แนวทางการจัดการความเสี่ยงอย่างเป็นระบบ” ถึงแม้ CISO จะสามารถปรับตัวตามมาตรฐานด้านความปลอดภัย ความเป็นส่วนตัว และการจัดการความเสี่ยงทางไซเบอร์ได้ทัน แต่กฎระเบียบใหม่ ๆ ที่ครอบคลุมเรื่องความปลอดภัยของ AI (AI Safety) กำลังสร้างความท้าทายใหม่ในทุกมิติ เพื่อความสำเร็จที่ดียิ่งขึ้น การ์ทเนอร์แนะนำให้จัดทำระบบธรรมาภิบาล ความเสี่ยง และการปฏิบัติตามกฎเกณฑ์ (Cyber GRC) พร้อมขับเคลื่อนการปฏิบัติตามกฎระเบียบผ่านการใช้เทคโนโลยี
จนถึงปี 2573, 33% ของงานด้านไอทีจะถูกใช้ไปกับการจัดการ AI Data Debt เพื่อสร้างความปลอดภัยให้กับระบบ AI
ข้อมูลในองค์กรส่วนใหญ่ยังไม่พร้อมสำหรับ AI โดยเฉพาะอุปสรรคสำคัญในการนำ AI มาใช้ ได้แก่ข้อมูลที่ไม่มีโครงสร้างและการรักษาความปลอดภัยที่หละหลวม เพื่อตอบสนองต่อปัญหานี้ ผู้นำด้านความมั่นคงปลอดภัยไซเบอร์กำลังขยายขอบเขตระบบป้องกันข้อมูลรั่วไหล เพื่อเฝ้าระวังและจำกัดการไหลของข้อมูลที่เกิดขึ้นจาก GenAI และการร้องขอเข้าถึงข้อมูลของ Agentic AI การ์ทเนอร์แนะนำให้ประสานงานร่วมกับผู้นำด้านข้อมูล และผู้นำด้าน AI เพื่อกำหนดโครงการอย่างเป็นระบบในการค้นหาข้อมูล การประเมิน และการแก้ไขการควบคุมการเข้าถึง
30% ขององค์กรจะต้องการอธิปไตยเหนือระบบควบคุมความปลอดภัยบนคลาวด์อย่างครอบคลุม เพื่อรับมือกับความผันผวนทางภูมิรัฐศาสตร์ที่เกิดขึ้นอย่างต่อเนื่องภายในปี 2570
ความวุ่นวายทางภูมิรัฐศาสตร์และกฎระเบียบในแต่ละประเทศ กำลังสร้างความเสี่ยงด้านข้อมูลที่ยากจะจัดการ บีบให้หลายองค์กรต้องยกเรื่องอธิปไตยด้านข้อมูล (Sovereignty) เป็นหัวใจสำคัญของกลยุทธ์การสร้างความยืดหยุ่นทางไซเบอร์ สิ่งนี้จะส่งผลต่อการเลือกผู้ให้บริการสำหรับผลิตภัณฑ์ที่เชื่อมต่อกับคลาวด์ และต้องจัดลำดับความสำคัญใหม่เมื่อข้อกำหนดด้านการจัดเก็บข้อมูลภายในประเทศ เข้มงวดขึ้น ผู้นำความมั่นคงปลอดภัยไซเบอร์ต้องมีบทบาทเชิงรุกในการกำหนดข้อกำหนดด้านอธิปไตยขององค์กร รวมถึงข้อกำหนดตามกฎหมายท้องถิ่น
70% ของ CISO จะใช้ความสามารถด้าน Identity Visibility and Intelligence เพื่อลดพื้นที่การโจมตีของระบบ IAM และลดความเสี่ยงจากการถูกขโมยข้อมูลประจำตัวภายในปี 2571
อัตลักษณ์ หรือ Identity กลายเป็นพื้นที่การโจมตีหลัก เนื่องจากองค์กรประสบปัญหาในการจัดการกับการเติบโตที่รวดเร็วและความซับซ้อนทางอัตลักษณ์ของทั้งมนุษย์และเครื่องจักร สิ่งนี้ทำให้เกิดช่องโหว่ด้านการมองเห็นที่เกิดจากเครื่องมือการจัดการการเข้าถึง (IAM) ที่แยกส่วนกัน และเพิ่มความเสี่ยงจากการตั้งค่าผิดพลาด การ์ทเนอร์แนะนำให้แก้ไขจุดบอดเหล่านี้ด้วยการรวมแพลตฟอร์ม Identity Visibility and Intelligence ที่ขับเคลื่อนด้วย AI แบบรวมศูนย์ เพื่อปรับปรุงการตรวจจับและการแก้ไขปัญหา
ManuTalkThai ศูนย์รวมข่าว Industrial Technology ออนไลน์ในประเทศไทย







