การ์ทเนอร์คาดการณ์อีก 5 ปีข้างหน้าสัดส่วนของ Guardian Agents จะครอบคลุมประมาณ 10-15% ของตลาด Agentic AI Guardian Agents จะทำให้กระบวนการทำงานของ AI น่าเชื่อถือและปลอดภัยในสภาวะที่การใช้ AI มีความเสี่ยงเพิ่มขึ้น

การ์ทเนอร์คาดการณ์ว่า ภายในอีก 5 ปี นับจากนี้ (พ.ศ. 2573)  เทคโนโลยีความปลอดภัย “Guardian Agent” จะมีสัดส่วนในตลาด Agentic AI อย่างน้อย 10-15%

Guardian Agents คือเทคโนโลยีต่าง ๆ ที่ใช้ AI เป็นพื้นฐานการทำงาน ออกแบบมาเพื่อสนับสนุนและทำงานร่วมกับ AI เพื่อสร้างความน่าเชื่อถือและความปลอดภัย โดยทำหน้าที่เป็นทั้งผู้ช่วย AI ที่คอยสนับสนุนผู้ใช้ในงานต่าง ๆ อาทิ การตรวจสอบเนื้อหา การติดตามและการวิเคราะห์ โดยเป็นตัวแทนหรือ Agents ที่สามารถทำงานได้แบบกึ่งอัตโนมัติหรือแบบอัตโนมัติเต็มรูปแบบ มีความสามารถในการจัดทำและดำเนินแผนการปฏิบัติงาน รวมถึงปรับเปลี่ยนเส้นทางหรือป้องกันการกระทำที่เป็นอันตราย สอดรับตามเป้าหมายที่กำหนดไว้ล่วงหน้า

 

เมื่อการใช้งาน Agentic AI เติบโตต่อเนื่อง จำเป็นต้องมีระบบความปลอดภัยหรือ Guardrails 

จากผลสำรวจของการ์ทเนอร์ในเว็บบินาร์ เมื่อ 19 พฤษภาคม 2568 ผ่านมุมมองของผู้บริหาร CIO และหัวหน้าฝ่าย IT จำนวน 147 ราย พบว่า 24% ของผู้ตอบแบบสอบถามได้นำ AI Agents มาปรับใช้เพียงไม่กี่ตัว (น้อยกว่า 12 ตัว) ขณะที่มีเพียง 4% ที่นำ AI Agents มาใช้มากกว่า 12 ตัว

ผลจากแบบสำรวจเดียวกันนี้ยังพบว่า 50% ของผู้ตอบแบบสอบถามกล่าวว่าพวกเขากำลังหาข้อมูลและทดลองใช้เทคโนโลยีชนิดนี้ ในขณะที่อีก 17% บอกว่ายังไม่ได้เริ่มทำ แต่อยู่ในขั้นวางแผนนำเทคโนโลยีนี้มาปรับใช้ในช่วงสิ้นปี 2569 เป็นอย่างช้า การควบคุมความน่าเชื่อถือ ความเสี่ยง และความปลอดภัยแบบอัตโนมัติจำเป็นต้องทำให้ตัวแทนเหล่านี้มีความสอดคล้องและปลอดภัย ซึ่งเป็นการเร่งการเติบโตและความต้องการของ Guardian Agents ยิ่งขึ้น 

 

Avivah Litan รองประธาน นักวิเคราะห์ของการ์ทเนอร์ กล่าวว่า “หากไม่ได้ควบคุมและป้องกันด้วยระบบความปลอดภัยหรือ Guardrails อย่างเหมาะสมแล้ว Agentic AI จะพาองค์กรไปสู่ผลลัพธ์ที่ไม่พึงประสงค์โดย Guardian Agents จะอาศัยความสามารถที่หลากหลายของ Agentic AI และเทคโนโลยีที่ขับเคลื่อนด้วย AI มาประเมินแบบกำหนดที่ใช้ AI เป็นพื้นฐาน เพื่อใช้ดูแลและจัดการความสามารถทั้งหมดของ Agent โดยสร้างสมดุลระหว่างการตัดสินใจขณะทำงานร่วมกับการจัดการความเสี่ยง”

 

ความเสี่ยงเพิ่มขึ้นตามพลัง Agent ที่เพิ่มขึ้นและแพร่หลายมากขึ้น

52% จากผู้ตอบแบบสอบถามอีกส่วนหนึ่งจำนวน 125 รายจากเว็บบินาร์เดียวกัน ยังระบุว่าระบบ AI Agents ของพวกเขามีหรือมุ่งเน้นไปที่ยูสเคสการใช้งานที่เกี่ยวข้องกับฟังก์ชันการบริหารภายในองค์กรเป็นหลัก อาทิ ด้าน IT, ฝ่ายบุคคลและบัญชี ขณะที่ 23% บอกว่าเน้นไปที่ฟังก์ชันที่เกี่ยวข้องกับการใช้งานของลูกค้าภายนอก

 

ในขณะที่ยูสเคส AI Agents มีการเติบโตต่อเนื่อง ก็ยังเกิดภัยคุกคามหลายประเภทที่ส่งผลกระทบต่อการทำงานของตัว AI ตั้งแต่การจัดการข้อมูลขาเข้าและข้อมูลที่เป็นภัย ตามที่ระบบพึ่งพาชุดข้อมูลหลอกลวงหรือถูกตีความผิด ๆ ตัวอย่างเช่น:

  • การแฮ็กและการละเมิดข้อมูลประจำตัว ซึ่งนำไปสู่การควบคุมที่ไม่ได้รับอนุญาตและการขโมยข้อมูล
  • AI Agents ที่โต้ตอบกับเว็บไซต์และแหล่งข้อมูลปลอมหรือผิดกฎหมาย อาจส่งผลให้เกิดการดำเนินการที่เป็นอันตราย
  • การเบี่ยงเบนของ AI Agents และพฤติกรรมที่ไม่ได้ตั้งใจอันเนื่องมาจากข้อบกพร่องภายในหรือปัจจัยกระตุ้นภายนอก อาจทำให้ชื่อเสียงองค์กรเสียหายและการดำเนินงานหยุดชะงัก

 

“การเร่งตัวและการเพิ่มขึ้นอย่างรวดเร็วของตัวแทนด้าน AI ทำให้จำเป็นต้องมีการปรับเปลี่ยนจากเดิมที่ให้มนุษย์เป็นผู้ดูแล ซึ่งเมื่อองค์กรเดินหน้าไปสู่ระบบ Multi-Agent ที่ซับซ้อน มีการสื่อสารกันด้วยความเร็วสูง มนุษย์ไม่สามารถไล่ตามข้อผิดพลาดและกิจกรรมที่เป็นอันตรายได้ทัน บวกกับภูมิทัศน์ภัยคุกคามที่ขยายเพิ่มขึ้นนี้ องค์กรมีความจำเป็นอย่างเร่งด่วนสำหรับการนำระบบ Guardian Agents ที่สามารถช่วยดูแล ควบคุม และเพิ่มความปลอดภัยอัตโนมัติในแอปพลิเคชัน AI และ Agent อื่น ๆ” Litan กล่าวเพิ่มเติม

 

ผู้บริหาร CIO และผู้นำด้านความปลอดภัย รวมถึงผู้นำด้าน AI ควรเน้นใช้งาน Guardian Agents ในบทบาท 3 ประเภทหลัก เพื่อช่วยรักษาความปลอดภัยและปกป้องการโต้ตอบร่วมกับ AI:

  • Reviewers: ระบุและตรวจสอบผลลัพธ์และเนื้อหาที่ AI สร้างขึ้นเพื่อความถูกต้องและการใช้งานที่ยอมรับได้
  • Monitors: สังเกตและติดตามการกระทำของ AI รวมถึงการดำเนินงานอัตโนมัติ (Agentic) สำหรับให้มนุษย์หรือการติดตาม AI
  • Protectors: ปรับหรือป้องกันการกระทำและสิทธิ์ของ AI และ Agent โดยใช้การกระทำอัตโนมัติระหว่างการดำเนินงาน

 

Guardian agents จะช่วยจัดการการโต้ตอบและค้นหาความผิดปกติไม่ว่าจะเป็นการใช้งานประเภทใดก็ตาม เป็นกุญแจดอกสำคัญของการรวมประสิทธิภาพความปลอดภัยทั้งหมดเข้าไว้ด้วยกัน ดังที่การ์ทเนอร์คาดการณ์ว่า 70% ของแอป AI จะใช้ระบบ Multi-Agent ในปี 2571

ใส่ความเห็น

อีเมลของคุณจะไม่แสดงให้คนอื่นเห็น ช่องข้อมูลจำเป็นถูกทำเครื่องหมาย *