ระวัง! ‘AI Agents’ ติดปีกโจรไซเบอร์

Loading

“การ์ทเนอร์” คาดการณ์ในอีกสองปีข้างหน้านี้ (พ.ศ.2570) “AI Agents” จะลดเวลาในการโจมตีช่องโหว่ของบัญชีลง 50% เจเรมี่ ดอนน์ รองประธานนักวิเคราะห์ การ์ทเนอร์ กล่าวว่า การยึดบัญชี หรือ ATO ยังคงเป็นการโจมตีที่เติบโตอย่างต่อเนื่อง

อันเนื่องมาจากข้อมูลการยืนยันตัวตนที่ยังไม่แข็งแรงพอ เช่น รหัสผ่าน ที่ถูกรวบรวมด้วยวิธีการต่าง ๆ และการรั่วไหลของข้อมูล การฟิชชิ่ง การหลอกลวงทางวิศวกรรมสังคมหรือ Social Engineering และมัลแวร์ โดยแฮกเกอร์จะใช้บอทอัตโนมัติเข้าสู่ระบบของบริการต่างๆ โดยหวังว่าข้อมูลยืนยันตัวตนนั้น ๆ จะถูกนำมาใช้ซ้ำอีกในแพลตฟอร์มอื่นๆ ด้วย

AI Agents จะทำให้การทำงานในขั้นตอนต่างๆ ของการยึดบัญชี (ATO) เป็นอัตโนมัติมากขึ้น ตั้งแต่การหลอกลวงทางกระบวนการวิศวกรรมสังคมโดยใช้เสียง Deepfake ไปจนถึงการละเมิดข้อมูลประจำตัวผู้ใช้แบบครบวงจรอย่างอัตโนมัติ

จากกรณีนี้ทำให้ผู้ให้บริการจะต้องแนะนำผลิตภัณฑ์เพื่อตรวจจับ ติดตาม และจำแนกการโต้ตอบที่เกี่ยวข้องกับ AI Agent ทั้งในช่องทางเว็บ, แอป, API และเสียง

เมื่อต้องเผชิญกับภัยคุกคามที่เปลี่ยนแปลงเหล่านี้ ผู้นำความปลอดภัยควรเร่งการเปลี่ยนไปใช้เทคโนโลยีการรับรองความถูกต้องแบบหลายปัจจัยเพื่อป้องกันการฟิชชิ่ง (MFA) แบบไม่ต้องใช้รหัสผ่าน ตัวเลือกในการยืนยันตัวตน การให้ความรู้และสร้างแรงจูงใจกับผู้ใช้ให้ย้ายจากรหัสผ่านไปสู่การใช้ Passkey กับอุปกรณ์หลากหลายได้อย่างเหมาะสม

นอกจากปัญหาการ ATO แล้ว วิศวกรรมสังคมที่ใช้เทคโนโลยียังเป็นภัยคุกคามสำคัญต่อความมั่นคงทางไซเบอร์ขององค์กรเช่นกัน

การ์ทเนอร์คาดการณ์ว่าในปี พ.ศ.2571 การโจมตีด้วยวิศวกรรมสังคม 40% จะมุ่งเป้าไปที่ผู้บริหารและพนักงานในวงกว้าง

ปัจจุบันแฮกเกอร์กำลังผสานกลยุทธ์โจมตีวิศวกรรมสังคมเข้ากับเทคนิคการปลอมแปลงเสมือนจริง อาทิ เสียงและวิดีโอแบบ Deepfake เพื่อหลอกลวงพนักงานระหว่างการโทรติดต่อ

แม้ว่าจะมีการรายงานไม่กี่เคส แต่เหตุการณ์เหล่านี้ย้ำให้เห็นถึงความน่าเชื่อถือของภัยคุกคามและส่งผลให้องค์กรที่ตกเป็นเหยื่อสูญเสียทางการเงินเป็นจำนวนมหาศาล

ขณะที่การตรวจจับ Deepfake ยังอยู่ในขั้นเริ่มต้นและเป็นความท้าทาย โดยเฉพาะเมื่อนำไปใช้กับการโจมตีที่หลากหลายในชั้นเบื้องต้นของการสื่อสารด้วยเสียงและวิดีโอเรียลไทม์ระหว่างบุคคลบนแพลตฟอร์มต่างๆ

พร้อมกันนี้ องค์กรจะต้องติดตามสถานการณ์ในตลาดอย่างใกล้ชิด และปรับเปลี่ยนขั้นตอน รวมถึงกระบวนการทำงานเพื่อต้านทานการโจมตีที่ใช้เทคนิคการปลอมแปลงเสมือนจริงเพื่อป้องกันได้ดีขึ้น การให้ความรู้แก่พนักงานเกี่ยวกับภูมิทัศน์ภัยคุกคามที่เปลี่ยนแปลงโดยอาศัยการฝึกอบรมในหัวข้อเฉพาะถึงแนวทางการรับมือกับภัยการหลอกลวงทางวิศวกรรมสังคมด้วย Deepfake จึงเป็นแนวทางที่สำคัญ

แหล่งข้อมูล

https://www.bangkokbiznews.com/tech/gadget/1177007


Smart City Thailand : 02 054 7755
Contact us : thunya.b@gmail.com | thunya@securitysystems.in.th

© smartcitythailand 11 โกสุมรวมใจ ดอนเมือง กรุงเทพมหานคร 10210