
ประเด็นร้อนวงการไอที คงหนีไม่พ้นเรื่อง Claude Mythos จนเป็นที่สนใจในตอนนี้ หลัง Anthropic เผยโปรเจกต์ลับที่ชื่อ Project Glasswing ที่พัฒนาโมเดล Claude Mythos หวังสร้าง AI ที่มีความเป็น Agentic สูง เพื่อช่วยนักพัฒนาเขียนโค้ดและตรวจสอบความปลอดภัย
แต่เรื่องกลับพีคขั้นสุด เมื่อการทดสอบภายในทำให้พบว่า Claude Mythos สามารถค้นหาช่องโหว่ประเภท Zero-day ที่แม้แต่นักพัฒนายังไขคำตอบไม่ได้ภายในเวลาสั้น ๆ
ความเก่งของ AI ที่อาจเป็นภัยทางไซเบอร์ในอนาคต?
การมีระบบเจ๋ง ๆ เป็นเรื่องที่ดี แต่ควรมาพร้อมกับกรอบการใช้ที่ “ควบคุมได้” ประเด็นนี้เลยทำให้ Mythos กลายเป็นเรื่องที่ผู้เชี่ยวชาญหลายคนกังวล เพราะมันสามารถค้นหาและเจาะช่องโหว่ระดับ Critical ได้ “หลายพันรายการ” รวมถึง Bug อายุ 27 ปีใน OpenBSD ที่แม้แต่คนก็ยังไม่เคยเจอ
Anthropic ย้ำว่า Claude Mythos เป็นโมเดลรุ่นทดลอง ยังไม่เปิดให้ใช้งานทั่วไป
Logan Graham หัวหน้าทีม Red Team บอกว่า "Mythos มีความเป็นอิสระสูงมาก มี Reasoning ที่ซับซ้อน และยังมีทักษะเทียบเท่านักวิจัยด้านความปลอดภัยระดับสูง" อย่าง Opus 4.6 สามารถเจอ Zero-day ประมาณ 500 ตัว ส่วน Mythos เจอได้เป็น "หลักหมื่น" จนสุดท้ายต้องเลือกคุมโมเดลนี้ไว้ให้ใช้เฉพาะบริษัทใหญ่ราว 40 แห่ง เช่น Apple, Amazon, Microsoft และ JPMorgan
มุมมอง Forrester ต่อประเด็นนี้
Forrester หน่วยงานวิจัยและให้คำแนะนำทางด้านเทคโนโลยีและธุรกิจชั้นนำของโลก มองว่า การเปลี่ยนแปลงครั้งนี้ทำให้ “การตรวจพบข้อผิดพลาด” เป็นเรื่องที่ง่ายขึ้น จนความสำคัญของขั้นตอนอาจลดลง ซึ่งอาจกระทบกับวงการความปลอดภัยไซเบอร์ รวมถึง ธุรกิจประกันภัย และ การบริหารจัดการซอฟต์แวร์โอเพนซอร์ส ด้วยพร้อมเตือนว่า องค์กรและหน่วยงานกำกับดูแลควรรีบปรับตัว เพื่อรับมือกับความเสี่ยงรูปแบบใหม่ที่โตเร็วมากจนอาจรับมือด้วยวิธีแบบเดิมไม่ทัน
สรุปการประเมินผลกระทบจาก ThaiCERT
ThaiCERT ประเมินว่าหาก AI นี้ถูกนำมาใช้ในการโจมตีมากขึ้น จะส่งผลเสียเช่น
▪️AI จะช่วยให้แฮกเกอร์หาจุดอ่อน และเจาะระบบได้ไวอย่างที่ไม่เคยเป็นมาก่อน
▪️ความเร็วของการโจมตีทำให้เจ้าหน้าที่ไอที่มีเวลาวิเคราะห์และแก้ไขน้อยลง
▪️ระบบที่ไม่ได้อัปเดต หรือมีความซับซ้อน จะกลายเป็นเป้าหมายที่ถูกเจาะได้ง่ายความ
▪️แฮกเกอร์สามารถเชื่อมโยงช่องโหว่เล็กๆ หลายจุดเข้าด้วยกัน เพื่อสร้างการโจมตีที่รุนแรงขึ้น
▪️หากระบบธนาคาร การสื่อสาร หรือคลาวด์ถูกโจมตี ประชาชนอาจเดือดร้อนทันที
สุดท้ายแล้วความกลัวหรือความตื่นเต้นเรื่อง AI มักถูกบริษัทเทคโนโลยีใช้เป็น "การตลาด" เพื่อสร้างกระแสในช่วงเปิดตัวเท่านั้น ซึ่งศูนย์ความมั่นคงทางไซเบอร์ของอังกฤษก็แนะนำว่าไม่ควรกังวลจนเกินเหตุ สิ่งที่สำคัญที่สุดตอนนี้คือการให้ความสำคัญกับการจัดการพื้นฐานด้านความปลอดภัยไซเบอร์ให้ดี เพราะแฮกเกอร์ส่วนใหญ่ไม่จำเป็นต้องใช้ AI ขั้นสูง แค่ระบบพื้นฐานมีความหละหลวมก็สามารถเจาะเข้าได้ง่ายๆ แล้ว
แท็กที่เกี่ยวข้อง
ข่าวที่เกี่ยวข้อง

YouTube ขยายฟีเจอร์ AI “Likeness Detection” ให้คนดังสั่งลบคลิป Deepfake ได้แล้ว
YouTube ประกาศขยายฟีเจอร์ AI “Likeness Detection” อย่างเป็นทางการ โดยล่าสุดได้เปิดให้กลุ่มอุตสาหกรรมบันเทิง เช่น เอเจนซี ผู้จัดการศิลปิน และคนดัง สามารถเข้าถึงเครื่องมือนี้แล้ว

YouTube ขยายฟีเจอร์ AI “Likeness Detection” ให้คนดังสั่งลบคลิป Deepfake ได้แล้ว

