
กรณีของ Grok แชตบอท AI ในแพลตฟอร์ม X ที่ยอมรับว่าระบบความปลอดภัยมีช่องโหว่จนสามารถสร้างภาพเยาวชนในลักษณะที่ไม่เหมาะสมได้
ทำไมถึงสั่ง AI สร้างภาพที่ไม่เหมาะสมได้ขนาดนั้น?
แม้ Grok จะมีกฎชัดเจนว่าห้ามสร้างเนื้อหาผิดกฎหมายหรือเนื้อหาที่เกี่ยวกับเด็ก แต่เคสนี้ผู้ใช้ไม่ได้พิมพ์คำสั่งตรงๆ แต่ใช้คำเลี่ยงบาลี หรือสั่งให้แก้ไขภาพทีละนิด จนสามารถหลุดออกมาเป็นภาพที่ละเมิดความเป็นส่วนตัวได้
นอกจากนี้ การที่ AI อยู่บนแพลตฟอร์มโซเชียลมีเดียที่ใครก็เข้าถึงได้ พอมีคนลองสั่งแก้ภาพแล้วเอาไปเผยแพร่ มันก็ออกไปสู่สาธารณะทันที ซึ่งเนื้อหาเหล่านี้สามารถสร้างความเสียหายต่อชื่อเสียง และเป็นเครื่องมือที่ใช้เพื่อล่วงละเมิดได้
เหตุการณ์นี้ไม่ใช่เพียงข้อผิดพลาดของระบบ แต่เป็นปัญหาระดับโลก ที่หลายประเทศกำลังพิจารณาเรื่องนี้อย่างจริงจัง
อินเดีย เรียกร้องให้แพลตฟอร์มลบเนื้อหาผิดกฎหมายภายใน 72 ชั่วโมง และชี้แจงมาตรการควบคุม AI
ฝรั่งเศส รายงานเนื้อหาที่เกี่ยวกับเยาวชนต่อหน่วยกำกับดูแล และตรวจสอบว่าละเมิด Digital Services Act (DSA) ของยุโรปหรือไม่
มาเลเซีย กำลังสอบสวนการใช้ AI สร้างเนื้อหาที่ละเมิดศีลธรรมและสิทธิส่วนบุคคล
นอกจากนี้ ยังมีข้อมูลของ Internet Watch Foundation ที่เผยว่า ครึ่งปีแรกของปี 68 จำนวนเนื้อหา CSAM หรือสื่อที่เกี่ยวข้องกับการล่วงละเมิดทางเพศเด็ก ที่สร้างด้วย AI บนเว็บไซต์ 210 แห่ง เพิ่มขึ้นมากถึง 400% เมื่อเทียบกับช่วงเดียวกันของปี 67
สะท้อนปัญหาเชิงโครงสร้างของแพลตฟอร์ม ที่ต่างพัฒนา AI ให้เก่ง แต่มาตรการกำกับดูแลกลับตามไม่ทัน
เหตุการณ์ของ Grok จึงไม่ใช่เรื่องของแพลตฟอร์มใดแพลตฟอร์มหนึ่ง แต่เป็นสัญญาณเตือนว่า AI ที่เข้าถึงง่ายบนโลกออนไลน์อาจถูกนำไปสร้างเนื้อหาที่ผิดกฎหมายและละเมิดศีลธรรมได้อย่างรวดเร็ว
การปรับทั้งกฎหมาย เทคโนโลยี และความตระหนักรู้ของผู้ใช้ออนไลน์ จึงเป็นสิ่งจำเป็นเพื่อป้องกันไม่ให้ AI กลายเป็นเครื่องมือละเมิดสิทธิและความปลอดภัยของเยาวชน
ติดตามทุกความเคลื่อนไหวของเทคโนโลยี ที่จะพัฒนาและยกระดับประเทศไทยให้ก้าวไปข้างหน้าได้ที่ Tech Movement
แท็กที่เกี่ยวข้อง
ข่าวที่เกี่ยวข้อง

สเปนประกาศเตรียมห้ามเด็กใช้โซเชียล พร้อมเอาผิดผู้บริหารหากปล่อยเนื้อหาผิดกฎหมาย
รัฐบาลสเปนประกาศแผนมาตรการเข้มงวดควบคุมโซเชียลมีเดีย โดยจะเสนอร่างกฎหมายห้ามเยาวชนอายุต่ำกว่า 16 ปีใช้แพลตฟอร์มโซเชียลมีเดีย


