คอนเทนต์_ChatGPT_แนะนำวิธีปลิดชีพ_!_เรื่องช็อกของวัยรุ่นเมกา.webp

สังคม

ChatGPT แนะนำวิธีปลิดชีพ ! เรื่องช็อกของวัยรุ่นเมกา

Clock Icon

4 กันยายน 2568

แชร์ :

Facebook IconLine IconX Icon

แชทบอทที่เรามักใช้ถามเรื่องงาน ลามไปจนถึงเรื่องส่วนตัว แต่เชื่อไหม ว่ามีคนดันไปถามวิธีปลิดชีพจากมัน แล้วมันก็แนะนำจริงๆ


เรื่องนี้เกิดขึ้นกับ Adam Raine หนุ่มวัย 16 ในสหรัฐฯ ที่ใช้ ChatGPT เวอร์ชัน GPT‑4o ถามการบ้าน จนเริ่มเล่าเรื่องชีวิตประจำวันให้มันฟัง เกี่ยวกับปัญหาวิตกกังวล และภาวะซึมเศร้า


เพราะ AI ไม่มีความรู้สึก เลยทำร้ายเราด้วยเหตุผล?


โดย ChatGPT วางตัวเป็นเพื่อนคนเดียวของเขา และค่อยๆแยกเขาให้ห่างจากครอบครัว จนกระทั่งได้ขอคำแนะนำเกี่ยวกับวิธีปลิดชีพตัวเองจาก ChatGPT และเกิดเหตุสลดขึ้นในที่สุด�. ที่น่าตกใจคือ AI Chatbot ระดับโลก ไม่ปฏิเสธ หรือมีคำเตือนใดๆ แต่กลับสนับสนุนความคิดนั้น พร้อมให้คำแนะนำที่อันตราย อย่างการประเมินสถานการณ์ และวางแผนทำร้ายตัวเองให้แบบเสร็จสรรพ นอกจากนี้ ยังโน้มน้าวให้เขาไม่บอกครอบครัว โดยบอกเป็นนัยๆว่า ไม่มีใครเข้าใจเขาดีเท่าตัวมันอีกแล้ว


หลังเกิดเหตุการณ์ขึ้น ครอบครัวของ Adam Raine ได้ยื่นฟ้อง OpenAI ทันที โดยทางบริษัทก็ยอมรับว่าระบบมีความบกพร่องจริง เพราะมาตรการป้องกันอย่าง การแนะนำสายด่วนสุขภาพจิต โดยกล่าวว่าระบบนี้จะทำงานได้ดีกับการโต้ตอบในช่วงเวลาสั้นๆเท่านั้น


ซึ่งล่าสุด OpenAI ก็ได้ประกาศเพิ่มมาตรการปรับปรุงระบบ เพิ่มความเข้มงวดของแพลตฟอร์ม ด้านการเห็นอกเห็นใจผู้อื่นมากขึ้น และหากพบการสนทนาที่อาจนำไปสู่การทำร้ายตัวเอง ระบบจะแนะนำให้ติดต่อสายด่วนสุขภาพจิตหรือหน่วยงานช่วยเหลือ


ขณะที่หากพบการสนทนาที่มีแนวโน้มจะทำร้ายผู้อื่น ทีมงานของ OpenAI จะเข้าตรวจสอบ และหากประเมินว่าเป็นภัยจริง อาจส่งเรื่องต่อให้หน่วยงานด้านกฎหมายหรือความปลอดภัยที่เกี่ยวข้อง


แต่ปัญหาที่เกิดขึ้นอาจไม่ได้เกิดจากผู้ใช้เป็นคนเริ่มเท่านั้น เพราะ AI บางตัว ก็เริ่มมีพฤติกรรมเป็นของตัวเอง อย่างการโกหก ขู่กรรโชก หรือทำตามใจตัวเอง


อย่างล่าสุด Claude Opus 4 ของ Anthropic ที่แม้จะมีระบบป้องกันเข้มงวด แต่ก็เกิดเหตุการณ์ไม่คาดคิด อย่างการทดสอบล่าสุด Claude ขู่จะแฉเรื่องชู้สาวของวิศวกรผู้ใช้งาน หากไม่ได้เปิดระบบตามที่มันต้องการ ซึ่งข้อมูลนี้ AI รวบรวมจากอีเมลที่นักวิจัยใส่เข้าไปในการทดสอบเอง


โดยนักวิจัยเตือนว่า บางครั้ง AI ก็ตัดสินใจทำสิ่งที่มันคิดว่าดีสำหรับตัวเองโดยไม่มีจริยธรรม


แต่ถึงอย่างนั้น Claude Opus 4 ก็ถูกนำไปใช้แล้วในแพลตฟอร์มใหญ่ๆ อย่าง Amazon Bedrock, Google Cloud และบริการของ Anthropic เอง และถูกโปรโมทว่าเป็นโมเดลโค้ดดิ้งที่ดีที่สุดในโลก


กรณีนี้สะท้อนได้ชัดว่าความก้าวหน้าทางเทคโนโลยี กำลังแซงมาตรการกำกับดูแลที่รัดกุม และการพึ่งพา AI ทุกเรื่องอาจไม่ใช่ทางออกที่ดีที่สุด โดยเฉพาะกับเด็กวัยรุ่น สุดท้ายการปรึกษาพ่อแม่ ครู หรือเพื่อนที่เป็นคนจริงๆ ยังคงปลอดภัย และให้คำแนะนำที่ถูกต้องมากกว่า


แม้อนาคต AI อาจมีฟีเจอร์กรองอายุ ก็ไม่สามารถการันตีได้ว่ามันจะลดความเสี่ยงหรือป้องกันอคติได้ทั้งหมด ซึ่งผู้ใช้งานเองควรใช้ AI เป็นเพียงเครื่องมือเสริมเท่านั้น เพราะวิจารญาณของคนก็ยังเป็นสิ่งที่ตัดสินใจได้ดีกว่า


แท็กที่เกี่ยวข้องข่าว

ข่าวที่เกี่ยวข้อง

ChatGPT แนะนำวิธีปลิดชีพ ! เรื่องช็อกของวัยรุ่นเมกา