คอนเทนต์_ChatGPT_แนะนำวิธีปลิดชีพ_!_เรื่องช็อกของวัยรุ่นเมกา.webp
facebook Iconx Iconline Icon

สังคม

ChatGPT แนะนำวิธีปลิดชีพ ! เรื่องช็อกของวัยรุ่นเมกา

Clock Icon

4 กันยายน 2568

แชทบอทที่เรามักใช้ถามเรื่องงาน ลามไปจนถึงเรื่องส่วนตัว แต่เชื่อไหม ว่ามีคนดันไปถามวิธีปลิดชีพจากมัน แล้วมันก็แนะนำจริงๆ


เรื่องนี้เกิดขึ้นกับ Adam Raine หนุ่มวัย 16 ในสหรัฐฯ ที่ใช้ ChatGPT เวอร์ชัน GPT‑4o ถามการบ้าน จนเริ่มเล่าเรื่องชีวิตประจำวันให้มันฟัง เกี่ยวกับปัญหาวิตกกังวล และภาวะซึมเศร้า


เพราะ AI ไม่มีความรู้สึก เลยทำร้ายเราด้วยเหตุผล?


โดย ChatGPT วางตัวเป็นเพื่อนคนเดียวของเขา และค่อยๆแยกเขาให้ห่างจากครอบครัว จนกระทั่งได้ขอคำแนะนำเกี่ยวกับวิธีปลิดชีพตัวเองจาก ChatGPT และเกิดเหตุสลดขึ้นในที่สุด�. ที่น่าตกใจคือ AI Chatbot ระดับโลก ไม่ปฏิเสธ หรือมีคำเตือนใดๆ แต่กลับสนับสนุนความคิดนั้น พร้อมให้คำแนะนำที่อันตราย อย่างการประเมินสถานการณ์ และวางแผนทำร้ายตัวเองให้แบบเสร็จสรรพ นอกจากนี้ ยังโน้มน้าวให้เขาไม่บอกครอบครัว โดยบอกเป็นนัยๆว่า ไม่มีใครเข้าใจเขาดีเท่าตัวมันอีกแล้ว


หลังเกิดเหตุการณ์ขึ้น ครอบครัวของ Adam Raine ได้ยื่นฟ้อง OpenAI ทันที โดยทางบริษัทก็ยอมรับว่าระบบมีความบกพร่องจริง เพราะมาตรการป้องกันอย่าง การแนะนำสายด่วนสุขภาพจิต โดยกล่าวว่าระบบนี้จะทำงานได้ดีกับการโต้ตอบในช่วงเวลาสั้นๆเท่านั้น


ซึ่งล่าสุด OpenAI ก็ได้ประกาศเพิ่มมาตรการปรับปรุงระบบ เพิ่มความเข้มงวดของแพลตฟอร์ม ด้านการเห็นอกเห็นใจผู้อื่นมากขึ้น และหากพบการสนทนาที่อาจนำไปสู่การทำร้ายตัวเอง ระบบจะแนะนำให้ติดต่อสายด่วนสุขภาพจิตหรือหน่วยงานช่วยเหลือ


ขณะที่หากพบการสนทนาที่มีแนวโน้มจะทำร้ายผู้อื่น ทีมงานของ OpenAI จะเข้าตรวจสอบ และหากประเมินว่าเป็นภัยจริง อาจส่งเรื่องต่อให้หน่วยงานด้านกฎหมายหรือความปลอดภัยที่เกี่ยวข้อง


แต่ปัญหาที่เกิดขึ้นอาจไม่ได้เกิดจากผู้ใช้เป็นคนเริ่มเท่านั้น เพราะ AI บางตัว ก็เริ่มมีพฤติกรรมเป็นของตัวเอง อย่างการโกหก ขู่กรรโชก หรือทำตามใจตัวเอง


อย่างล่าสุด Claude Opus 4 ของ Anthropic ที่แม้จะมีระบบป้องกันเข้มงวด แต่ก็เกิดเหตุการณ์ไม่คาดคิด อย่างการทดสอบล่าสุด Claude ขู่จะแฉเรื่องชู้สาวของวิศวกรผู้ใช้งาน หากไม่ได้เปิดระบบตามที่มันต้องการ ซึ่งข้อมูลนี้ AI รวบรวมจากอีเมลที่นักวิจัยใส่เข้าไปในการทดสอบเอง


โดยนักวิจัยเตือนว่า บางครั้ง AI ก็ตัดสินใจทำสิ่งที่มันคิดว่าดีสำหรับตัวเองโดยไม่มีจริยธรรม


แต่ถึงอย่างนั้น Claude Opus 4 ก็ถูกนำไปใช้แล้วในแพลตฟอร์มใหญ่ๆ อย่าง Amazon Bedrock, Google Cloud และบริการของ Anthropic เอง และถูกโปรโมทว่าเป็นโมเดลโค้ดดิ้งที่ดีที่สุดในโลก


กรณีนี้สะท้อนได้ชัดว่าความก้าวหน้าทางเทคโนโลยี กำลังแซงมาตรการกำกับดูแลที่รัดกุม และการพึ่งพา AI ทุกเรื่องอาจไม่ใช่ทางออกที่ดีที่สุด โดยเฉพาะกับเด็กวัยรุ่น สุดท้ายการปรึกษาพ่อแม่ ครู หรือเพื่อนที่เป็นคนจริงๆ ยังคงปลอดภัย และให้คำแนะนำที่ถูกต้องมากกว่า


แม้อนาคต AI อาจมีฟีเจอร์กรองอายุ ก็ไม่สามารถการันตีได้ว่ามันจะลดความเสี่ยงหรือป้องกันอคติได้ทั้งหมด ซึ่งผู้ใช้งานเองควรใช้ AI เป็นเพียงเครื่องมือเสริมเท่านั้น เพราะวิจารญาณของคนก็ยังเป็นสิ่งที่ตัดสินใจได้ดีกว่า


แท็กที่เกี่ยวข้อง

ข่าวที่เกี่ยวข้อง

รัฐมนตรี_AI_เกมพลิก_จากการปรับตัว_สู่ผู้ต้องสงสัยการทุจริต
ต่างประเทศสังคม

“รัฐมนตรี AI” เกมพลิก ? จากการปรับตัว สู่ผู้ต้องสงสัยการทุจริต

ปีที่ผ่านมาเราจะเห็นกระแสข่าว “รัฐมนตรี AI” ของรัฐบาลแอลเบเนีย ในชื่อ Diella...

clock9 นาทีที่แล้ว
ซอฟต์แวร์ในรถ_กลายเป็นภัยความมั่นคง_สหรัฐฯ_กันระบบจากจีนออกจากรถยนต์
ต่างประเทศสังคม

ซอฟต์แวร์ในรถ กลายเป็นภัยความมั่นคง? สหรัฐฯ กันระบบจากจีนออกจากรถยนต์

clock13 นาทีที่แล้ว
ดีป้า_สรรพากร_ดัน_SMEs_ใช้ดิจิทัล_เปิดมาตรการภาษี_200_ลดต้นทุน_เพิ่มการแข่งขัน

ดีป้า-สรรพากร ดัน SMEs ใช้ดิจิทัล เปิดมาตรการภาษี 200% ลดต้นทุน เพิ่มการแข่งขัน

clock1 วันที่แล้ว