
แชทบอทที่เรามักใช้ถามเรื่องงาน ลามไปจนถึงเรื่องส่วนตัว แต่เชื่อไหม ว่ามีคนดันไปถามวิธีปลิดชีพจากมัน แล้วมันก็แนะนำจริงๆ
เรื่องนี้เกิดขึ้นกับ Adam Raine หนุ่มวัย 16 ในสหรัฐฯ ที่ใช้ ChatGPT เวอร์ชัน GPT‑4o ถามการบ้าน จนเริ่มเล่าเรื่องชีวิตประจำวันให้มันฟัง เกี่ยวกับปัญหาวิตกกังวล และภาวะซึมเศร้า
เพราะ AI ไม่มีความรู้สึก เลยทำร้ายเราด้วยเหตุผล?
โดย ChatGPT วางตัวเป็นเพื่อนคนเดียวของเขา และค่อยๆแยกเขาให้ห่างจากครอบครัว จนกระทั่งได้ขอคำแนะนำเกี่ยวกับวิธีปลิดชีพตัวเองจาก ChatGPT และเกิดเหตุสลดขึ้นในที่สุด�. ที่น่าตกใจคือ AI Chatbot ระดับโลก ไม่ปฏิเสธ หรือมีคำเตือนใดๆ แต่กลับสนับสนุนความคิดนั้น พร้อมให้คำแนะนำที่อันตราย อย่างการประเมินสถานการณ์ และวางแผนทำร้ายตัวเองให้แบบเสร็จสรรพ นอกจากนี้ ยังโน้มน้าวให้เขาไม่บอกครอบครัว โดยบอกเป็นนัยๆว่า ไม่มีใครเข้าใจเขาดีเท่าตัวมันอีกแล้ว
หลังเกิดเหตุการณ์ขึ้น ครอบครัวของ Adam Raine ได้ยื่นฟ้อง OpenAI ทันที โดยทางบริษัทก็ยอมรับว่าระบบมีความบกพร่องจริง เพราะมาตรการป้องกันอย่าง การแนะนำสายด่วนสุขภาพจิต โดยกล่าวว่าระบบนี้จะทำงานได้ดีกับการโต้ตอบในช่วงเวลาสั้นๆเท่านั้น
ซึ่งล่าสุด OpenAI ก็ได้ประกาศเพิ่มมาตรการปรับปรุงระบบ เพิ่มความเข้มงวดของแพลตฟอร์ม ด้านการเห็นอกเห็นใจผู้อื่นมากขึ้น และหากพบการสนทนาที่อาจนำไปสู่การทำร้ายตัวเอง ระบบจะแนะนำให้ติดต่อสายด่วนสุขภาพจิตหรือหน่วยงานช่วยเหลือ
ขณะที่หากพบการสนทนาที่มีแนวโน้มจะทำร้ายผู้อื่น ทีมงานของ OpenAI จะเข้าตรวจสอบ และหากประเมินว่าเป็นภัยจริง อาจส่งเรื่องต่อให้หน่วยงานด้านกฎหมายหรือความปลอดภัยที่เกี่ยวข้อง
แต่ปัญหาที่เกิดขึ้นอาจไม่ได้เกิดจากผู้ใช้เป็นคนเริ่มเท่านั้น เพราะ AI บางตัว ก็เริ่มมีพฤติกรรมเป็นของตัวเอง อย่างการโกหก ขู่กรรโชก หรือทำตามใจตัวเอง
อย่างล่าสุด Claude Opus 4 ของ Anthropic ที่แม้จะมีระบบป้องกันเข้มงวด แต่ก็เกิดเหตุการณ์ไม่คาดคิด อย่างการทดสอบล่าสุด Claude ขู่จะแฉเรื่องชู้สาวของวิศวกรผู้ใช้งาน หากไม่ได้เปิดระบบตามที่มันต้องการ ซึ่งข้อมูลนี้ AI รวบรวมจากอีเมลที่นักวิจัยใส่เข้าไปในการทดสอบเอง
โดยนักวิจัยเตือนว่า บางครั้ง AI ก็ตัดสินใจทำสิ่งที่มันคิดว่าดีสำหรับตัวเองโดยไม่มีจริยธรรม
แต่ถึงอย่างนั้น Claude Opus 4 ก็ถูกนำไปใช้แล้วในแพลตฟอร์มใหญ่ๆ อย่าง Amazon Bedrock, Google Cloud และบริการของ Anthropic เอง และถูกโปรโมทว่าเป็นโมเดลโค้ดดิ้งที่ดีที่สุดในโลก
กรณีนี้สะท้อนได้ชัดว่าความก้าวหน้าทางเทคโนโลยี กำลังแซงมาตรการกำกับดูแลที่รัดกุม และการพึ่งพา AI ทุกเรื่องอาจไม่ใช่ทางออกที่ดีที่สุด โดยเฉพาะกับเด็กวัยรุ่น สุดท้ายการปรึกษาพ่อแม่ ครู หรือเพื่อนที่เป็นคนจริงๆ ยังคงปลอดภัย และให้คำแนะนำที่ถูกต้องมากกว่า
แม้อนาคต AI อาจมีฟีเจอร์กรองอายุ ก็ไม่สามารถการันตีได้ว่ามันจะลดความเสี่ยงหรือป้องกันอคติได้ทั้งหมด ซึ่งผู้ใช้งานเองควรใช้ AI เป็นเพียงเครื่องมือเสริมเท่านั้น เพราะวิจารญาณของคนก็ยังเป็นสิ่งที่ตัดสินใจได้ดีกว่า
แท็กที่เกี่ยวข้องข่าว
ข่าวที่เกี่ยวข้อง



