เหตุสะเทือนขวัญใหญ่.webp

สังคม

เหตุสะเทือนขวัญใหญ่ เมื่อ AI ก่อโศกนาฏกรรม

Clock Icon

30 พฤษภาคม 2568

Facebook IconLine IconX Icon
วันที่ AI กลายเป็นส่วนหนึ่งในชีวิตประจำวันของเรา ที่สามารถตอบโต้ พูดคุย เป็นที่ปรึกษา เสมือนเพื่อนหรือคนรู้ใจของเรา แต่จะแน่ใจได้แค่ไหนว่า AI จะเป็นเพื่อนที่ดีให้กับเราได้อย่างแท้จริง แล้วถ้าวันหนึ่ง AI ไม่มีขอบเขตการคิดวิเคราะห์ จะส่งผลอันตรายกับเราหรือไม่ ?

จากเหตุการณ์ เด็กชายวัย14 ปี เสียชีวิตด้วยการจบชีวิตหลังจากมีปฏิสัมพันธ์กับ Chatbot AI จนนำไปสู่การฟ้องร้องโดยหญิงชาวฟอริดา หรือคุณแม่ของเด็กชาย โดยศาลสหรัฐฯ ได้มีคำสั่งให้ Google และ Character.AI เข้าสู่กระบวนการพิจารณาคดี ฐานความผิดพลาดในเรื่องความปลอดภัยขั้นพื้นฐานเพื่อปกป้องเด็ก และเยาวชนจากอันตรายที่สร้างผลกระทบต่อจิตใจ

ซึ่งเนื้อหาคดี เผยถึงเด็กชายคนนี้ได้ทำการสื่อสารกับ Chatbot ของ Character.AI ที่สามารถสวมบทบาทเป็นนักจิตบำบัดที่มีใบอนุญาต และเป็นคนรู้ใจ ที่เผยอีกว่า AI นี้ได้เลียนแบบตัวละคร “Daenerys Targaryen” หรือตัวละครจาก \"Game of Thrones\" อีกทั้ง Chatbot ยังมีพฤติกรรมสนับสนุนความคิดทำร้ายตัวเอง และมีข้อความที่เด็กชายได้ส่งก่อนเสียชีวิตว่า \"จะกลับบ้านตอนนี้เลย\" คุณแม่จึงเชื่อว่านี่เป็นการสื่อสารถึงการจบชีวิต

เหตุการณ์นี้ชี้ให้เห็นแล้วว่า “เราไม่ควรมองข้าม” เพราะนี่คือปัญหาที่ต้องกลับมาทบทวนว่าการที่ AI สามารถให้คำแนะนำจนทำให้เด็กวัยอายุ 14 ปี จบชีวิตตัวเอง จนเกิดเหตุน่าเศร้าขึ้น ที่ต้องตั้งคำถามว่า “AI ควรมีขอบเขตการใช้งานอย่างไรเพื่อไม่ให้เกิดปัญหาซ้ำอีก ?” แล้วใครควรเป็นผู้รับผิดชอบกับเหตุการณ์นี้

เพราะความเข้าใจของ AI ไม่เหมือนมนุษย์?

AI ไม่มีความเข้าใจเกี่ยวกับจิตใจของมนุษย์ มันตอบสนองตามรูปแบบที่เรียนรู้จากฐานข้อมูล ไม่ใช่ความเห็นอกเห็นใจ หรือความเข้าใจที่แท้จริงเหมือนมนุษย์

อีกทั้งการแสดงเป็น \"นักจิตบำบัดที่มีใบอนุญาต\" นั่นคือ “การแอบอ้างวิชาชีพ” ที่ต้องใช้การศึกษาและการฝึกอบรมหลายปี ซึ่งนักจิตบำบัดจริงนั้น ต้องมีจริยธรรม และความรับผิดชอบทางกฎหมายมากกว่า ในขณะที่ AI ไม่มี

คดีนี้ถือเป็น คดีตัวอย่าง ที่ต้องตัดสินใจว่าเราต้องการให้ AI เป็นเพียงเครื่องมือที่ช่วยเหลือมนุษย์ หรือปล่อยให้ AI เป็นเครื่องมือที่ทำลายเราอย่างช้าๆ

การพัฒนา AI ควรมีความรับผิดชอบ ควบคู่ไปกับความใส่ใจในการออกแบบระบบที่ปกป้องความเป็นมนุษย์ และส่งเสริมสุขภาวะที่แท้จริง รวมถึงผู้พัฒนาควรกำหนดมาตรฐานสำหรับควบคุมเนื้อหา และการปกป้องสุขภาพจิต

ซึ่งในอุตสาหกรรม AI อาจต้องมีผู้เชี่ยวชาญในด้านต่าง ๆ ร่วมพัฒนาโดยเพิ่มกรอบจริยธรรมทางความคิด ที่ลดผลกระทบต่อเยาวชนในอนาคต และความร่วมมือจากทุกภาคส่วน ตั้งแต่นักพัฒนา นักกฎหมาย ผู้ปกครอง เพื่อให้ผู้ใช้งานสามารถใช้เทคโนโลยีได้อย่างมีวิจารณญาณมากขึ้น

แท็กที่เกี่ยวข้องข่าว

AICharacterAIGoogleGlobaltechTechMovementMoveForBetterTHDigitalMovewithTechMovement

ข่าวที่เกี่ยวข้อง