เรื่องจริงที่ต้องรู้ ก่อนถาม AI ตอนป่วย ข้อมูลสุขภาพจาก AI อาจผิดพลาดถึง 50
facebook Iconx Iconline Icon

สังคม

เรื่องจริงที่ต้องรู้ ก่อนถาม AI ตอนป่วย! ข้อมูลสุขภาพจาก AI อาจผิดพลาดถึง 50%

หลายคนใช้ AI ถามเรื่องสุขภาพแทนการใช้การเสิร์ชมากขึ้น เพราะมันทั้งสะดวก รวดเร็ว และดูเหมือนจะตอบได้ทุกอย่าง ทำให้ AI กำลังกลายเป็นเหมือนหมอคนแรกของคนยุคใหม่โดยไม่รู้ตัว 

ศูนย์วิจัยด้านการดูแลสุขภาพในอเมริกาของเวสต์เฮลท์-แกลลัป เผยว่ามีชาวอเมริกันกว่า 14 ล้านคน ไม่ไปหาหมอ เพราะเชื่อข้อมูลหรือคำแนะนำด้านสุขภาพจาก AI แทน แต่คำถามคือ AI ตอบเรื่องสุขภาพได้แม่นยำจริงเหรอ?

ผลวิจัยชี้ว่า AI แนะนำเรื่องสุขภาพผิดพลาดถึง 50%

ผลการวิจัยโดยแพทย์ผู้เชี่ยวชาญในสหรัฐฯ ที่ตีพิมพ์ใน วารสาร BMJ Open เอาแชตบอทที่คนใช้เยอะๆ อย่าง ChatGPT, Gemini, Grok, Meta AI และ DeepSeek มาทดสอบดูว่าให้ข้อมูลทางการแพทย์ได้ดีแค่ไหน โดยถามคำถามเกี่ยวกับสุขภาพทั้งหมด 50 ข้อ ครอบคลุมหลายเรื่อง เช่น มะเร็ง วัคซีน เซลล์ต้นกำเนิด โภชนาการ และสมรรถภาพทางร่างกาย

เชื่อไหมว่า เกือบ 20% ของคำตอบผิดพลาดอย่างมาก และ 50% มีบางจุดที่ผิดหรือคลาดเคลื่อน อีก 30% มีพลาดเล็กน้อย นั่นแปลว่าแทบทุกคำตอบมีปัญหาไม่มากก็น้อย และที่น่ากังวลคือ ไม่มีแชตบอทตัวไหนให้แหล่งอ้างอิงได้ถูกต้องครบเลยสักครั้ง

ผลวิจัยชี้ว่า แชทบอททั้ง 5 ตัวมีประสิทธิภาพใกล้เคียงกัน ตัวที่พลาดมากสุดคือ Grok คำตอบมีปัญหาถึง 58% รองลงมาคือ ChatGPT 52% และ Meta AI 50% 

ส่องเหตุผลที่ทำให้คนเชื่อคำแนะนำเรื่องสุขภาพจาก AI 

สิ่งที่ทำให้คนหลายคนเชื่อ และทำตามคำแนะนำจาก AI อธิบายได้ด้วยสิ่งที่เรียกว่า “Automation Bias” เป็นแนวโน้มที่มนุษย์ไว้วางใจคำตอบที่สมเหตุสมผลของ AI มากเกินไป โดยเฉพาะคำตอบที่ดูมั่นใจ อ่านง่าย และมีหลักการ

อาการนี้จะยิ่งเกิดง่ายขึ้นเวลา AI ตอบด้วยศัพท์ยากๆ มีตัวเลขดูเป๊ะ ๆ หรือมีกราฟ/ภาพประกอบ เพราะมันทำให้คนรู้สึกว่าน่าเชื่อมาก ทั้งที่จริงๆ ข้อมูลอาจไม่ได้ถูกต้องเสมอไป 

โดยงานวิจัยในปี 2019 พบว่าคนมีแนวโน้มเชื่อข้อมูลที่ผิดได้มากขึ้นถึง 23% เมื่อข้อมูลนั้นถูกนำเสนอพร้อมกราฟหรือแผนภูมิ ทั้งที่ภาพเหล่านั้นไม่ได้ช่วยเพิ่มข้อมูลที่ถูกต้องขึ้นเลย แต่กลับทำให้ข้อมูลดูน่าเชื่อถือมากขึ้นในสายตาคนอ่าน

ซึ่งบางที AI ก็มโนข้อมูลขึ้นมาเอง หรือเอาข้อมูลบางส่วนที่เกี่ยวข้อง หรือแม้แต่ข้อมูลจากกระทู้หรือโพสต์ในโซเชียลที่คนถกเถียงกันมาปะติดปะต่อจนดูน่าเชื่อถือ แต่ความจริงแล้วอาจผิดทั้งหมด ในวงการ AI เรียกปัญหานี้เรียกว่า “Hallucination” 

แต่ก็ไม่ใช่ว่าคำตอบจาก AI จะไม่น่าเชื่อไปซะหมด

เพราะอีกมุมหนึ่ง AI ก็ยังมีประโยชน์มาก โดยเฉพาะเรื่องการให้ข้อมูลเบื้องต้น การอธิบายให้เข้าใจง่าย และช่วยสรุปความรู้ที่ซับซ้อนให้คนทั่วไปเข้าถึงได้เร็วขึ้น แต่สิ่งสำคัญคือ มันควรถูกใช้เป็นตัวช่วยไม่ใช่ตัวตัดสิน โดยเฉพาะเรื่องสุขภาพ เพราะข้อมูลที่ได้ อาจยังผิดหรือไม่ครบถ้วนได้เสมอ ดังนั้นเวลาถามเรื่องสุขภาพจาก AI ควรใช้เพื่อประกอบความเข้าใจ แล้วตรวจสอบกับแหล่งข้อมูลที่น่าเชื่อถือหรือหมออีกครั้ง เพื่อป้องกันความเสี่ยงจากข้อมูลที่คลาดเคลื่อน


ข่าวที่เกี่ยวข้อง

จับตา_กระแส_Human_Digital_Twin_เมื่อทักษะของมนุษย์กลายเป็นข้อมูลฝึก_AI
ต่างประเทศสังคม

จับตา กระแส Human Digital Twin? เมื่อทักษะของมนุษย์กลายเป็นข้อมูลฝึก AI

ไม่นานมานี้ หลายคนอาจเห็นข่าว Meta เตรียมเก็บข้อมูลการใช้คอมพิวเตอร์ของพนักงาน ที่ไม่ใช่แค่ข้อมูลทั่วไป แต่เป็นการเอาพฤติกรรมเล็กๆ ระหว่างทำงาน ไปสอนให้ AI ทำตาม

clock7 วันที่แล้ว
เทรนด์ใหม่มาแรงตอนนี้_Hairstyle_Analysis_วิเคราะห์ทรงผมด้วย_ChatGPT_พร้อมแจก_Prompt_ให้ลองเล่น
ต่างประเทศสังคม

เทรนด์ใหม่มาแรงตอนนี้! Hairstyle Analysis วิเคราะห์ทรงผมด้วย ChatGPT [พร้อมแจก Prompt ให้ลองเล่น]

clock7 วันที่แล้ว
อาจารย์เชน_มาถูกจังหวะ_ดันงานวิจัย_นวัตกรรม_แก้โจทย์ประเทศ

"อาจารย์เชน” มาถูกจังหวะ? ดันงานวิจัย–นวัตกรรม แก้โจทย์ประเทศ

clock8 วันที่แล้ว