คลิปนี้จริงหรือเจน เทคนิคจับโป๊ะ AI แบบไม่ต้องใช้เครื่องมือ

สังคม

คลิปนี้จริงหรือเจน? เทคนิคจับโป๊ะ AI แบบไม่ต้องใช้เครื่องมือ

Clock Icon

14 ตุลาคม 2568

แชร์ :

วิดีโอคนแบกช้างกลางถนน กลายเป็นไวรัลในโลกออนไลน์ชั่วข้ามคืน ผู้คนแชร์ต่อกันทั่ว ทั้งในกลุ่มเพื่อนและกลุ่มข่าว และเมื่อหลายคนจับสังเกตในวิดีโอนั้น ก็พบว่าคลิปนั้นถูกเจนขึ้นด้วย AI ทั้งหมด

ตอนนี้บริษัทเทคโนโลยีใหญ่ทั่วโลกต่างแข่งกันพัฒนาให้ AI ของตัวเองสร้างภาพและวิดีโอให้สมจริงกว่าเดิม จนแทบแยกไม่ออกว่าอะไรคือของจริง หรืออะไรถูก “เจนขึ้น” อดคิดไม่ได้ว่ามันอาจกลายเป็น เครื่องมือหลอกลวงที่แนบเนียนที่สุดในอนาคตไหม

และเคยใช้ได้ผลมาแล้วในปี 67 บริษัทวิศวกรรมชื่อดังอย่าง Arup ถูกหลอกให้โอนเงินกว่า 25 ล้านดอลลาร์ หลังมิจฉาชีพใช้ Deepfake จำลองภาพและเสียงผู้บริหารระหว่างวิดีโอคอล เพื่อสั่งให้โอนเงินโดยพนักงานได้อย่างแนบเนียน

ส่วนไทยเองช่วงนี้ก็มีข่าวมิจฉาชีพใช้ AI สร้างวิดีโอจำลองคนดังไปจนถึงนักข่าว เพื่อชวนเล่นพนันออนไลน์ หรือโปรโมตสินค้า หลายกรณีแพร่กระจายไวในโซเชียลจนมีคนหลงเชื่อจำนวนมาก ซึ่งเรื่องนี้ไม่เพียงกระทบชื่อเสียงของบุคคลที่ถูกสวมรอยเท่านั้น แต่ยังบั่นทอนความเชื่อมั่นของสังคมอย่างรุนแรงอีกด้วย

แล้วเราจะรู้ได้ยังไงว่าสิ่งที่เห็น “เจน” หรือ “จริง” ?

หากสังเกตให้ดี ภาพหรือวิดีโอที่สร้างจาก AI มักมีจุดหลุดเล็กๆ ซ่อนอยู่ เช่น นิ้วมือที่ซ้อนกันเกินจำนวน รูปทรงมือเท้าผิดธรรมชาติ หรือพื้นหลังที่สวยเกินจริงจนไม่สัมพันธ์กับตัวแบบ ตัวอักษรบนป้ายหรือเสื้อผ้าก็มักจะอ่านไม่ออก บางครั้งเงาตกกระทบในภาพไม่สัมพันธ์กับแสงจริง หรือแววตาและแสงสะท้อนดูแข็งและไม่มีชีวิต

ส่วนวิดีโอ Deepfake มักมีปากที่ขยับไม่ตรงเสียง น้ำเสียงที่ไม่เข้ากับบุคลิก การกะพริบตาผิดจังหวะ หรือบางคลิป AI ลืมใส่ “การกะพริบตา” ไปเลยด้วยซ้ำ ใบหน้าก็อาจเบลอหรือหลุดโฟกัสเวลาหันมุม และเงาบนใบหน้ากับลำคอก็มักไม่สัมพันธ์กับทิศทางของแสงจริง

สุดท้ายองค์ประกอบเหล่านี้ แม้ไม่ได้เป็นผู้เชี่ยวชาญเทคโนโลยี เราก็ป้องกันตัวเองได้ แค่ “ดูให้ละเอียดขึ้น” ก่อนจะเชื่อหรือแชร์อะไรออกไป ซึ่งจะช่วยให้เราไม่ตกเป็นเหยื่อได้มากขึ้น

แท็กที่เกี่ยวข้องข่าว

ข่าวที่เกี่ยวข้อง

คลิปนี้จริงหรือเจน? เทคนิคจับโป๊ะ AI แบบไม่ต้องใช้เครื่องมือ