
ทุกวันนี้หันไปทางไหนใครก็ใช้ AI เพราะสะดวก และง่ายต่อการนำไปใช้งาน แต่สุดท้ายกลับมีคนนำเอาความสามารถนี้มาใช้เป็นเครื่องมือในการหลอกผู้คน
ไม่ว่าจะใช้การสร้างภาพ หรือคลิปปลอม ที่สมจริงจนแทบแยกไม่ออก หรือแม้แต่การปลอมแปลงเอกสารดิจิทัล ที่สร้างความเสียหายต่อทรัพย์สิน และชื่อเสียงมหาศาล
ซึ่งก็มีกรณีที่เจ้าของที่พักแห่งหนึ่ง ใช้ AI สร้างรูปปลอม แล้วร้องเรียนไปในแพลตฟอร์มให้บริการที่พักชื่อดัง โดยอ้างว่าผู้เช่าทำทรัพย์สินภายในห้องเสียหาย ทั้งที่ผู้เช่าไม่ได้สร้างความเสียหายนั้นแต่อย่างใด และภาพที่ใช้เป็นหลักฐานก็ยังดูผิดปกติ จนดูออกว่าถูกสร้างด้วย AI ขึ้นมา
ที่น่าตกใจคือแพลตฟอร์มดังกล่าวกลับตัดสินโทษจากหลักฐานนั้น โดยให้ผู้เช่าจ่ายค่าเสียหายให้เจ้าของห้องพักกว่า 3 แสนบาท
ถ้าแพลตฟอร์มยังแยกภาพ AI ไม่ออก แล้วใครจะปกป้องผู้บริโภค?
ภายหลังผู้เช่าได้นำเรื่องนี้ไปร้องเรียนกับสื่อใหญ่ จนเรื่องนี้ถูกเผยแพร่ไปในวงกว้าง ทำให้แพลตฟอร์มนำประเด็นนี้กลับมาตรวจสอบใหม่อย่างละเอียด และพบว่าภาพถ่ายสร้างจาก AI จริง จึงเปลี่ยนคำตัดสิน และคืนเงินให้ผู้เช่าในภายหลัง
กรณีนี้สะท้อนถึงช่องโหว่ของแพลตฟอร์มด้านการตรวจสอบภาพหรือเนื้อหา ที่ไม่มีความรอบคอบและละเอียดมากพอในการตรวจสอบข้อเท็จจริง จึงเป็นความเสี่ยงที่ผู้บริโภคต้องแบกรับโดยไม่รู้ตัว
เพราะที่จริงแล้วการสร้างข้อมูลบิดเบือนจาก AI ไม่ได้มีแค่แพลตฟอร์มประเภทนี้ แต่ยังรวมไปถึงโซเชียลมีเดียทั่วไป อย่างแอปฯคลิปสั้นเจ้าดังที่มีระบบติดป้ายกำกับภาพ AI แต่ก็ยังเสี่ยงแยกแยะยากเกินไปจากข้อจำกัดที่จะทราบได้โดยครีเตอร์ต้องเป็นคนใส่ข้อมูลเท่านั้น
ดังนั้นแพลตฟอร์มที่เป็นตัวกลางในการเผยแพร่ข้อมูล จึงควรเข้มงวดกับการจำแนกภาพ หรือข้อมูลที่สร้างจาก AI ให้มากขึ้น เพราะอาจมีหลายคนยังไม่สามารถแยกได้ว่าภาพนั้นถูกสร้างด้วย AI เพื่อลดผลกระทบที่จะเกิดขึ้นในอนาคต
แท็กที่เกี่ยวข้องข่าว