
9 ใน 10 ของพนักงานยุคนี้ ให้ AI ช่วยทำงานให้ แต่เคยได้สังเกตไหมว่าไฟล์ที่โยนลงไป นั่นมันความลับบริษัทชัดๆ!!!
ยุคนี้ไม่ว่าอาชีพไหนก็ใช้ AI ช่วยทำงาน เพราะสะดวก และเร็วกว่าทำเองตั้งแต่เริ่มต้น รวมถึงหลายบริษัทเริ่มเอา AI มาใช้หวังเพิ่มลดเวลา ลดต้นทุน แต่พอพนักงานใช้งานจนชิน ก็อาจละเลยเรื่องความปลอดภัยในข้อมูลไป ส่งผลให้เกิดความเสี่ยงตามมาภายหลัง หากใช้งานไม่ไตร่ตรองให้รอบด้าน
เพราะคนใช้งานก็คงเลือกใช้วิธีที่ "ง่ายที่สุด" อย่างการโยนไฟล์งานทั้งฉบับเข้าไปในแพลตฟอร์ม เพื่อให้ช่วยสรุป ช่วยจัดรูปแบบ โดยลืมนึกไปว่าไฟล์นั้นอาจเป็นข้อมูลสำคัญขององค์กร เช่น ข้อมูลลูกค้า กลยุทธ์การตลาด เอกสารเจรจาทางการค้า หรือแม้กระทั่งแผนลงทุนธุรกิจในอนาคต
ซึ่งถ้าเราเลือกใช้แค่เพราะสะดวกอย่างเดียว ก็คงไม่ต่างอะไรกับการ “ส่งข้อมูลออกไปให้คนนอก” เพราะระบบ AI หลายตัว โดยเฉพาะแบบที่เปิดให้ใช้ฟรี มีการเก็บข้อมูลการใช้งานไว้เพื่อปรับปรุงโมเดล หมายความว่า ข้อมูลของเรา จะถูกดึงไปใช้ยังไง เมื่อไหร่ก็ได้
ถึงพนักงานไม่ได้มีเจตนาทำผิด แต่การนำข้อมูลสำคัญไปใช้งานบนระบบ AI โดยไม่ระวัง ก็เหมือนทำข้อมูลรั่วไหลไปแล้ว และความเสียหายที่เกิดขึ้นกับองค์กรอาจมีมูลค่ามหาศาล หากถูกเปิดเผยให้คู่แข่งไปโดยไม่รู้ตัว
ซึ่งตอนนี้ หน่วยงานในไทยเอง ก็เริ่มมีการกำหนดแนวทางการใช้ Generative AI อย่างมีธรรมาภิบาลสำหรับผู้บริหารองค์กร เช่น
1. การกำหนดโครงสร้างการกำกับดูแล (AI Governance Structure)
2. การกำหนดกลยุทธ์ในการประยุกต์ใช้ AI (AI Strategy)
3. การกำกับดูแลการปฏิบัติงานที่เกี่ยวข้องกับ AI (AI Operation)
รวมถึงการแยกการใช้ AI ในระดับ “องค์กร” ออกจาก “บัญชีส่วนบุคคล” เพื่อให้ปกป้องข้อมูลได้มากขึ้น ซึ่งเรื่องนี้ แต่ละองค์กรคงต้องวางนโยบายที่ชัดเจน พร้อมให้ความรู้กับพนักงานว่าควรใช้งานแบบไหนที่จะไม่เสี่ยงทำข้อมูลหลุด และบอกถึงผลเสียให้เห็นอย่างเป็นรูปธรรมว่าถ้าใช้อย่างไม่ระวัง ความเสียหายอะไรบ้างที่จะตามมา
และพนักงานองค์กร ก็ไม่ควรมองแค่เรื่อง “ความสะดวก” แต่ควรคำนึงถึงความปลอดภัยในการนำไปใช้งานด้วย เพราะจากแค่จะประหยัดเวลาทำงานไม่กี่นาที เราอาจต้องแลกมาด้วยความเสียหายให้กับองค์กรด้วยเช่นกันความเสียหายให้กับองค์กรด้วยเช่นกัน
ยุคนี้ไม่ว่าอาชีพไหนก็ใช้ AI ช่วยทำงาน เพราะสะดวก และเร็วกว่าทำเองตั้งแต่เริ่มต้น รวมถึงหลายบริษัทเริ่มเอา AI มาใช้หวังเพิ่มลดเวลา ลดต้นทุน แต่พอพนักงานใช้งานจนชิน ก็อาจละเลยเรื่องความปลอดภัยในข้อมูลไป ส่งผลให้เกิดความเสี่ยงตามมาภายหลัง หากใช้งานไม่ไตร่ตรองให้รอบด้าน
เพราะคนใช้งานก็คงเลือกใช้วิธีที่ "ง่ายที่สุด" อย่างการโยนไฟล์งานทั้งฉบับเข้าไปในแพลตฟอร์ม เพื่อให้ช่วยสรุป ช่วยจัดรูปแบบ โดยลืมนึกไปว่าไฟล์นั้นอาจเป็นข้อมูลสำคัญขององค์กร เช่น ข้อมูลลูกค้า กลยุทธ์การตลาด เอกสารเจรจาทางการค้า หรือแม้กระทั่งแผนลงทุนธุรกิจในอนาคต
ซึ่งถ้าเราเลือกใช้แค่เพราะสะดวกอย่างเดียว ก็คงไม่ต่างอะไรกับการ “ส่งข้อมูลออกไปให้คนนอก” เพราะระบบ AI หลายตัว โดยเฉพาะแบบที่เปิดให้ใช้ฟรี มีการเก็บข้อมูลการใช้งานไว้เพื่อปรับปรุงโมเดล หมายความว่า ข้อมูลของเรา จะถูกดึงไปใช้ยังไง เมื่อไหร่ก็ได้
ถึงพนักงานไม่ได้มีเจตนาทำผิด แต่การนำข้อมูลสำคัญไปใช้งานบนระบบ AI โดยไม่ระวัง ก็เหมือนทำข้อมูลรั่วไหลไปแล้ว และความเสียหายที่เกิดขึ้นกับองค์กรอาจมีมูลค่ามหาศาล หากถูกเปิดเผยให้คู่แข่งไปโดยไม่รู้ตัว
ซึ่งตอนนี้ หน่วยงานในไทยเอง ก็เริ่มมีการกำหนดแนวทางการใช้ Generative AI อย่างมีธรรมาภิบาลสำหรับผู้บริหารองค์กร เช่น
1. การกำหนดโครงสร้างการกำกับดูแล (AI Governance Structure)
2. การกำหนดกลยุทธ์ในการประยุกต์ใช้ AI (AI Strategy)
3. การกำกับดูแลการปฏิบัติงานที่เกี่ยวข้องกับ AI (AI Operation)
รวมถึงการแยกการใช้ AI ในระดับ “องค์กร” ออกจาก “บัญชีส่วนบุคคล” เพื่อให้ปกป้องข้อมูลได้มากขึ้น ซึ่งเรื่องนี้ แต่ละองค์กรคงต้องวางนโยบายที่ชัดเจน พร้อมให้ความรู้กับพนักงานว่าควรใช้งานแบบไหนที่จะไม่เสี่ยงทำข้อมูลหลุด และบอกถึงผลเสียให้เห็นอย่างเป็นรูปธรรมว่าถ้าใช้อย่างไม่ระวัง ความเสียหายอะไรบ้างที่จะตามมา
และพนักงานองค์กร ก็ไม่ควรมองแค่เรื่อง “ความสะดวก” แต่ควรคำนึงถึงความปลอดภัยในการนำไปใช้งานด้วย เพราะจากแค่จะประหยัดเวลาทำงานไม่กี่นาที เราอาจต้องแลกมาด้วยความเสียหายให้กับองค์กรด้วยเช่นกันความเสียหายให้กับองค์กรด้วยเช่นกัน
แท็กที่เกี่ยวข้องข่าว
AIในองค์กรภัยเงียบAIรู้เท่าทันAILocaltechTechMovementMoveForBetterTH