การนำ Generative AI มาใช้อย่างรวดเร็วก่อให้เกิดข้อถกเถียงอย่างมากถึงผลกระทบของ AI ที่มีต่อสังคม ซึ่งองค์กรจะต้องสร้างสมดุลระหว่างศักยภาพเทคโนโลยีที่มีความสำคัญนี้กับความเสี่ยงใหม่ๆ ที่อาจเกิดขึ้น โดยเฉพาะการใช้ AI ไปในทางที่ผิด
สเวตลานา ซิคูลาร์ รองประธานฝ่ายนักวิเคราะห์ การ์ทเนอร์ เปิดมุมมองว่า องค์กรควรมีแนวทางป้องกันอย่างเหมาะสมเพื่อยกระดับศักยภาพเทคโนโลยี พร้อมรับมือความท้าทายที่เกิดขึ้น
ทั้งนี้สามารถทำได้โดยการวางกรอบการกำกับดูแลหรือ “Governance Framework” ที่มีความยืดหยุ่นและสามารถปรับให้เหมาะกับคุณสมบัติเฉพาะของ AI โดยมั่นใจว่าเทคโนโลยีนี้จะได้รับการนำไปใช้อย่างปลอดภัยและมีความรับผิดชอบ
การกำกับดูแลที่ดีทำให้เกิดนวัตกรรมที่ดียิ่งกว่า เนื่องจากนำเสนอข้อจำกัดและแนวทางป้องกันที่ทำให้องค์กรสามารถทำความเข้าใจกับคำถามทั้งในด้านคุณค่าและความเสี่ยงของ AI รวมถึงมีพื้นที่สร้างสรรค์นวัตกรรมและผลลัพธ์
การ์ทเนอร์ชี้ว่า การขยายขอบเขตการใช้งาน AI โดยปราศจากการควบคุมดูแลนั้นทำให้ไม่เกิดประสิทธิภาพและเป็นอันตราย สังคมต่างคาดหวังให้องค์กรดำเนินงานด้วยความโปร่งใส รับผิดชอบและมีจริยธรรม
ดังนั้นการควบคุมดูแล AI จึงมีความจำเป็นเพื่อตอบสนองต่อความต้องการทางสังคมเหล่านี้ พร้อมยังคงให้ความสำคัญกับความก้าวหน้าในการจัดการกับความซับซ้อน ความคลุมเครือ และวิวัฒนาการทางเทคโนโลยีที่เปลี่ยนรวดเร็ว
นอกจากการพิจารณาผลกระทบต่อสังคมวงกว้างและการปฏิบัติตามกฎระเบียบ องค์กรจำเป็นต้องสร้างสมดุลระหว่างข้อกำหนดเพื่อสร้างความไว้วางใจในการแข่งขันและควบคุมการใช้งานในที่ทำงานร่วมกับคุณค่าทางธุรกิจ ความเสี่ยงต่อองค์กร รวมถึงความเป็นส่วนตัวของพนักงาน ลูกค้าและพลเมืองตามปัจเจกบุคคล
การ์ทเนอร์ วิเคราะห์ว่า AI พัฒนาอยู่ท่ามกลางภูมิทัศน์ทางเทคโนโลยีที่เปลี่ยนแปลงและมีความซับซ้อนอยู่ตลอด รวมถึงมีความคลุมเครือตามธรรมชาติของเทคโนโลยีนี้ที่สามารถนำไปสู่การขาดความเข้าใจถึงผลกระทบต่อชื่อเสียง ธุรกิจ และสังคม
การกำกับดูแลควรสะท้อนถึงคุณลักษณะการทำงานข้ามฟังก์ชันและคาดการณ์การทำงานของ AI โดยสิ่งที่องค์กรหลายแห่งมักก่อข้อผิดพลาด คือ การกำหนดให้ AI Governance เป็นโครงการแบบ Standalone ซึ่งแท้ที่จริงควรเป็นการขยายขอบเขตของมาตรการที่มีอยู่เดิมในองค์กรต่างหาก
นอกจากนี้ สิ่งสำคัญสำหรับองค์กรคือ การชี้ชัดบุคลากรที่จะมาจัดการกับปัญหาต่างๆ ที่เกี่ยวกับองค์กร สังคม ลูกค้า และพนักงาน ซึ่งควรเป็นผู้ที่มีแนวคิด มีพื้นฐานความรู้และมีบทบาทหลากหลาย จากนั้นแยกแยะการตัดสินใจในการกำกับดูแลและสิทธิการตัดสินใจโดยใช้ความเชี่ยวชาญและมุมมองที่พวกเขามีสิทธิการตัดสินใจสำหรับกำหนดอำนาจและความรับผิดชอบสำหรับธุรกิจ เทคโนโลยี รวมถึงการตัดสินใจทางจริยธรรม โดยต้องได้รับการควบคุมดูแลอย่างเข้มงวด แต่ในทางกลับกัน องค์กรสามารถให้มีอิสระในการตัดสินใจด้าน AI Content ที่ไม่สำคัญได้
อีกหนึ่งประเด็นที่ควรนำมาพิจารณา การกำกับดูแล AI เริ่มจากความต้องการสนับสนุนเป้าหมายทางธุรกิจ โดยเป้าหมายของ AI ในโครงการนำร่องหรือในกระบวนการพิสูจน์เชิงแนวคิด หรือ Proof Of Concept (POC) นั้นควรเป็นการพิสูจน์คุณค่าตามที่คณะกรรมการกำหนดและอนุมัติร่วมกับผู้มีส่วนได้ส่วนเสียทางธุรกิจอื่น ๆ ไม่ใช่การวัดผล เช่น ความแม่นยำ หรือเปรียบเทียบกับเครื่องมือเทคนิคอื่นๆ
สำหรับองค์กรที่ใช้ AI ขั้นสูง หรือ AI-Advanced Organisations ยังรวมถึงการกำกับดูแลวงจรชีวิต AI ทั้งหมด ตามเป้าหมายเพื่อให้สามารถนำส่วนประกอบ AI กลับมาใช้ใหม่ได้ พร้อมเร่งการส่งมอบ รวมถึงการปรับขนาดการใช้ AI ให้ครอบคลุมทั่วทั้งองค์กร
แหล่งข้อมูล