กลุ่มประเทศ G7 หารือครั้งสำคัญ เตรียมออกกรอบ-ระเบียบจริยธรรมสำหรับองค์กรต่าง ๆ ที่พัฒนาปัญญาประดิษฐ์ เพื่อให้ใช้งานได้อย่างปลอดภัยและไม่ละเมิดข้อมูลส่วนบุคคล
กลุ่มประเทศอุตสาหกรรมชั้นนำ 7 ประเทศ (Group of Seven : G7) ได้แก่ แคนาดา ฝรั่งเศส เยอรมนี อิตาลี ญี่ปุ่น สหราชอาณาจักร และสหรัฐอเมริกา บรรลุข้อตกลงในการออกกรอบจริยธรรมสำหรับองค์กรต่าง ๆ ที่พัฒนาปัญญาประดิษฐ์ (AI) เพื่อนำไปใช้งานทั้งในภาคประชาชนและเอกชน
ตามเอกสารการประชุมที่ สำนักข่าวรอยเตอร์ ได้รับ จากการประชุมภายในของกลุ่มผู้นำ G7 ระบุว่า รัฐบาลต่างเป็นกังวลถึงความเสี่ยงที่อาจเกิดจากการใช้ AI ในทางที่ผิด โดยกรอบนี้จะเป็นขอบเขตด้านจริยธรรมของ AI ที่องค์กรต่าง ๆ ควรปฏิบัติตาม ดังนั้นจึงไม่ใช่กฎหมายที่ทุกคนต้องทำตาม
เป้าหมายของ ขอบเขตด้านจริยธรรมของ AI ที่กลุ่ม G7 ต้องการ คือ การสร้าง AI ที่ปลอดภัย ไว้ใจได้ และไม่นำข้อมูลส่วนบุคคลไปเรียนรู้หรือเผยแพร่ต่อจนทำให้เกิดความเสียหายหรือละเมิดสิทธิส่วนบุคคล
ขอบเขตดังกล่าว เชื่อว่าจะทำให้ บริษัท AI นำไปวางแผนได้ว่าปัญญาประดิษฐ์แต่ละตัวจะต้องมีความปลอดภัยอย่างไรบ้าง ? รวมถึงมีแนวทางในการรับมือเหตุการณ์ต่าง ๆ ที่อาจเกิดขึ้นด้วย และแนวทางการประกาศให้ประชาชนรู้ถึงสิ่งที่ไม่สามารถทำได้ เช่น การขอข้อมูลส่วนบุคคล
ปัจจุบันสหภาพยุโรป เป็นกลุ่มประเทศที่ก้าวหน้าเรื่องการควบคุมเทคโนโลยีใหม่ ๆ ไม่ให้ ละเมิดสิทธิส่วนบุคคล ด้วยกฎระเบียบและค่าปรับที่รุนแรง ขณะที่ญี่ปุ่น สหรัฐอเมริกา และประเทศต่าง ๆ ในเอเชียตะวันออกเฉียงใต้ ต่างเน้นลงมือปฏิบัติมากกว่าเพื่อกระตุ้นการเติบโตทางเศรษฐกิจ
Vera Jourova หัวหน้าฝ่ายดิจิทัลของคณะกรรมาธิการยุโรป กล่าวในเวทีเสวนาเกี่ยวกับการกำกับดูแลอินเทอร์เน็ตในเมืองเกียวโต ประเทศญี่ปุ่น เมื่อต้นเดือนที่ผ่านมา ว่า ขอบเขตจรรยาบรรณ-จริยธรรมของ AI เป็นพื้นฐานที่แข็งแกร่งในการรับรองความปลอดภัยในข้อมูลส่วนบุคคลของประชาชน
แหล่งข้อมูล