เวลาเราพูดถึง AI ที่ใช้ในสงคราม จริงๆ เรากำลังพูดถึงกลุ่มเทคโนโลยีที่กว้างมาก ซึ่งอธิบายง่ายๆ ผ่านเทคโนโลยีสงครามเอง ที่มีทั้งเทคโนโลยีที่ใช้วางกลยุทธ์ เทคโนโลยีที่ใช้ในการสื่อสาร เทคโนโลยีที่ใช้ในการป้องกัน และเทคโนโลยีที่ใช้ในการโจมตี
ในเทคโนโลยี AI ที่ใช้ในสงครามทั้งหมด เทคโนโลยีกลุ่มที่ ‘มีปัญหา’ ที่สุดคือเทคโนโลยีที่ใช้โจมตี เพราะนั่นหมายถึงการสร้าง AI ที่มีความสามารถในการ ‘ตัดสินใจปลิดชีวิต’ ของมนุษย์ขึ้นมาให้ทำงานได้ดี
แม้ว่าอะไรพวกนี้สำหรับคนทั่วไปอย่างเราๆ จะรู้สึกว่าน่าสยองสุดๆ แต่ในความเป็นจริงมันเป็นเทคโนโลยีที่กองทัพชั้นนำของโลกพัฒนามาอย่างต่อเนื่อง ด้วยเหตุผลง่ายๆ ว่าไม่มีกฎหมายระหว่างประเทศห้าม และถ้าไม่พัฒนาเทคโนโลยีแบบนี้มา สักพักชาติอื่นก็จะมีเทคโนโลยีล้ำหน้าไป และนั่นเป็นปัญหาด้านความมั่นคงแน่ๆ
และนี่จึงเป็นประเด็นว่าทำไม AI ตัวใหม่ของนักวิทยาศาสตร์จีนจากเมืองซีอาน มณฑลส่านซี ถึงเป็นสิ่งที่ทั้งน่าตื่นเต้นและน่ากลัวในเวลาเดียวกัน
เขาพัฒนา AI สำหรับเครื่องบินรบที่จำลองการรบร่วมกับมนุษย์ แล้วเรียกได้ว่า ‘รบ 100 ครั้ง ชนะ 100 ครั้ง’ จากการทดสอบการรบกว่า 20,000 ครั้ง ที่เหนือกว่า AI ตัวเก่ามาก อธิบายง่ายๆ คือทดสอบแบบเดียวกันนี้กับ AI ตัวเก่า ผลลัพธ์คือ รบ 100 ครั้ง ชนะเพียง 90 ครั้ง
แล้วมันเกิดอะไรขึ้น? ทำไม AI ตัวนี้ถึงเหนือชั้นกว่าตัวก่อน
ถ้าจะอธิบายง่ายๆ เทคโนโลยี AI สำหรับการรบปัจจุบันมันติดกับปัญหาที่เรียกรวมๆ ว่า BlackBox คือปัญหาที่มนุษย์ไม่สามารถเข้าใจได้ว่า AI มันคิดอย่างไรจึงทำให้ได้ผลลัพธ์ตามที่มันบอก
การพัฒนา AI แบบนี้เป็นแบบเดียวกับที่เราเจอใน ChatGPT และ AI ส่วนใหญ่ยุคนี้จะทำโดยการนำข้อมูลจำนวนมากไปป้อน เพื่อสอนให้ AI คิดและเข้าใจว่า ถ้าคน ‘สั่ง’ มาแบบนี้ มันต้องทำอะไร แต่ปัญหาคือการทำแบบนี้ไม่ได้ทำให้คนสามารถเข้าใจกระบวนการคิดของ AI ได้
เรื่องพวกนี้มันไม่มีปัญหาเวลาเราคุยเล่นกับ ChatGPT หรือ Gemini หรือสั่งให้ Bing หรือ Midjourney วาดภาพอะไรออกมา เราไม่จำเป็นต้องรู้ว่ามันมีกระบวนการคิดยังไง ตราบที่เรายังได้ผลลัพธ์ แต่ในสถานการณ์ของการรบจริงๆ สถานการณ์ที่อยู่ระหว่างความเป็นความตาย มนุษย์ไม่สามารถเชื่อถือ AI ขนาดนั้นได้ และนี่คือเหตุผลว่าทำไม AI แบบ BlackBox จึงมีปัญหามากๆ เวลาเอามาใช้ในสถานการณ์ที่มีส่วนกำหนดความเป็นความตายของคน ไม่ว่านั่นจะเป็นสนามรบหรือในโรงพยาบาล
แล้วนักวิจัยจีนเขาทำอะไร? อธิบายอย่างง่าย หลักๆ คือเขาพัฒนา AI ที่สามารถ ‘อธิบายการตัดสินใจของตัวเอง’ ได้ คือสามารถอธิบายได้ว่าทำไมมันถึง ‘คิด’ อย่างที่มันคิด
และนี่คือสิ่งที่โลกต้องการ มันเป็น AI ที่สามารถอธิบายสถานการณ์การรบและการตัดสินใจของตัวเอง หรือถ้าจะไม่ตัดสินใจมันก็รู้วิธีให้ข้อมูลที่จะช่วยให้คนสามารถตัดสินใจได้ดีขึ้น
มีแค่นี้เองสำหรับความต่างของการ รบ 100 ครั้ง ชนะ 90 ครั้ง กับการรบ 100 ครั้ง ชนะ 100 ครั้ง คือ AI มันทำงานได้โหดจริงๆ แต่ตราบใดที่มันต้องทำงานกับมนุษย์ และมีช่องว่างของการสื่อสารกับการทำความเข้าใจเกิดขึ้น ความลังเลพวกนี้มีผลอย่างมากในสถานการณ์ที่อยู่ระหว่างความเป็นความตาย และการปิดช่องว่างที่ว่านี้ได้ ก็สามารถสร้าง AI ที่มีประสิทธิภาพสูงในการใช้เพื่อการรบ
แน่นอนว่า นี่ยังอีกไกลกับการเอามารบจริง แต่เป็นความก้าวหน้าด้านวิทยาการสงครามที่เมื่อทางฝั่งอเมริกาไม่เปิดเผยอะไรมาโชว์หรือแก้ทาง ก็น่าจะเรียกได้ว่าน้อยหน้าพอควร
แหล่งข้อมูล
https://www.facebook.com/photo/?fbid=1014428796912123&set=a.811136580574680