AI อาจทำลาย ‘ประชาธิปไตย’ ได้อย่างไร

Loading

ปี 2023 AI ได้แพร่กระจายอย่างรวดเร็วไปในแทบทุกพื้นที่ของสังคม ซึ่งหลายคนก็ตื่นเต้นกับความเปลี่ยนแปลงอย่างรวดเร็วและคาดเดาไม่ได้ แต่อีกหลายๆ ฝ่ายก็ตั้งคำถามว่ามันจะไปสั่นคลอนอะไรที่เป็น ‘พื้นฐาน’ ของสังคมที่เป็นอยู่จนเกิดความวุ่นวายไหม

ความกังวลแบบนี้มีอยู่ทั่วไป แต่คำถามที่อาจจะใหญ่ที่สุดคือ AI นั้นจะมาเปลี่ยน ‘ระบบการเมือง’ แบบถอนรากถอนโคนหรือเปล่า?

แน่นอน ความกังวลแบบนี้มีตั้งแต่คำถามว่า AI จะพยายามยึดครองโลกและปกครองมนุษย์ไหม ไปจนถึงคำถามว่าถ้า AI ตัดสินใจนโยบายสาธารณะได้ดีกว่ามนุษย์ มนุษย์ควรใช้ AI แทน ‘นักการเมือง’ หรือไม่?

เรื่องพวกนี้อาจเป็นเรื่องของอนาคต (ที่ไม่รู้จะใกล้หรือไกล) แต่คำถามสดๆ ร้อนๆ ตอนนี้เลยจากฝั่งอเมริกาก็คือ ในการเลือกตั้งปีหน้า 2024 นั้น จะมีการใช้ AI ที่จะ ‘ส่งผลต่อผลเลือกตั้ง’ หรือไม่

คำตอบคือใช่และน่าจะมี

ขอย้อนไปก่อนว่า ในอเมริกานั้นมีความระแวงเรื่องการ ‘แทรกแซงการเลือกตั้ง’ ด้วยเทคโนโลยีต่างๆ มานานแล้ว และก็ไม่ใช่การกังวลลอยๆ สิ่งเหล่านี้มีหลักฐาน เช่นการเลือกตั้งปี 2016 ที่ โดนัลด์ ทรัมป์ ชนะ ก็มีหลักฐานชัดเจนว่ามีการวางแผน ‘ยิงโฆษณา’ บนโซเชียลมีเดียอย่างมีกลยุทธ์ เพื่อให้คนมีพฤติกรรมการเลือกตั้งอย่างที่ต้องการ เช่น การยิงข่าวปลอมเพื่อให้คนที่สนับสนุนเดโมแครตไม่ออกไปเลือก ฮิลลารี คลินตัน หรือทำให้คนกลางๆ ออกมาเลือกทรัมป์ เพราะความกลัวเรื่องที่ไม่จริง

แน่นอน เรื่องพวกนี้เป็นเกมการเมืองเลือกตั้งปกติ แต่สิ่งที่เกิดขึ้นคราวนั้นที่คนช็อกก็คือ การที่บริษัทที่วางแผนนี้อย่าง Cambridge Analytica นั้นแบ่งผู้รับสารเป็นกลุ่มๆ และยิงโฆษณาที่ต่างกันโดยสิ้นเชิง เพื่อผลทางพฤติกรรมที่ต่างกัน

และคนอเมริกันก็เกรงกลัวไม่น้อยที่เรื่องพวกนี้จะเกิดขึ้นอีก ก็เลยพยายามให้บริษัทโซเชียลมีเดียอย่าง Facebook ออกคำเตือนจริงจังเกี่ยวกับ ‘โฆษณาทางการเมือง’ อะไรพวกนี้ให้ผู้ใช้รับรู้

คำถามคือ AI เข้ามาจะเปลี่ยนเกมไหม?

คำตอบคือ มันจะเปลี่ยนทุกอย่าง

โดยเขายกตัวอย่างง่ายๆ ว่า สมมติว่าเราสั่ง AI ให้ทำแคมเปญยังไงก็ได้ให้นาย A ชนะเลือกตั้ง แล้วให้มันเข้าถึงทรัพยากรทั้งหมด

สิ่งที่มันจะทำ มนุษย์จะไม่รู้เลยว่ามันจะทำอะไร และมันก็จะไม่สนวิธีการใดๆ ทั้งนั้น ขอแค่ให้นาย A ชนะเลือกตั้งก็พอ

การยิงโฆษณาบนโซเชียลมีเดียมีแน่ แต่มันจะโหดกว่านั้นเพราะถ้า AI วิเคราะห์พฤติกรรมคนให้แบบ realtime ผลคือ มันจะเปลี่ยนสารโฆษณาไม่ใช่แค่ในระดับ ‘กลุ่มคน’ แต่จะเป็นระดับปัจเจก คือมันจะรู้ว่าคนคนนี้ต้องใช้ภาพนี้ ข้อความนี้ ถึงจะทำให้เกิดพฤติกรรมได้ และข้อมูลพวกนี้บริษัทโฆษณามีอยู่ในมืออยู่แล้วเพื่อใช้ยิงโฆษณาขายสินค้าให้เรา

พูดง่ายๆ ถ้าโฆษณาขายของแต่ละคนไม่เหมือนกันยังไง การยิงโฆษณาทางการเมืองก็จะไม่เหมือนกันในแบบเดียวกัน

และก็ไม่ต้องบอกว่านี่มันโหดกว่าตอน Cambridge Analytica ทำอีก เพราะมันละเอียดกว่าแน่ๆ

ซึ่งที่น่ากังวลกว่านั้น คือคนโดนยิงโฆษณาก็อาจไม่รู้ตัวด้วยซ้ำว่ากำลังโดน ‘ปรับพฤติกรรม’ เพราะแผนจริงๆ มันไม่ได้มาง่ายๆ ดิบๆ แค่บอกให้ออกไปเลือกนาย A แต่มันอาจเป็นการระดมยิงมีมให้คน ‘มีความเชื่อ’ ในบางเรื่อง แล้วตามด้วยการระดมยิงข่าวปลอม ให้คนเชื่อว่าคู่แข่งนาย A มีความเกี่ยวข้องกับเรื่องที่ไม่งามนัก ก่อนจะตบท้ายด้วยการลงโฆษณาให้เลือกนาย A

สิ่งเหล่านี้ AI ทำได้สบายๆ และก็ต้องเน้นว่า ทั้งหมดนี้คือปรับสารให้เป็นแบบ ‘รายบุคคล’ นะ เพื่อความสัมฤทธิ์ผลมากขึ้น มนุษย์ไม่มีทางจะปรับสารโฆษณาชวนเชื่อเป็นแบบรายบุคคลได้ แต่ AI มันทำได้สบายๆ

ซึ่งถามว่าแบบนี้ นาย B ที่เป็นคู่แข่งนาย A จะยอมเหรอ? คำตอบคือสุดท้ายนาย B ก็น่าจะใช้ AI มาทำแคมเปญเลือกตั้งให้ตัวเองแบบที่นาย A ทำ

ผลคือสนามเลือกตั้งก็จะเต็มไปด้วยการกล่อมเกลาคนให้มีความเชื่อบางอย่าง การสร้างข่าวปลอมอย่างมีกลยุทธ์ เพื่อให้ผลสุดท้ายคนออกไปเลือกคนบางคนตามแผน โดยไม่สนทั้งนั้นว่ากระบวนการทั้งหมดจะส่งผลข้างเคียงอย่างไรต่อสังคมการเมือง

คงไม่ต้องอธิบายว่าภาวะแบบนี้มันบ่อนทำลายเสรีประชาธิปไตยระดับพื้นฐานแค่ไหน เพราะพื้นฐานของเสรีประชาธิปไตยที่ดีคือ ผู้คนต้องมีข้อมูลทั้งหมดในมือ และตัดสินใจภายใต้เหตุผลและผลประโยชน์ตัวเองว่าจะเลือกใครดี ซึ่งการที่ทำให้คนมีความเชื่อที่บิดเบี้ยวและข้อมูลที่บิดเบือน มันเป็นการทำลายเป้าหมายของเสรีประชาธิปไตยโดยตรง

ซึ่งที่โหดคือ ถ้าทุกวันนี้คนจะทำแบบนี้ ก็อาจไ่ม่มีใครมีความผิดเลย เพราะทุกคนอ้างได้ว่าก็แค่สั่ง AI ให้ทำให้ตัวเองชนะเลือกตั้ง หลังจากนั้นคือไม่รู้ว่า AI ทำอะไร เพราะมันทำงานแบบ ‘กล่องดำ’ ที่ไม่รู้ว่าระหว่างทางมันทำอะไรไปบ้าง แค่ส่งมอบผลลัพธ์ให้ได้เป็นพอ และภาวะแบบนี้เป็น ‘ช่องว่างทางกฎหมาย’ ที่เอาผิดใครไม่ได้ และมันเป็นคำถามเดียวกับคำถามว่า ถ้าคนสั่งให้รถยนต์อัตโนมัติไปส่ง ณ ที่หนึ่ง แต่รถชนคนระหว่างทาง แบบนี้ใครจะเป็นคนผิด? คำตอบคือ ระบบกฎหมายปัจจุบันยังไม่มีคำตอบชัดเจน

คำถามพวกนี้ทำให้ทุกฝ่ายปวดหัวมาก เพราะปัญหามันไม่ใช่แค่จะควบคุม AI ยังไง แต่ปัญหาคือคนปัจจุบันยังจินตนาการไม่ออกเลยว่า AI ทำอะไรได้บ้างด้วยซ้ำ ซึ่งนั่นทำให้มันมีปัญหามากในการออกกฎหมายควบคุม เพราะถ้าออกกฎหมายเฉพาะไป AI มันอาจทำในสิ่งที่ไม่ถูกไม่ควร แต่กฎหมายไม่ได้ห้าม แต่ถ้าออกกฎหมายห้ามไปแบบกว้างๆ นอกจากผิดหลักกฎหมายที่ไม่ควรจะ ‘ห้ามเอาไว้ก่อน’ แล้ว มันยังเป็นการทำลายศักยภาพทางเทคโนโลยีด้วย เพราะมันจะไปห้ามในสิ่งที่อาจเป็นประโยชน์ด้วย

และก็ยังไม่ต้องพูดถึงว่าจะบังคับใช้กฎหมายพวกนี้ยังไง เพราะในทางเทคนิคยังไม่มีใครคิดออกเลยว่าจะทำยังไงด้วยซ้ำ

แหล่งข้อมูล

https://www.facebook.com/photo/?fbid=818213459866992&set=a.811136580574680


Smart City Thailand : 02 054 7755
Contact us : thunya.b@gmail.com | thunya@securitysystems.in.th

© smartcitythailand 11 โกสุมรวมใจ ดอนเมือง กรุงเทพมหานคร 10210