Black Box ปริศนาที่อธิบายได้ยากของระบบ AI

Loading

เวลาได้ยินคำว่า “Black Box” หรือ “กล่องดำ” คนทั่วไปมักจะคิดถึงเวลาเครื่องบินตกแล้วไปค้นหาสาเหตุของปัญหาจาก “กล่องดำ”

สำหรับ Black Box ในแวดวง AI จะหมายถึงระบบการทำงานของ AI ที่ได้ผลลัพธ์เป็นคำตอบที่แม้แต่ผู้สร้าง AI ก็ไม่เข้าใจอย่างถ่องแท้ว่า ทำไมถึงเป็นเช่นนั้น?!?

Black Box มักจะเกิดกับโมเดลแบบ Deep Learning เพราะมีขบวนการทำงานที่ซับซ้อน มีการกลั่นกรองข้อมูลหลายชั้น มีการเชื่อมต่อของข้อมูลมากมาย อาจมีพารามิเตอร์นับล้านตัว มีตัวแปรหลายอย่างที่เอามาพิจารณาร่วมกัน

เมื่อ AI ให้ผลลัพธ์มา มันยากต่อการทำความเข้าใจว่า ไม่รู้เหตุผลเกี่ยวกับน้ำหนักและการเชื่อมต่อของแต่ละส่วนที่ส่งผลต่อผลลัพธ์สุดท้าย ไม่รู้ว่ามีที่มาอย่างไร มนุษย์ผู้สร้างไม่สามารถตีความได้ง่าย และปริศนาที่อธิบายได้ยากเหล่านี้ จะเรียกว่า “ปัญหากล่องดำ”

มีตัวอย่าง Black Box Problem ที่อธิบายได้ยากหรืออธิบายไม่ได้เลย เช่น

– AlphaGo’s Move 37:

DeepMind บริษัทในเครือกูเกิล สร้าง AlphaGo ซึ่งเป็น AI ที่สามารถเล่นเกมโกะ หรือ หมากล้อม ในการแข่งขันกับ Lee Sedol แชมป์โลกเกมโกะ ในการเดินหมากตาที่ 37 เป็นการเดินที่แหวกแนว ผู้คนที่สังเกตการณ์และรวมถึงนักพัฒนาที่เป็นผู้สร้าง ต่างก็รู้สึกประหลาดใจกับการเดินหมากตานี้อย่างมาก แต่ในที่สุด AlphaGo ก็เป็นผู้ชนะ เหตุผลที่อยู่เบื้องหลังในการเดินครั้งที่ 37 นี้ ยังเป็นเรื่องยากสำหรับมนุษย์ที่จะเข้าใจ

– Generative AI:

AI สร้างข้อความ, AI สร้างภาพ, AI สร้างวิดีโอ ใช้โมเดล Deep Learning ทั้งนั้น สิ่งที่ทำออกมาดูสมจริงมาก แต่ไม่สามารถอธิบายให้ชัดเจนว่า ได้ผลลัพธ์ออกมาอย่างไร ส่งผลทำให้ควบคุมสิ่งที่ AI จะผลิตออกมาได้ยาก

– Autonomous Vehicles:

รถไร้คนขับอาศัยอัลกอริธึม AI ที่ซับซ้อนในการตัดสินใจเกี่ยวกับ การนำทาง การตรวจจับสิ่งกีดขวง การจัดการกับการจราจร และในยามที่เกิดอุบัติเหตุซึ่งมีความเกี่ยวข้องกับรถไร้คนขับ ยังมีหลายประเด็นที่นักพัฒนาไม่เข้าใจว่า AI มีขบวนการตัดสินใจอย่างไร เลยกลายเป็นปัญหากล่องดำที่หาสาเหตุของอุบัติเหตุได้ยาก

– AI in Finance:

มีการนำ AI มาช่วยทำงานทางด้านการเงินต่างๆ เช่น การตรวจจับการฉ้อโกง การตรวจจับการซื้อขายด้วยอัลกอริทึม และสิ่งที่เป็นเรื่องน่าทึ่งและน่าข้องใจกันมาก คือ การใช้ AI มาช่วยพิจารณาให้เครดิต มันทำให้หนี้เสียลดลงกว่าตอนที่ใช้ผู้เชี่ยวชาญที่เป็นคน ถ้าเป็นคนจะพิจารณาให้เครดิตโดยดูจากปัจจัยหลัก 5 เรื่อง คือ นิสัยส่วนตัว สภาพเศรษฐกิจ ความสามารถในการหาเงิน เงินทุน หลักทรัพย์ค้ำประกัน แต่เวลา AI พิจารณาให้เครดิต มันศึกษาจากปัจจัยต่างๆหลายร้อยรายการ บางปัจจัยก็อธิบายความเกี่ยวข้องกับการให้เครดิตได้ยาก เช่น ใช้แอปอะไรบ้าง เล่นเกมบ่อยแค่ไหน ใช้เวลากับอะไร แม้แต่ตอนที่มาขอเครดิตแบตเตอรี่มือถือเหลืออยู่แค่ไหนก็เอามาพิจารณาร่วมด้วย นักพัฒนาไม่รู้ว่าแน่ชัดว่า AI ให้น้ำหนักกับแต่ละปัจจัยอย่างไร และทำไมถึงเป็นเช่นนั้น?

ยังมีตัวอย่างปัญหากล่องดำที่ยากจะอธิบายอีกหลายเรื่อง เช่น

– AI ในระบบตุลาการ

– AI ในระบบรักษาความปลอดภัยทางไซเบอร์

– AI ในระบบให้คำแนะนำ (Netflix, Amazon, YouTube, TikTok)

– AI ในเกม

– AI นักรังสีวิทยา

– ความอคติทางเพศและเชื้อชาติในระบบ AI

บุคคลที่มีชื่อเสียงในแวดวงเทคโนโลยีโลกหลายคน แสดงความกังวลเกี่ยวกับปัญหากล่องดำ มีการเน้นย้ำให้เห็นถึงความเสี่ยงและอันตรายที่อาจเกิดขึ้นเพราะความไม่โปร่งใส หรือความไม่เข้าใจ AI อย่างแท้จริง

อันตรายที่อาจเกิดขึ้นจากปัญหากล่องดำ เช่น ขาดความรับผิดชอบ อคติและการเลือกปฏิบัติ ไร้จริยธรรม ไม่ปลอดภัย ไม่น่าเชื่อถือ

อีลอน มัสก์ ที่มักจะออกมาแสดงความคิดเห็นด้านลบเกี่ยวกับ AI อย่างรุนแรง ให้เหตุผลว่า การขาดความเข้าใจ อาจนำไปสู่อุบัติเหตุ หรือการวินิจฉัยที่ผิดพลาด และส่งผลกระทบอย่างร้ายแรงต่อมนุษย์

มนุษย์กำลังสร้างเครื่องจักรที่ไม่รู้แน่ชัดว่า มันทำงานอย่างไรแน่?

AI จะกลายเป็นอสูรร้ายที่แว้งกลับมาทำร้ายมนุษย์ผู้สร้างมันหรือเปล่า?

แหล่งข้อมูล

https://www.facebook.com/turakij4.0/photos/a.698141950343830/2525351957622811/


Smart City Thailand : 02 054 7755
Contact us : thunya.b@gmail.com | thunya@securitysystems.in.th

© smartcitythailand 11 โกสุมรวมใจ ดอนเมือง กรุงเทพมหานคร 10210