เมื่อคนเริ่มใช้ ChatGPT เป็น ‘นักจิตบำบัดส่วนตัว’

Loading

นับจากต้นปี 2023 เป็นต้นมา ChatGPT ได้แพร่กระจายไปอย่างรวดเร็วมาก เพราะนี่ไม่ใช่เทคโนโลยีประหลาดสำหรับพวกไฮเทคเพียงอย่างเดียวอีกต่อไป แต่ใครๆ ก็ใช้ได้ และทุกๆ คนก็มักจะพบว่ามันช่วยแบ่งเบา ‘งาน’ ของพวกเขาได้จริง ไม่ทางใดก็ทางหนึ่ง ซึ่งที่สำคัญไปกว่านั้น คือการที่มันสามารถใช้ได้ฟรีบนเบราว์เซอร์ ก็ยิ่งทำให้คนแห่ไปใช้กันมากขึ้นเรื่อยๆ

การที่คนใช้ ChatGPT กันเยอะๆ แล้วมาแลกเปลี่ยนกันมันก็ทำให้เราได้เรียนรู้มากขึ้นว่า ChatGPT ทำอะไรได้บ้าง เพราะคนส่วนใหญ่จะเข้าไปถามมันโดยอ้างอิงจากฐานความรู้และหน้าที่การงานของตัวเอง ซึ่งรวมๆ คือมันก็ตอบอะไรได้ดู ‘น่าทึ่ง’ ไปหมด และกลายเป็นเหตุผลที่มันโดดเด่นขนาดนี้

แต่ทีนี้ก็มีแนวโน้มว่าคนจะใช้งานหรือพึ่งพา ChatGPT อย่างหนักข้อขึ้น และล่าสุดก็พบว่ามีคนกลุ่มหนึ่งเริ่มใช้งานมันในฐานะ ‘นักจิตบำบัดส่วนตัว’ กันแล้ว

คงไม่ต้องพูดกันมากว่ายุคปัจจุบัน ในทางสถิติคนมีปัญหาสุขภาพจิตกันเยอะกว่าในอดีต แต่อีกด้านหนึ่ง บุคลากรที่รับผิดชอบด้านการดูแลรักษาบำบัดด้านนี้กลับมีไม่เพียงพอ ซึ่งนั่นก็ยังไม่ต้องพูดถึงว่าการบำบัดด้านนี้ก็มีต้นทุนทางเศรษฐกิจสูงเอาการอยู่ และทำให้คนจำนวนมากลังเลที่จะไปเข้ารับการบำบัด

หรือพูดง่ายๆ นอกจากจิตแพทย์และนักจิตบำบัดจะมีไม่พอแล้ว สำหรับคนจำนวนมากการไปหาจิตแพทย์ก็ยังเป็นสิ่งที่ ‘แพงเกินไป’ ซึ่งนี่ก็ยังไม่ต้องนับว่าในหลายๆ ประเทศ (โดยเฉพาะในเอเชีย) การต้องไปหาจิตแพทย์ยังถูกคนบางส่วนในสังคมมองว่าเป็น ‘ตราบาป’ ที่จะทำให้ถูกเหมารวมว่า ‘จิตไม่ปกติ’

ในภาวะแบบนี้ สิ่งที่มาตอบโจทย์แบบงงๆ ก็คือ ChatGPT เพราะถ้าไปลองคุยกับมันราวกับว่ามันเป็นจิตแพทย์หรือนักจิตบำบัด หลายคนพบว่าคำตอบที่มีให้เราก็เหมือนๆ จิตแพทย์น่ะแหละ และนี่คือเหตุผลที่หลายคนก็คิดว่าถ้าเป็นแบบนี้ก็คุยกับ ChatGPT ดีกว่า จะไปเสียเวลาและเสียเงินไปบำบัดทางจิตทำไมกัน

จริงๆ สิ่งนี้คือสิ่งที่กระทั่ง CEO อย่าง OpenAI เคยพูดด้วยซ้ำว่า ChatGPT จะมาแทนที่บริการทางการแพทย์ในหลายๆ ด้านซึ่ง ‘แพงหูฉี่’ ในสหรัฐอเมริกา ซึ่งตั้งแต่ตอนนั้นแล้วที่คนออกมาปรามว่านั่นไม่ใช่สิ่งที่ควรจะเกิดขึ้น และพอคนเริ่มใช้ ChatGPT เป็น ‘จิตแพทย์’ หรือ ‘นักจิตบำบัด’ ก็มีคนออกมาเตือนอีกครั้งว่า ‘ไม่เหมาะสม’

ทำไมถึงเป็นแบบนั้น?

ประการแรก ChatGPT มีประวัติไม่ดีนักในการให้คำแนะนำเกี่ยวกับชีวิตมนุษย์ เพราะไม่นานมานี้มีคนทดลองถาม ChatGPT แล้วได้รับแนะนำให้ไป ‘ฆ่าตัวตาย’ ก็มี และนอกจากนี้ก็มีข่าวออกมาว่าชาวเบลเยียมผู้หนึ่งซึ่งเคยคุยกับ ChatGPT ตัดสินใจจบชีวิตตัวเองจริงๆ ในเวลาต่อมา พูดง่ายๆ ก็คือมีความเป็นไปได้สูงที่ ChatGPT จะให้คำแนะนำที่ไม่เหมาะสมกับคนที่สภาพจิตใจอ่อนไหว และอาจทำให้พวกเขาเกิดอันตรายถึงชีวิตได้

ประการที่สอง เป็นเรื่องที่น่าจะสำคัญที่สุด และเป็นปัญหาของ AI ทุกชนิด คือ ‘ปัญหาเรื่องความรับผิดชอบ’ ซึ่งที่เป็นแบบนี้ก็เพราะ AI อาจทำงานแทนมนุษย์ได้สารพัดก็จริง แต่มันไม่สามารถ ‘แสดงความรับผิดชอบ’ ได้ หรือในกรณีที่ AI ทำอะไรผิด ก็ไม่มีใครต้อง ‘รับโทษ’ ซึ่งปัญหาคือบางครั้งมันก็อาจเกิดความเสียหายจริงๆ ดังที่กล่าวมาข้างต้น ซึ่งถ้าเกิดภาวะแบบนี้แล้วจะหาตัว ‘คนผิด’ ไม่ได้เลย

จริงอยู่ที่พวกบริษัทที่ให้บริการ AI จะพยายามใส่ทั้งคำเตือน คำแนะนำ หรือกระทั่งมีคำสั่งบล็อก AI ไม่ให้ตอบคำถามบางอย่าง แต่ในความเป็นจริงทางผู้ใช้ก็มีเทคนิคในการดัดแปลงระบบ (Jailbreak) ให้ AI พูดหรือตอบในสิ่งที่มันถูกห้ามได้สารพัด เช่น เทคนิคการ ‘เล่นบทบาทสมมติ’ ที่ฮิตๆ กัน ซึ่งในแง่นี้ ถึงจะบล็อก ChatGPT แต่คนจำนวนมากก็สามารถจะทะลวงการบล็อกได้ และใช้ ChatGPT ในเรื่องที่ถูกห้ามใช้ได้อยู่ดี

ถ้าจะพูดให้ถึงที่สุด ถึงเราจะจำกัดประเด็นบทสนทนากับ ChatGPT ได้จริงๆ แต่โลกนี้ก็ไม่ได้มี AI ตอบคำถามแค่เพียง ChatGPT เพราะก็มีเทคโนโลยีแบบนี้อีกหลายตัวที่เป็นโมเดลแบบ ‘แจกฟรี’ ให้คนไปพัฒนาต่อได้ ซึ่งของพวกนี้ก็พูดได้เลยว่ามันคุมไม่ได้อย่างสมบูรณ์ เพราะในทางเทคนิค บริษัทนั้นไม่สามารถควบคุมได้แน่ๆ ว่า ‘ผู้ใช้’ จะเอามันไปพัฒนายังไงต่อ หรือพูดง่ายๆ ถึงเราจะบล็อกหรือแบนการใช้ ChatGPT ในการเป็นจิตแพทย์หรือนักบำบัดส่วนตัว สิ่งที่จะเกิดขึ้นก็คือยังไงก็จะมี ‘AI ตอบคำถาม’ ตัวอื่นๆ มาเล่นบทบาทนี้แทน ChatGPT อยู่ดี และเราไม่มีทางจะบล็อกมันได้หมด

นี่เลยทำให้สถานการณ์จริงมันไม่ใช่ง่ายๆ ที่จะตอบได้ว่า ‘จะทำยังไง’ กับการที่คนเริ่มใช้ AI เป็นจิตแพทย์หรือนักจิตบำบัดส่วนตัว เพราะเราอาจคุยกันได้ยาวเฟื้อยในเรื่องความเหมาะสม (หรือไม่เหมาะสม) แต่ในทางปฏิบัติ Generative AI ในภาพรวม ณ ปัจจุบันก็เป็นเทคโนโลยีที่แทบจะ ‘หยุดไม่ได้’ อยู่แล้ว

ดังนั้น สิ่งที่เราควรจะคิดต่ออาจไม่ใช่คำถามว่า เทคโนโลยีนี้ควรจะมีอยู่หรือไม่ แต่ควรถามว่า ‘เราจะอยู่ร่วมกับมันยังไง’ จะทำยังไงให้คนที่จะใช้งานประสบกับอันตรายน้อยที่สุด และนี่น่าจะเป็นมุมมองที่ดีต่อ AI มากกว่าการพยายามจะยับยั้งมัน เพราะเราก็อาจต้องตระหนักเช่นกันว่า ไม่น่าจะมีวิธีการใดที่จะปิด ‘กล่องแพนโดรา’ ที่ถูกเปิดออกมาแล้วนี้ได้

แหล่งข้อมูล

https://www.facebook.com/brandthink.me/photos/a.1767934240198787/3640346469624212/


Smart City Thailand : 02 054 7755
Contact us : thunya.b@gmail.com | thunya@securitysystems.in.th

© smartcitythailand 11 โกสุมรวมใจ ดอนเมือง กรุงเทพมหานคร 10210