OpenAI เปิดตัว “CriticGPT” เครื่องมือตรวจสอบโค้ดที่เขียนโดย ChatGPT หวังยกระดับโค้ดให้มีความถูกต้อง แม่นยำ น่าเชื่อถือมากขึ้น พร้อมขยายสู่งานแปลภาษาและเขียนสร้างสรรค์
ยุคที่ ChatGPT กลายเป็นผู้ช่วยเขียนโค้ดยอดนิยม ประเด็นต่อไปคือ “ใครเป็นคนตรวจสอบความถูกต้องของโค้ดที่ AI สร้างขึ้น?” ล่าสุด OpenAI ได้พัฒนา “CriticGPT” เครื่องมือที่ต่อยอดจากโมเดล GPT-4 เพื่อตรวจสอบความถูกต้องของโค้ดที่สร้างโดย AI
ผลการทดสอบชี้ว่า โค้ดที่ผ่านการตรวจสอบด้วย CriticGPT มีประสิทธิภาพสูงกว่าการไม่ใช้ AI ตรวจสอบถึง 60% เนื่องจากสามารถวิเคราะห์จุดละเอียดอ่อนและซับซ้อนที่มนุษย์อาจมองข้าม
CriticGPT ใช้ระบบ Reinforcement Learning from Human Feedback (RLHF) โดยอาศัยผู้ฝึกสอนมนุษย์ (AI trainers) ให้ฟีดแบ็กเพื่อปรับปรุงประสิทธิภาพ แก้ปัญหาที่ ChatGPT มีความซับซ้อนมากขึ้นจนยากแก่การตรวจจับข้อผิดพลาด
เพราะยิ่ง ChatGPT พัฒนาตัวเอง มีเหตุผลมากขึ้น ผลลัพธ์ที่ผิดพลาดก็ยิ่งแยบยลขึ้น ทำให้ผู้เชี่ยวชาญด้าน AI จับข้อผิดพลาดได้ยากขึ้น นี่เป็นข้อจำกัดพื้นฐานของระบบ RLHF และอาจเป็นอุปสรรคต่อการพัฒนา AI
อย่างไรก็ตาม CriticGPT ยังมีจุดที่ต้องพัฒนาต่อไป ทั้งการรองรับงานที่ซับซ้อนและยาวขึ้น ลดการสร้างข้อมูลที่ไม่มีอยู่จริง (Hallucination) เพิ่มความแม่นยำของคำแนะนำ ขยายความสามารถให้ครอบคลุมภาษาโปรแกรมมิ่งและเฟรมเวิร์กที่หลากหลาย และเพิ่มมาตรการปกป้องข้อมูลอ่อนไหวในโค้ดที่ถูกวิเคราะห์
ทีมวิจัยของ OpenAI เชื่อว่าการพัฒนา AI ที่ซับซ้อนยิ่งขึ้นนั้นจำเป็นต้องอาศัยเครื่องมือที่ทรงพลังกว่าเดิม และหนึ่งในแนวทางที่น่าสนใจคือการใช้ระบบ RLHF ร่วมกับ GPT-4 ซึ่งเป็นโมเดล AI ขั้นสูงล่าสุด
ทั้งนี้ ยังมุ่งหวังจะขยายการใช้งาน CriticGPT ไปสู่งานด้านอื่นๆ เช่น การวิเคราะห์ข้อความ การแปลภาษา และการเขียนเนื้อหาสร้างสรรค์ พร้อมคำนึงถึงประเด็นด้านจริยธรรมของ AI ควบคู่กันไป
แหล่งข้อมูล