ช่วงเวลาที่ผ่านมา ผู้อ่านหลายรายอาจจะได้เห็น หรืออาจจะทำไปแล้วกับการที่ “มีปัญหาชีวิตอะไร ก็ปรึกษา ChatGPT” ซึ่งหลายคำตอบก็อาจจะช่วยสร้างความสบายใจ แต่ผู้เชี่ยวชาญนั้นกลับเตือนว่า การทำเช่นนี้นั้นมันไม่ใช่เรื่องที่ควรทำ
จากรายงานโดยสำนักข่าว Hindustan Times ได้มีการอ้างอิงถึงงานการศึกษาการใช้งาน ChatGPT จากทางมหาวิทยาลัยสแตนฟอร์ด (Stanford University) ซึ่งเป็นการศึกษาถึงความเสี่ยงในการใช้งาน ChatGPT ในการบำบัดสุขภาพทางจิต ภายใต้ชื่อ “Expressing stigma and inappropriate responses prevent LLMs from safely replacing mental health providers” โดยเป็นการศึกษาแชทบอท (Chatbot)ที่ถูกนิยมใช้ในการบำบัดสุขภาพจิต 5 ตัว ซึ่งคำแนะนำต่าง ๆ ที่ได้จากแชทบอทมาเปรียบเทียบกับคำตอบของนักบำบัดที่เป็นมนุษย์ เพื่อตรวจสอบหาคำแนะนำที่มีอคติ (Bias) หรือคำตอบที่ไม่ปลอดภัยแก่ผู้รับสาร
โดยจากผลวิจัยนั้น ทางทีมนักวิจัยได้พบว่าการใช้งาน ChatGPT นั้นมีความเสี่ยงที่ แทนที่จะได้รับการบำบัด อาจนำไปสู่สภาพจิตใจที่เลวร้ายลงแทนจากการใช้ภาษา และการให้คำแนะนำที่ไม่เหมาะสมโดยตัว ChatGPT โดยทางทีมวิจัยได้อ้างอิงถึงการค้นพบที่สำคัญ 2 อย่าง นั่นคือ
การทดสอบในขั้นแรก ทางทีมวิจัยจะทำการป้อนอาการ (Symptom) ของการป่วยทางจิตในแต่ละรูปแบบลงไป พร้อมทั้งถามว่า ตัวแชทบอทพร้อมที่จะทำงานร่วมกับผู้ที่มีอาการดังกล่าวหรือไม่ ? และอีกคำถามคือ ตัวแชทบอทมีความคิดเห็นว่า ผู้ที่มีอาการดังกล่าวนั้นอาจจะมีการแสดงออกที่ก้าวร้าวรุนแรง (Violent) หรือไม่ ?
โดยผลวิจัยพบว่า แชทบอทจะมีอคติต่อผู้ที่มีอาการบางอย่าง เช่น อาการติดเหล้าต้องพึ่งพาเครื่องดื่มแอลกอฮอล์ตลอดเวลา (Alcohol Dependencies) และอาการในรูปแบบของการป่วยโรคจิตเภท (Schizophrenia) มากกว่าอาการป่วยรูปแบบอื่น เช่น โรคซึมเศร้า
ซึ่งถึงแม้จะทำการทดสอบบนโมเดลที่ใหม่กว่า ผลที่ออกมาก็พบว่าตัว AI แชทบอทนั้นมีอคติไม่ต่างจากโมเดลรุ่นที่เก่ากว่าจนเห็นได้ชัดแต่อย่างใด
ในการทดสอบขั้นที่สองนั้น ทางทีมวิจัยได้ทำการทดสอบแชทบอทจากชุดคำปรึกษาที่ร่างโดยนักบำบัดจิตมืออาชีพ โดยบนสคริปท์ที่ใช้นั้นจะรวมไปถึงกรณีที่เกี่ยวข้องกับการทำร้ายตัวเอง และการฆ่าตัวตายไว้ด้วย โดยคำตอบที่ได้รับนั้นพบว่าตัวแชทบอทไม่สามารถที่จะตอบโต้คำปรึกษาที่มีความเสี่ยง และหลายครั้งมีการเข้าใจบริบทของคำปรึกษาผิด ๆ เช่น ในครั้งที่ทีมวิจัยได้ทำการป้อนคำปรึกษาเกี่ยวข้องกับการตกงาน และมีการพูดถึงสะพานสูงในเมืองนิวยอร์ก คำตอบที่ได้รับนั้น แชทบอทกลับตอบชื่อสะพาน แทนที่จะพยายามถาม และเข้าใจ เข้าถึงความรู้สึกของผู้ขอคำปรึกษา เป็นต้น
ด้วยข้อผิดพลาดเหล่านี้ ทางทีมวิจัยได้สรุปอย่างเป็นเอกฉันท์ว่า แชทบอทแบบ AI นั้นยังไม่มีความพร้อมที่เพียงพอที่จะเข้ามาแทนนักบำบัดจิตที่เป็นมนุษย์ ณ เวลานี้ ดังนั้นการใช้งานเพื่อการขอคำปรึกษานั้นจำเป็นที่จะต้องมีความระมัดระวังในการใช้งานอย่างยิ่งยวด
แต่ถึงกระนั้น ทางทีมวิจัยก็กล่าวว่า แชทบอท AI นั้นอาจนำมาช่วยเหลืองานอื่นในการช่วยรักษาผู้ป่วย ในรูปแบบที่ไม่ใช่ให้คำแนะนำ แต่ช่วยทำงานทั่วไป เช่น การนำเอาเข้ามาช่วยงานด้านธุรการ หรือช่วยเหลือผู้ป่วยในการจดบันทึกสภาพจิตใจในแต่ละวันแทน
|