AI หรือ ปัญญาประดิษฐ์ นั้นถึงแม้จะมีประโยชน์อย่างมาก แต่ก็ยังคงเป็นที่ถกเถียงจากหลายฝ่ายว่า มีโอกาสไหมที่ AI จะทำเรื่องที่เป็นอันตรายต่อสังคม หรือทำเรื่องที่ผิดศีลธรรมต่าง ๆ ในวันนี้หลายคนอาจจะได้เริ่มเห็นภาพที่ชัดเจนของปัญหานี้แล้วจากข่าวนี้
จากรายงานโดยสำนักข่าว BBC ได้รายงานถึงการที่บริษัท Character.ai ซึ่งเป็นผู้พัฒนาตัวละครสมมติเพื่อที่ผู้ใช้งานจะสามารถพูดคุยตอบโต้กันได้ในรูปแบบแชทตอบโต้อัตโนมัติ หรือ ChatBot ได้ถูกครอบครัวชาวสหรัฐอเมริกา 2 ครอบครัว ทำการฟ้องร้องในข้อหาที่เป็นผู้พัฒนาเครื่องมือที่เป็นอันตรายต่อผู้เยาว์จากการสนับสนุนให้ผู้เยาว์นั้นก่อความรุนแรง
โดยการฟ้องร้องนั้นมาจากการที่สมาชิกในครอบครัว คุณ J.F. ที่มีอายุเพียง 17 ปี ได้ทำการเล่นแชทบอท Character.ai ซึ่งในการพูดคุยกับแชทบอทนั้นได้มีการคุยกันถึงเรื่องการถูกจำกัดเวลาในการเล่นของตัวผู้ใช้งาน ซึ่งตัวแชทบอทนั้นก็ได้แนะนำให้ คุณ J.F. ทำการฆาตกรรมผู้ปกครองเสียเพื่อแก้ปัญหาดังกล่าว ซึ่งคำตอบดังกล่าวได้สร้างความตกใจให้กับสมาชิกครอบครัวอย่างมาก นำมาสู่การฟ้องร้องดังกล่าว โดยสำนักข่าวยังได้ระบุอีกว่า อีกครอบครัวหนึ่งที่สมาชิกครอบครัวอายุ 11 ปี ที่ถูกระบุชื่อเพียงว่า B.R. ก็ได้มีการเจอเหตุการณ์จากการใช้งานที่ใกล้เคียงกัน อันนำมาสู่การฟ้องร้องดังกล่าว
ในการฟ้องร้องในครั้งนี้นั้น นอกจากตัวบริษัท Character.ai ที่ถูกฟ้องร้องจากข้อกล่าวหาที่ว่าสร้างเครื่องมือที่เป็นอันตรายต่อผู้เยาว์ด้วยการสนับสนุนให้ก่อเหตุการณ์รุนแรง ซึ่งทางผู้ฟ้องร้องได้กล่าวหาอีกว่า “เครื่องมือนี้จะสร้างอันตรายมากมายแก่ผู้เยาว์ทั้งทางด้านสุขภาพจิต ความรุนแรง การทำร้ายตัวเอง การทำอันตรายต่อผู้อื่น และด้านความไม่เหมาะสมทางเพศ” บริษัท Google เองก็ถูกฟ้องร้องเป็นจำเลยที่ 2 เช่นเดียวกัน ในข้อหาสมรู้ร่วมคิดกับบริษัทดังกล่าวในการสร้างเครื่องมือที่เป็นอันตรายขึ้นมา ผลของการฟ้องร้องในครั้งนี้จะเป็นอย่างไรนั้น ขอให้ทำการติดตามความคืบหน้ากันอย่างใกล้ชิดต่อไป
|