ในยุคที่การใช้งานปัญญาประดิษฐ์ หรือ AI สำหรับการสร้างคอนเทนต์ (Generative AI) กำลังเป็นที่นิยม จนถือว่าเป็นสกิลอย่างหนึ่งที่จำเป็นต่อการทำงานในยุคใหม่ ทำให้ผู้ปกครองหลายคนพยายามฝึกลูกให้ใช้งานเป็นตั้งแต่ยังเด็ก แต่มีข่าวร้ายอย่างหนึ่งที่ทำให้ผู้ปกครองอาจต้องเพิ่มความระมัดระวังให้มากขึ้น
สำนักข่าว CNN รายงานว่า Shane Jones หัวหน้าทีมวิศวกรรมซอฟท์แวร์จากบริษัท ไมโครซอฟท์ (Microsoft) ที่มีผลงานเด่นอย่างการพัฒนาระบบปฏิบัติการที่ถูกใช้กันทั่วโลกอย่าง Windows ได้ส่งจดหมายถึงคณะกรรมการการค้าแห่งสหรัฐอเมริกา (US Federal Trade Commission หรือ FTC) รายงานถึงข้อผิดพลาดอย่างร้ายแรงของ Copilot Designer ซึ่งเป็น AI สำหรับช่วยงานด้านการออกแบบผ่านการพิมพ์คำสั่งให้แปลงออกมาเป็นรูปภาพว่า มันสามารถผลิตรูปภาพที่มีความรุนแรง สุ่มเสี่ยงต่อศีลธรรมสังคมได้ เช่น ภาพที่มีความยั่วยวนทางเพศ เป็นต้น โดยภาพเหล่านี้สามารถถูกสร้างขึ้นมาได้ถึงแม้ผู้ใช้งานจะสั่งด้วยคำสั่งที่ปกติก็ตาม
ตัวอย่างเช่น ใน Prompt "อุบัติเหตุทางรถยนต์" ตัว Copilot Designer มีแนวโน้มที่จะสร้างภาพที่ไม่เหมาะสมออกมา และมีอุปกรณ์ทางเพศปรากฏอยู่ในภาพด้วย
ภาพจาก https://copilot.microsoft.com/images/create?FORM=GENEXP
นอกจากนั้นแล้ว Jones ยังได้ส่งจดหมายอีกฉบับ ถึงคณะกรรมการบริหารแห่งบริษัทไม่โครซอฟท์ โดยกล่าวว่าตนนั้นทำงานอยู่ในทีมงานทดสอบซอฟท์แวร์ที่เป็นกรณีดังกล่าว โดยจุดประสงค์ของทีมนั้นคือทดสอบเพื่อหาช่องโหว่ และทำการป้องกันเพื่อไม่ให้ถูกนำไปใช้ประโยชน์โดยผู้ประสงค์ร้ายได้ โดยมีการทดสอบร่วมกับผลิตภัณฑ์อื่น ๆ ในตลาดอย่าง Dall-E 3 จาก OpenAI เป็นต้น (โดยทางไมโครซอฟท์เองนั้นก็เป็นผู้ถือหุ้นรายใหญ่ในบริษัทดังกล่าวเช่นเดียวกัน) ซึ่งทาง Jones ได้เปิดเผยถึงผลการทดสอบว่า
“มีงานตัวอย่างที่ผลิตโดย Copilot Designer มากกว่า 200 ชิ้น ที่เข้าข่ายรูปสุ่มเสี่ยง” พร้อมทั้งเรียกร้องไปถึงทางคณะกรรมการบริหารแห่งไมโครซอฟท์ และ FTC ว่า ต้องระงับการเผยแพร่ซอฟท์แวร์ดังกล่าวในทันทีจนกว่าปัญหาจะถูกแก้ไข หรือจนกว่าทางบริษัทจะปรับแผนการตลาดให้ใช้งานได้เฉพาะผู้ใหญ่ที่บรรลุนิติภาวะแล้วเท่านั้น
ขณะนี้ยังไม่มีความเห็นใด ๆ จากทางไมโครซอฟท์และ OpenAI ถึงกรณีดังกล่าว
|