ปัญญาประดิษฐ์ หรือ AI (Artificial intelligence) สามารถเล่นหมากรุก ขับรถ วินิจฉัยโรค ตัวอย่างก็เช่น AlphaGO (ระบบ AI เล่นกระดานหมากล้อม) ของ Google DeepMind เรื่อยไปจนถึงระบบรถยนต์ไร้คนขับของ Tesla และซูเปอร์คอมพิวเตอร์ Watson ของ IBM
โดยระบบปัญญาประดิษฐ์เหล่านี้ ถูกจัดประเภทให้เป็น Artificial Narrow Intelligence (ANI) ระบบสมองของคอมพิวเตอร์ ที่สามารถคิดวิเคราะห์ในบางเรื่องได้ ซึ่งจัดว่าเป็นระบบ AI ขั้นพื้นฐานที่มนุษย์ได้เจอ หรือได้ใช้งานในชีวิตประจำวัน และมีการใช้งานที่แพร่หลายขึ้นเรื่อยๆ
แต่ในขณะที่ระบบ AI ขั้นพื้นฐานเริ่มแสดงความสามารถของมันออกมาเรื่อยๆ มนุษย์ก็เริ่มเห็นปัญหา ตัวอย่างเช่นในเคสที่รถยนต์ไร้คนขับ เกิดพุ่งชนคนเดินถนนเมื่อช่วงเดือนมีนาคมปีที่แล้ว ทำให้คนเดินถนนถึงกับเสียชีวิต และยังคงมีการสืบสวนถึงสาเหตุที่แท้จริงของเรื่องนี้
ความสามารถ ประสิทธิภาพ ความท้าทาย และความเสี่ยงของระบบ AI สำหรับโลกยุคใหม่ จะต้องเป็นอะไรที่สูงกว่าเดิมอย่างแน่นอน
โดยระบบปัญญาประดิษฐ์ยุคใหม่ที่ฉลาดกว่า AI ที่เราได้สัมผัสกันในปัจจุบันนั้นมีชื่อว่า Artificial General Intelligence (AGI) มันมีพลังการประมวลผลในระดับก้าวหน้า และมีสติปัญญาในระดับที่เทียบเท่ากับมนุษย์เลย ระบบ AGI นั้นสามารถเรียนรู้ แก้ปัญหา รู้จักการดัดแปลง และสามารถพัฒนาองค์ความรู้ หรือทักษะของตัวเองได้ด้วย
และที่สำคัญคือ พวกมันสามารถทำงานได้หลากหลายกว่าที่เราออกแบบให้มันทำ
พวกมันสามารถเรียนรู้เพื่อสร้างทักษะหรือสร้างองค์ความรู้ใหม่ๆ ได้ในความเร็วระดับก้าวกระโดด พูดง่ายๆ คือมันเรียนรู้ที่จะทำอะไรใหม่ๆ ได้รวดเร็วกว่ามนุษย์ที่สร้างพวกมันขึ้นมาเสียอีก และการเปิดตัว AGI ก็จะทำให้ระบบปัญญาประดิษฐ์ก้าวข้ามไปสู่ความเป็น Artificial Super Intelligence (ASI) อย่างรวดเร็ว
แต่ในขณะนี้ ระบบ AGI ที่สามารถทำงานได้เต็มรูปแบบยังไม่ปรากฏตัว แต่ก็การคาดการณ์ว่ามันจะเกิดขึ้นได้จริงในช่วงปี 2029 หรืออาจต้องรอไปอย่างยาวนานจนถึงช่วงปลายศตวรรษนี้ และสิ่งที่แน่นอนคือ ไม่ว่าจะต้องรอนานขนาดไหน ระบบปัญญาประดิษฐ์ที่ฉลาดกว่าเดิมหรือ AGI จะเข้ามามีบทบาทอย่างแน่นอน และเมื่อมันเกิดขึ้น ความกังวลก็คือ ในเมื่อมันจะฉลาดกว่ามนุษย์เสียอีก แล้วเราจะควบคุมมันได้อย่างไร?
ไม่ต้องสงสัยเลยว่า AGI จะเปลี่ยนแปลงรูปแบบการดำเนินชีวิตของมวลมนุษยชาติอย่างแน่นอน
ด้วยรูปแบบการประยุกต์ใช้งานที่หลากหลายของ AGI นั้นก็มี อาทิ การหาหนทางรักษาโรค, แก้ปัญหาที่ซับซ้อนท้าทายต่อความอยู่รอดของมวลมนุษยชาติ อย่างเช่น ปัญหาการเปลี่ยนแปลงสภาพอากาศ ปัญหาเรื่องความมั่นคงทางอาหาร เป็นต้น
และหากเราล้มเหลวในการควบคุมเทคโนโลยีระบบปัญญาประดิษฐ์ ที่มีความฉลาดเทียบเท่า หรือฉลาดกว่าเรา แน่นอนว่าสิ่งที่ตามมาคือหายนะ
โดยผู้ที่ฉายภาพให้เห็นภัยคุกคามจากระบบปัญญาประดิษฐ์อัจฉริยะ ที่กระทำต่อมนุษย์ได้ชัดเจน และใกล้เคียงความเป็นจริงมากที่สุดต้องยกให้คุณ Max Tegmark ซึ่งเป็นศาสตราจารย์จากสถาบัน MIT เจ้าของผลงานหนังสือ Life 3.0: Being Human in the Age of Artificial Intelligence ได้นำเสนอแนวคิดที่ว่า ความเสี่ยงเริ่มปรากฏตัวด้วยความจริงที่ว่า ระบบคอมพิวเตอร์ที่มีความฉลาดมากๆ นี้ สามารถค้นหาวิธีการที่มีประสิทธิภาพมากกว่าในการทำสิ่งต่างๆ และมันสามารถปรับแต่งแก้ไขกลยุทธเพื่อให้บรรลุเป้าหมาย และมันยังฉลาดถึงขั้นที่สามารถตั้งเป้าหมายของตัวเองได้อีกด้วย
สถาการณ์เหล่านี้ ชี้ให้เห็นว่า นอกจากระบบ AGI อาจจะเป็นอันตรายกับมนุษย์แล้ว มันก็ยังมีแนวโน้มที่จะต่อสู้กันเอง หากเป้าหมายหรือผลประโยชน์ไม่ตรงกัน โดยไม่สนใจเลยว่ามนุษย์เป็นผู้สร้างพวกมันขึ้นมา
นอกจากความเสี่ยงที่ AGI จะคิดดำเนินการที่เป็นความเสี่ยงต่อมนุษย์ด้วยตัวของมันเองแล้ว ก็อาจเป็นไปได้ที่ AGI จะถูกนำไปใช้งานผิดรูปแบบ อย่างเช่นถูกใช้งานโดยผู้ก่อการร้าย รวมถึงการโจมตีระบบปัญญาประดิษฐ์โดยแฮกเกอร์
ด้วยเหตุผลเหล่านี้ การตรวจสอบและเฝ้าดูการทำงานของระบบ AGI โดยมีมนุษย์เป็นผู้ทำการตรวจสอบ นั้นก็เป็นหนทางที่ปลอดภัยที่สุดในการออกแบบและจัดการ เพื่อลดความเสี่ยง และเพิ่มผลประโยชน์สูงสุดจากการใช้งาน AGI
ถึงแม้จะ AGI จะมีความคิดไม่ต่างอะไรจากมนุษย์ แต่การควบคุม AGI นั้นไม่ได้ง่ายๆ หรือตรงไปตรงมาเหมือนอย่างการตรวจสอบ หรือเฝ้าดูพฤติกรรมมนุษย์
มีปัจจัยต่างๆ มากมายที่ควบคุมพฤติกรรมของเรา อาทิ สติ อารมณ์ และค่านิยมทางศีลธรรม แต่ระบบ AGI ไม่ได้ให้คุณค่ากับสิ่งเหล่านี้ เพราะฉะนั้นเราไม่สามารถควบคุม หรือตรวจสอบพฤติกรรมของพวกมันในลักษณะเดียวกับที่ทำกับมนุษย์ได้
และเพื่อการสร้างระบบ AGI ที่มีความปลอดภัยและเป็นมิตรกับมนุษย์ จำเป็นต้องมีการควบคุมใน 3 ระดับ ดังต่อไปนี้
การวิจัยเกี่ยวกับเรื่องความปลอดภัย ของการใช้งานระบบ AGI นั้นก็มีหลายสถาบันกำลังศึกษาเรื่องนี้อยู่ แต่ก็ดูเหมือนว่าเรายังต้องจริงจังให้มากกว่านี้อีก
แม้แต่ผู้นำในโลกเทคโนโลยีอย่าง Elon Musk ได้เคยออกมาเตือนเกี่ยวกับ "วิกฤตการดำรงอยู่" เมื่อมนุษย์ต้องรับมือกับระบบ AI ที่ก้าวหน้า และฉลาดมากๆ และเขายังพูดถึงเรื่องการเข้าควบคุมการทำงานของระบบ AI อย่างใกล้ชิด ก่อนที่จะสายเกินไป
โดยในทศวรรษหน้าเป็นช่วงเวลาสำคัญ ที่มนุษย์มีโอกาสที่จะสร้างระบบ AGI ที่ปลอดภัยและมีประสิทธิภาพ ที่สามารถเอื้อประโยชน์ให้กับสังคม และมนุษยชาติได้ แต่ในขณะเดียวกัน ถ้าเราไม่ทันระมัดระวังตัว และปล่อยให้เทคโนโลยีระบบสมองกล AGI ก้าวหน้าไปอย่างรวดเร็วโดยที่เราไม่ใส่ใจจะตรวจสอบ ก็อาจจะนำไปสู่การสูญพันธุ์ของเผ่าพันธุ์มนุษย์ได้เลย หากเหล่าสมองกลเห็นว่าพวกเราเป็นส่วนเกิน หรือเป็นตัวอันตรายที่ต้องโดนกำจัดทิ้ง
แล้วคุณผู้อ่านหล่ะครับ คิดว่าการที่มนุษย์อาจถึงขั้นสูญพันธุ์ หรือตกอยู่ในความเสี่ยงที่จะถูกทำลายโดยระบบปัญญาประดิษฐ์ที่ฉลาดกว่า อย่าง AGI นั้นเป็นเรื่องที่อาจกลายเป็นความจริงในวันหนึ่งได้หรือไม่? หรือเป็นเพียงความเพ้อฝันในนิยาวิทยาศาสตร์
|
ไม่เสพติดไอที แต่ชอบเสพข่าวเทคโนโลยี หาความรู้ใหม่ๆ มาใส่สมอง |