ดาวน์โหลดโปรแกรมฟรี
       
   สมัครสมาชิก   เข้าสู่ระบบ
ข่าวไอที
 

AGI ระบบปัญญาประดิษฐ์แบบใหม่ ที่ฉลาดกว่ามนุษย์ จะมาแน่นอน และมันอาจอยู่เหนือพวกเรา

AGI ระบบปัญญาประดิษฐ์แบบใหม่ ที่ฉลาดกว่ามนุษย์ จะมาแน่นอน และมันอาจอยู่เหนือพวกเรา

เมื่อ :
|  ผู้เข้าชม : 7,349
เขียนโดย :
0 AGI+%E0%B8%A3%E0%B8%B0%E0%B8%9A%E0%B8%9A%E0%B8%9B%E0%B8%B1%E0%B8%8D%E0%B8%8D%E0%B8%B2%E0%B8%9B%E0%B8%A3%E0%B8%B0%E0%B8%94%E0%B8%B4%E0%B8%A9%E0%B8%90%E0%B9%8C%E0%B9%81%E0%B8%9A%E0%B8%9A%E0%B9%83%E0%B8%AB%E0%B8%A1%E0%B9%88+%E0%B8%97%E0%B8%B5%E0%B9%88%E0%B8%89%E0%B8%A5%E0%B8%B2%E0%B8%94%E0%B8%81%E0%B8%A7%E0%B9%88%E0%B8%B2%E0%B8%A1%E0%B8%99%E0%B8%B8%E0%B8%A9%E0%B8%A2%E0%B9%8C+%E0%B8%88%E0%B8%B0%E0%B8%A1%E0%B8%B2%E0%B9%81%E0%B8%99%E0%B9%88%E0%B8%99%E0%B8%AD%E0%B8%99+%E0%B9%81%E0%B8%A5%E0%B8%B0%E0%B8%A1%E0%B8%B1%E0%B8%99%E0%B8%AD%E0%B8%B2%E0%B8%88%E0%B8%AD%E0%B8%A2%E0%B8%B9%E0%B9%88%E0%B9%80%E0%B8%AB%E0%B8%99%E0%B8%B7%E0%B8%AD%E0%B8%9E%E0%B8%A7%E0%B8%81%E0%B9%80%E0%B8%A3%E0%B8%B2
A- A+
แชร์หน้าเว็บนี้ :

ปัญญาประดิษฐ์ หรือ AI (Artificial intelligence) สามารถเล่นหมากรุก ขับรถ วินิจฉัยโรค ตัวอย่างก็เช่น AlphaGO (ระบบ AI เล่นกระดานหมากล้อม) ของ Google DeepMind เรื่อยไปจนถึงระบบรถยนต์ไร้คนขับของ Tesla และซูเปอร์คอมพิวเตอร์ Watson ของ IBM

โดยระบบปัญญาประดิษฐ์เหล่านี้ ถูกจัดประเภทให้เป็น Artificial Narrow Intelligence (ANI) ระบบสมองของคอมพิวเตอร์ ที่สามารถคิดวิเคราะห์ในบางเรื่องได้ ซึ่งจัดว่าเป็นระบบ AI ขั้นพื้นฐานที่มนุษย์ได้เจอ หรือได้ใช้งานในชีวิตประจำวัน และมีการใช้งานที่แพร่หลายขึ้นเรื่อยๆ

แต่ในขณะที่ระบบ AI ขั้นพื้นฐานเริ่มแสดงความสามารถของมันออกมาเรื่อยๆ มนุษย์ก็เริ่มเห็นปัญหา ตัวอย่างเช่นในเคสที่รถยนต์ไร้คนขับ เกิดพุ่งชนคนเดินถนนเมื่อช่วงเดือนมีนาคมปีที่แล้ว ทำให้คนเดินถนนถึงกับเสียชีวิต และยังคงมีการสืบสวนถึงสาเหตุที่แท้จริงของเรื่องนี้


AGI ระบบปัญญาประดิษฐ์แบบใหม่ ที่ฉลาดกว่ามนุษย์ จะมาแน่นอน และมันอาจอยู่เหนือพวกเรา

ระบบปัญญาประดิษฐ์ในยุคถัดไป

ความสามารถ ประสิทธิภาพ ความท้าทาย และความเสี่ยงของระบบ AI สำหรับโลกยุคใหม่ จะต้องเป็นอะไรที่สูงกว่าเดิมอย่างแน่นอน

โดยระบบปัญญาประดิษฐ์ยุคใหม่ที่ฉลาดกว่า AI ที่เราได้สัมผัสกันในปัจจุบันนั้นมีชื่อว่า Artificial General Intelligence (AGI) มันมีพลังการประมวลผลในระดับก้าวหน้า และมีสติปัญญาในระดับที่เทียบเท่ากับมนุษย์เลย ระบบ AGI นั้นสามารถเรียนรู้ แก้ปัญหา รู้จักการดัดแปลง และสามารถพัฒนาองค์ความรู้ หรือทักษะของตัวเองได้ด้วย

และที่สำคัญคือ พวกมันสามารถทำงานได้หลากหลายกว่าที่เราออกแบบให้มันทำ

พวกมันสามารถเรียนรู้เพื่อสร้างทักษะหรือสร้างองค์ความรู้ใหม่ๆ ได้ในความเร็วระดับก้าวกระโดด พูดง่ายๆ คือมันเรียนรู้ที่จะทำอะไรใหม่ๆ ได้รวดเร็วกว่ามนุษย์ที่สร้างพวกมันขึ้นมาเสียอีก และการเปิดตัว AGI ก็จะทำให้ระบบปัญญาประดิษฐ์ก้าวข้ามไปสู่ความเป็น Artificial Super Intelligence (ASI) อย่างรวดเร็ว

แต่ในขณะนี้ ระบบ AGI ที่สามารถทำงานได้เต็มรูปแบบยังไม่ปรากฏตัว แต่ก็การคาดการณ์ว่ามันจะเกิดขึ้นได้จริงในช่วงปี 2029 หรืออาจต้องรอไปอย่างยาวนานจนถึงช่วงปลายศตวรรษนี้ และสิ่งที่แน่นอนคือ ไม่ว่าจะต้องรอนานขนาดไหน ระบบปัญญาประดิษฐ์ที่ฉลาดกว่าเดิมหรือ AGI จะเข้ามามีบทบาทอย่างแน่นอน และเมื่อมันเกิดขึ้น ความกังวลก็คือ ในเมื่อมันจะฉลาดกว่ามนุษย์เสียอีก แล้วเราจะควบคุมมันได้อย่างไร?


ความเสี่ยงในการรับมือกับ AGI

ไม่ต้องสงสัยเลยว่า AGI จะเปลี่ยนแปลงรูปแบบการดำเนินชีวิตของมวลมนุษยชาติอย่างแน่นอน

ด้วยรูปแบบการประยุกต์ใช้งานที่หลากหลายของ AGI นั้นก็มี อาทิ การหาหนทางรักษาโรค, แก้ปัญหาที่ซับซ้อนท้าทายต่อความอยู่รอดของมวลมนุษยชาติ อย่างเช่น ปัญหาการเปลี่ยนแปลงสภาพอากาศ ปัญหาเรื่องความมั่นคงทางอาหาร เป็นต้น

และหากเราล้มเหลวในการควบคุมเทคโนโลยีระบบปัญญาประดิษฐ์ ที่มีความฉลาดเทียบเท่า หรือฉลาดกว่าเรา แน่นอนว่าสิ่งที่ตามมาคือหายนะ

โดยผู้ที่ฉายภาพให้เห็นภัยคุกคามจากระบบปัญญาประดิษฐ์อัจฉริยะ ที่กระทำต่อมนุษย์ได้ชัดเจน และใกล้เคียงความเป็นจริงมากที่สุดต้องยกให้คุณ Max Tegmark ซึ่งเป็นศาสตราจารย์จากสถาบัน MIT เจ้าของผลงานหนังสือ Life 3.0: Being Human in the Age of Artificial Intelligence ได้นำเสนอแนวคิดที่ว่า ความเสี่ยงเริ่มปรากฏตัวด้วยความจริงที่ว่า ระบบคอมพิวเตอร์ที่มีความฉลาดมากๆ นี้ สามารถค้นหาวิธีการที่มีประสิทธิภาพมากกว่าในการทำสิ่งต่างๆ และมันสามารถปรับแต่งแก้ไขกลยุทธเพื่อให้บรรลุเป้าหมาย และมันยังฉลาดถึงขั้นที่สามารถตั้งเป้าหมายของตัวเองได้อีกด้วย


ลองคิดถึงกรณีตัวอย่างดังต่อไปนี้

  • ระบบ AGI ที่ได้รับมอบหมายหน้าที่ให้รับมือกับโรคเอดส์ มันตัดสินใจที่จะแก้ปัญหาด้วยการฆ่ามนุษย์ทุกคนที่เป็นพาหะของโรคนี้ หรือระบบ AGI ที่มีหน้าที่ในการรับมือกับโรคมะเร็ง ตัดสินใจฆ่าทุกคนที่มีลักษณะทางพันธุกรรมที่เอื้อต่อการถ่ายทอดมะเร็งไปยังลูกหลาน
  • ระบบ AGI ที่ฝังตัวอยู่ในโดรนทางการทหาร ตัดสินใจว่ามีเพียงวิธีการเดียวที่จะการันตีว่าศัตรูที่แฝงตัวอยู่ในชุมชน นั้นจะถูกทำลายจนหมดสิ้น ด้วยการฆ่าผู้คนในชุมชนนั้นทุกคน
  • ระบบ AGI ที่ได้รับหน้าที่ปกป้องดูแลสภาพแวดล้อม ตัดสินใจว่ามีวิถีทางเดียวที่จะชลอ หรือแก้ไขปัญหาการเปลี่ยนแปลงสภาพอากาศโดยการทำลายเทคโนโลยี และทำลายมนุษย์ที่มีส่วนเกี่ยวข้องในการทำให้สภาพแวดล้อมแย่ลง

สถาการณ์เหล่านี้ ชี้ให้เห็นว่า นอกจากระบบ AGI อาจจะเป็นอันตรายกับมนุษย์แล้ว มันก็ยังมีแนวโน้มที่จะต่อสู้กันเอง หากเป้าหมายหรือผลประโยชน์ไม่ตรงกัน โดยไม่สนใจเลยว่ามนุษย์เป็นผู้สร้างพวกมันขึ้นมา

นอกจากความเสี่ยงที่ AGI จะคิดดำเนินการที่เป็นความเสี่ยงต่อมนุษย์ด้วยตัวของมันเองแล้ว ก็อาจเป็นไปได้ที่ AGI จะถูกนำไปใช้งานผิดรูปแบบ อย่างเช่นถูกใช้งานโดยผู้ก่อการร้าย รวมถึงการโจมตีระบบปัญญาประดิษฐ์โดยแฮกเกอร์

ด้วยเหตุผลเหล่านี้ การตรวจสอบและเฝ้าดูการทำงานของระบบ AGI โดยมีมนุษย์เป็นผู้ทำการตรวจสอบ นั้นก็เป็นหนทางที่ปลอดภัยที่สุดในการออกแบบและจัดการ เพื่อลดความเสี่ยง และเพิ่มผลประโยชน์สูงสุดจากการใช้งาน AGI


AGI ระบบปัญญาประดิษฐ์แบบใหม่ ที่ฉลาดกว่ามนุษย์ จะมาแน่นอน และมันอาจอยู่เหนือพวกเรา

แล้วจะควบคุม AGI ได้อย่างไร?

ถึงแม้จะ AGI จะมีความคิดไม่ต่างอะไรจากมนุษย์ แต่การควบคุม AGI นั้นไม่ได้ง่ายๆ หรือตรงไปตรงมาเหมือนอย่างการตรวจสอบ หรือเฝ้าดูพฤติกรรมมนุษย์

มีปัจจัยต่างๆ มากมายที่ควบคุมพฤติกรรมของเรา อาทิ สติ อารมณ์ และค่านิยมทางศีลธรรม แต่ระบบ AGI ไม่ได้ให้คุณค่ากับสิ่งเหล่านี้ เพราะฉะนั้นเราไม่สามารถควบคุม หรือตรวจสอบพฤติกรรมของพวกมันในลักษณะเดียวกับที่ทำกับมนุษย์ได้

และเพื่อการสร้างระบบ AGI ที่มีความปลอดภัยและเป็นมิตรกับมนุษย์ จำเป็นต้องมีการควบคุมใน 3 ระดับ ดังต่อไปนี้

  1. เพื่อการสร้างระบบ AGI ที่ปลอดภัย ผู้ออกแบบและผู้พัฒนาระบบ ต้องสร้างช่องทางเพื่อให้มนุษย์สามารถเข้าควบคุมพวกมันได้อย่างเหมาะสม
  2. ควรใส่กลไกการควบคุมตนเองเข้าไปในระบบ AGI ได้แก่ สามัญสำนึก, คุณธรรม, ขั้นตอนการดำเนินงานที่เหมาะสม, กฎการตัดสินใจ และอื่นๆ
  3. กำหนดขอบเขตการทำงานของระบบ AGI ให้ชัดเจน อาทิ ข้อบังคับ, หลักปฏิบัติ, ขั้นตอนการดำเนินงาน ต้องมีวิธีตรวจสอบการทำงานของ AGI ให้ชัดเจน

ต้องทำเดี๋ยวนี้ อย่ารอให้สายเกิน

การวิจัยเกี่ยวกับเรื่องความปลอดภัย ของการใช้งานระบบ AGI นั้นก็มีหลายสถาบันกำลังศึกษาเรื่องนี้อยู่ แต่ก็ดูเหมือนว่าเรายังต้องจริงจังให้มากกว่านี้อีก

แม้แต่ผู้นำในโลกเทคโนโลยีอย่าง Elon Musk ได้เคยออกมาเตือนเกี่ยวกับ "วิกฤตการดำรงอยู่" เมื่อมนุษย์ต้องรับมือกับระบบ AI ที่ก้าวหน้า และฉลาดมากๆ และเขายังพูดถึงเรื่องการเข้าควบคุมการทำงานของระบบ AI อย่างใกล้ชิด ก่อนที่จะสายเกินไป

โดยในทศวรรษหน้าเป็นช่วงเวลาสำคัญ ที่มนุษย์มีโอกาสที่จะสร้างระบบ AGI ที่ปลอดภัยและมีประสิทธิภาพ ที่สามารถเอื้อประโยชน์ให้กับสังคม และมนุษยชาติได้ แต่ในขณะเดียวกัน ถ้าเราไม่ทันระมัดระวังตัว และปล่อยให้เทคโนโลยีระบบสมองกล AGI ก้าวหน้าไปอย่างรวดเร็วโดยที่เราไม่ใส่ใจจะตรวจสอบ ก็อาจจะนำไปสู่การสูญพันธุ์ของเผ่าพันธุ์มนุษย์ได้เลย หากเหล่าสมองกลเห็นว่าพวกเราเป็นส่วนเกิน หรือเป็นตัวอันตรายที่ต้องโดนกำจัดทิ้ง

แล้วคุณผู้อ่านหล่ะครับ คิดว่าการที่มนุษย์อาจถึงขั้นสูญพันธุ์ หรือตกอยู่ในความเสี่ยงที่จะถูกทำลายโดยระบบปัญญาประดิษฐ์ที่ฉลาดกว่า อย่าง AGI นั้นเป็นเรื่องที่อาจกลายเป็นความจริงในวันหนึ่งได้หรือไม่? หรือเป็นเพียงความเพ้อฝันในนิยาวิทยาศาสตร์


ที่มา : www.sciencealert.com


0 AGI+%E0%B8%A3%E0%B8%B0%E0%B8%9A%E0%B8%9A%E0%B8%9B%E0%B8%B1%E0%B8%8D%E0%B8%8D%E0%B8%B2%E0%B8%9B%E0%B8%A3%E0%B8%B0%E0%B8%94%E0%B8%B4%E0%B8%A9%E0%B8%90%E0%B9%8C%E0%B9%81%E0%B8%9A%E0%B8%9A%E0%B9%83%E0%B8%AB%E0%B8%A1%E0%B9%88+%E0%B8%97%E0%B8%B5%E0%B9%88%E0%B8%89%E0%B8%A5%E0%B8%B2%E0%B8%94%E0%B8%81%E0%B8%A7%E0%B9%88%E0%B8%B2%E0%B8%A1%E0%B8%99%E0%B8%B8%E0%B8%A9%E0%B8%A2%E0%B9%8C+%E0%B8%88%E0%B8%B0%E0%B8%A1%E0%B8%B2%E0%B9%81%E0%B8%99%E0%B9%88%E0%B8%99%E0%B8%AD%E0%B8%99+%E0%B9%81%E0%B8%A5%E0%B8%B0%E0%B8%A1%E0%B8%B1%E0%B8%99%E0%B8%AD%E0%B8%B2%E0%B8%88%E0%B8%AD%E0%B8%A2%E0%B8%B9%E0%B9%88%E0%B9%80%E0%B8%AB%E0%B8%99%E0%B8%B7%E0%B8%AD%E0%B8%9E%E0%B8%A7%E0%B8%81%E0%B9%80%E0%B8%A3%E0%B8%B2
แชร์หน้าเว็บนี้ :
Keyword คำสำคัญ »
เขียนโดย
ระดับผู้ใช้ : Admin    Thaiware
ไม่เสพติดไอที แต่ชอบเสพข่าวเทคโนโลยี หาความรู้ใหม่ๆ มาใส่สมอง
 
 
 

ข่าวไอทีที่เกี่ยวข้อง

 


 

แสดงความคิดเห็น