OpenAI ผู้พัฒนาแชตบอตอัจฉริยะ “ChatGPT” ได้ออกมาเรียกร้องให้มีการตั้งหน่วยงานกำกับดูแลระหว่างประเทศเพื่อควบคุมปัญญาประดิษฐ์ (เอไอ) ที่ “ฉลาดล้ำ” โดยเฉพาะ
โดยคณะผู้บริหารของบริษัทบอกว่า หน่วยงานที่ควรตั้งนี้จำเป็นต้องมีมาตรฐานเทียบเท่ากับสำนักงานพลังงานปรมาณูระหว่างประเทศ (IAEA) เพื่อปกป้องมนุษยชาติจากความเสี่ยงของ “การสร้างบางสิ่งที่มีอำนาจทำลายล้างสูงโดยไม่ได้ตั้งใจ”
ในข้อความที่เผยแพร่บนเว็บไซต์ของบริษัท ผู้ร่วมก่อตั้ง เกร็ก บร็อกแมน และอิลยา ซุตสกีเวอร์ และประธานเจ้าหน้าที่บริหาร แซม อัลต์แมน เรียกร้องให้หน่วยงานกำกับดูแลระหว่างประเทศเริ่มดำเนินการเกี่ยวกับวิธีการ “ตรวจสอบ ทดสอบการปฏิบัติตามมาตรฐานความปลอดภัย และวางข้อจำกัดเกี่ยวกับระดับการปรับใช้และระดับความปลอดภัย” เพื่อลดความเสี่ยงของระบบดังกล่าวที่อาจเกิดขึ้นได้
ใครจะชนะ? ในสมรภูมิการพัฒนา “เอไอผู้ช่วย”
ความเปลี่ยนแปลงของ “กูเกิลเสิร์ช” หลังเปิดตัว “ระบบค้นหาแบบมีเอไอ”
เจ้าพ่อแห่งวงการเอไอเผย “เสียใจที่พัฒนาปัญญาประดิษฐ์ขึ้นมา”
คณะผู้บริหารระบุว่า “เป็นไปได้ว่าภายใน 10 ปีข้างหน้า ระบบเอไอจะเกินระดับทักษะผู้เชี่ยวชาญในอุตสาหกรรมส่วนใหญ่ และดำเนินกิจกรรมที่มีประสิทธิผลมากพอ ๆ กับหนึ่งในองค์กรที่ใหญ่ที่สุดในปัจจุบัน ... ในแง่ของศักยภาพทั้งด้านบวกและด้านลบ ความฉลาดหลักแหลมจะมีพลังมากกว่าเทคโนโลยีอื่น ๆ ที่มนุษยชาติต้องต่อสู้ด้วยในอดีต เราสามารถมีอนาคตที่มั่งคั่งกว่านี้ได้อย่างมาก แต่เราต้องบริหารความเสี่ยงเพื่อไปถึงจุดนั้น เมื่อพิจารณาถึงความเป็นไปได้ของความเสี่ยงที่มีอยู่ เราจึงไม่สามารถรอเป็นฝ่ายรับได้”
ในระยะสั้น ทั้งสามเรียกร้องให้มีการประสานงานในระดับหนึ่งระหว่างบริษัทที่ทำงานเกี่ยวกับการวิจัยเอไอ เพื่อให้แน่ใจว่าการพัฒนาโมเดลที่ทรงพลังยิ่งขึ้นนั้นผสานรวมเข้ากับสังคมได้อย่างราบรื่นในขณะเดียวกันก็ให้ความสำคัญกับความปลอดภัย การประสานงานดังกล่าวอาจมาจากโครงการที่นำโดยรัฐบาล หรือผ่านข้อตกลงร่วมกันเพื่อจำกัดการเติบโตของความสามารถของเอไอ
นักวิจัยเตือนถึงความเสี่ยงที่อาจเกิดขึ้นจากระบบเอไอระดับสูงมาหลายทศวรรษแล้ว แต่เมื่อการพัฒนาเอไอก้าวไปอย่างรวดเร็ว ความเสี่ยงเหล่านั้นก็เป็นรูปธรรมมากขึ้น ศูนย์ความปลอดภัยเอไอ (CAIS) ในสหรัฐฯ อเมริกา ซึ่งทำงานเพื่อลดความเสี่ยงในระดับสังคมจากปัญญาประดิษฐ์ ได้อธิบายถึงความเสี่ยง 8 ประเภทที่อาจเกิดจากการพัฒนาเอไอ
ในขณะที่บางคนกังวลว่าเอไอที่ทรงพลังจะทำลายมนุษยชาติโดยสิ้นเชิง ไม่ว่าจะโดยบังเอิญหรือโดยเจตนา แต่ CAIS อธิบายถึงอันตรายอื่น ๆ ที่ร้ายแรงกว่านั้น เช่น โลกที่ระบบเอไอถูกใช้แทนแรงงานคนมากขึ้นเรื่อย ๆ อาจนำไปสู่การที่มนุษยชาติสูญเสียความสามารถในการปกครองตนเองและต้องพึ่งพาเครื่องจักรโดยสิ้นเชิง
และที่ร้ายแรงกว่านั้น คืออาจเกิดคนกลุ่มเล็ก ๆ ที่ควบคุมระบบเอไอที่ทรงพลัง ซึ่งจะนำไปสู่สังคมระบบวรรณะถาวรระหว่างผู้ถูกปกครองและผู้ถูกปกครอง
ผู้บริหารของ OpenAI กล่าวว่า ความเสี่ยงเหล่านั้นหมายความว่า “ผู้คนทั่วโลกควรตัดสินใจอย่างเป็นประชาธิปไตยเกี่ยวกับขอบเขตและค่าเริ่มต้นสำหรับระบบเอไอ” แต่ในขณะเดียวพวกเขาก็ยอมรับว่า “เรายังไม่รู้ว่าจะออกแบบกลไกดังกล่าวอย่างไร”
อย่างไรก็ตาม พวกเขากล่าวว่า การพัฒนาระบบเอไอที่ทรงพลังอย่างต่อเนื่องนั้นคุ้มค่ากับความเสี่ยง
“เราเชื่อว่ามันจะนำไปสู่โลกที่ดีกว่าที่เราจะจินตนาการได้ในวันนี้” และเตือนว่า การหยุดการพัฒนาชั่วคราวอาจเป็นอันตรายได้เช่นกัน
“เนื่องจากส่วนต่างมีมากมายมหาศาล ค่าใช้จ่ายในการสร้างจึงลดลงในแต่ละปี จำนวนผู้ดำเนินการสร้างจึงเพิ่มขึ้นอย่างรวดเร็ว และโดยเนื้อแท้แล้วมันเป็นส่วนหนึ่งของเส้นทางเทคโนโลยีที่เราดำเนินอยู่ การหยุดมันจะต้องมีอะไรบางอย่างมารองรับ เช่น ระบบการเฝ้าระวังทั่วโลก และนั่นไม่ได้รับประกันว่าจะได้ผล ดังนั้นเราต้องทำให้ถูกต้อง” พวกเขากล่าว
เรียบเรียงจาก The Guardian
ภาพจาก AFP