OpenAI เรียกร้องตั้งหน่วยงานกำกับดูแลระหว่างประเทศควบคุมการพัฒนา “เอไอ”

โดย PPTV Online

เผยแพร่

OpenAI ผู้พัฒนา ChatGPT เรียกร้องให้มีการตั้งหน่วยงานกำกับดูแลระหว่างประเทศเพื่อควบคุมปัญญาประดิษฐ์ ลักษณะเดียวกับที่ต้องคุมนิวเคลียร์

OpenAI ผู้พัฒนาแชตบอตอัจฉริยะ “ChatGPT” ได้ออกมาเรียกร้องให้มีการตั้งหน่วยงานกำกับดูแลระหว่างประเทศเพื่อควบคุมปัญญาประดิษฐ์ (เอไอ) ที่ “ฉลาดล้ำ” โดยเฉพาะ

โดยคณะผู้บริหารของบริษัทบอกว่า หน่วยงานที่ควรตั้งนี้จำเป็นต้องมีมาตรฐานเทียบเท่ากับสำนักงานพลังงานปรมาณูระหว่างประเทศ (IAEA) เพื่อปกป้องมนุษยชาติจากความเสี่ยงของ “การสร้างบางสิ่งที่มีอำนาจทำลายล้างสูงโดยไม่ได้ตั้งใจ”

คอนเทนต์แนะนำ
กางปฏิทินจ่ายเงินเดือนข้าราชการ ค่าจ้างลูกจ้างประจำ บำนาญ ปี 2566
"วันวิสาขบูชา 2567" ตรงกับวันไหน พร้อมเปิดประวัติ-ความสำคัญ
เช็กราคา Netflix "สมาชิกเสริม" จ่ายอีก 99 แต่ต้องเริ่มแพคเกจที่ 349 บาท/เดือน

 

 

ในข้อความที่เผยแพร่บนเว็บไซต์ของบริษัท ผู้ร่วมก่อตั้ง เกร็ก บร็อกแมน และอิลยา ซุตสกีเวอร์ และประธานเจ้าหน้าที่บริหาร แซม อัลต์แมน เรียกร้องให้หน่วยงานกำกับดูแลระหว่างประเทศเริ่มดำเนินการเกี่ยวกับวิธีการ “ตรวจสอบ ทดสอบการปฏิบัติตามมาตรฐานความปลอดภัย และวางข้อจำกัดเกี่ยวกับระดับการปรับใช้และระดับความปลอดภัย” เพื่อลดความเสี่ยงของระบบดังกล่าวที่อาจเกิดขึ้นได้

ใครจะชนะ? ในสมรภูมิการพัฒนา “เอไอผู้ช่วย”

ความเปลี่ยนแปลงของ “กูเกิลเสิร์ช” หลังเปิดตัว “ระบบค้นหาแบบมีเอไอ”

เจ้าพ่อแห่งวงการเอไอเผย “เสียใจที่พัฒนาปัญญาประดิษฐ์ขึ้นมา”

คณะผู้บริหารระบุว่า “เป็นไปได้ว่าภายใน 10 ปีข้างหน้า ระบบเอไอจะเกินระดับทักษะผู้เชี่ยวชาญในอุตสาหกรรมส่วนใหญ่ และดำเนินกิจกรรมที่มีประสิทธิผลมากพอ ๆ กับหนึ่งในองค์กรที่ใหญ่ที่สุดในปัจจุบัน ... ในแง่ของศักยภาพทั้งด้านบวกและด้านลบ ความฉลาดหลักแหลมจะมีพลังมากกว่าเทคโนโลยีอื่น ๆ ที่มนุษยชาติต้องต่อสู้ด้วยในอดีต เราสามารถมีอนาคตที่มั่งคั่งกว่านี้ได้อย่างมาก แต่เราต้องบริหารความเสี่ยงเพื่อไปถึงจุดนั้น เมื่อพิจารณาถึงความเป็นไปได้ของความเสี่ยงที่มีอยู่ เราจึงไม่สามารถรอเป็นฝ่ายรับได้”

ในระยะสั้น ทั้งสามเรียกร้องให้มีการประสานงานในระดับหนึ่งระหว่างบริษัทที่ทำงานเกี่ยวกับการวิจัยเอไอ เพื่อให้แน่ใจว่าการพัฒนาโมเดลที่ทรงพลังยิ่งขึ้นนั้นผสานรวมเข้ากับสังคมได้อย่างราบรื่นในขณะเดียวกันก็ให้ความสำคัญกับความปลอดภัย การประสานงานดังกล่าวอาจมาจากโครงการที่นำโดยรัฐบาล หรือผ่านข้อตกลงร่วมกันเพื่อจำกัดการเติบโตของความสามารถของเอไอ

นักวิจัยเตือนถึงความเสี่ยงที่อาจเกิดขึ้นจากระบบเอไอระดับสูงมาหลายทศวรรษแล้ว แต่เมื่อการพัฒนาเอไอก้าวไปอย่างรวดเร็ว ความเสี่ยงเหล่านั้นก็เป็นรูปธรรมมากขึ้น ศูนย์ความปลอดภัยเอไอ (CAIS) ในสหรัฐฯ อเมริกา ซึ่งทำงานเพื่อลดความเสี่ยงในระดับสังคมจากปัญญาประดิษฐ์ ได้อธิบายถึงความเสี่ยง 8 ประเภทที่อาจเกิดจากการพัฒนาเอไอ

ในขณะที่บางคนกังวลว่าเอไอที่ทรงพลังจะทำลายมนุษยชาติโดยสิ้นเชิง ไม่ว่าจะโดยบังเอิญหรือโดยเจตนา แต่ CAIS อธิบายถึงอันตรายอื่น ๆ ที่ร้ายแรงกว่านั้น เช่น โลกที่ระบบเอไอถูกใช้แทนแรงงานคนมากขึ้นเรื่อย ๆ อาจนำไปสู่การที่มนุษยชาติสูญเสียความสามารถในการปกครองตนเองและต้องพึ่งพาเครื่องจักรโดยสิ้นเชิง

และที่ร้ายแรงกว่านั้น คืออาจเกิดคนกลุ่มเล็ก ๆ ที่ควบคุมระบบเอไอที่ทรงพลัง ซึ่งจะนำไปสู่สังคมระบบวรรณะถาวรระหว่างผู้ถูกปกครองและผู้ถูกปกครอง

ผู้บริหารของ OpenAI กล่าวว่า ความเสี่ยงเหล่านั้นหมายความว่า “ผู้คนทั่วโลกควรตัดสินใจอย่างเป็นประชาธิปไตยเกี่ยวกับขอบเขตและค่าเริ่มต้นสำหรับระบบเอไอ” แต่ในขณะเดียวพวกเขาก็ยอมรับว่า “เรายังไม่รู้ว่าจะออกแบบกลไกดังกล่าวอย่างไร”

อย่างไรก็ตาม พวกเขากล่าวว่า การพัฒนาระบบเอไอที่ทรงพลังอย่างต่อเนื่องนั้นคุ้มค่ากับความเสี่ยง

“เราเชื่อว่ามันจะนำไปสู่โลกที่ดีกว่าที่เราจะจินตนาการได้ในวันนี้” และเตือนว่า การหยุดการพัฒนาชั่วคราวอาจเป็นอันตรายได้เช่นกัน

“เนื่องจากส่วนต่างมีมากมายมหาศาล ค่าใช้จ่ายในการสร้างจึงลดลงในแต่ละปี จำนวนผู้ดำเนินการสร้างจึงเพิ่มขึ้นอย่างรวดเร็ว และโดยเนื้อแท้แล้วมันเป็นส่วนหนึ่งของเส้นทางเทคโนโลยีที่เราดำเนินอยู่ การหยุดมันจะต้องมีอะไรบางอย่างมารองรับ เช่น ระบบการเฝ้าระวังทั่วโลก และนั่นไม่ได้รับประกันว่าจะได้ผล ดังนั้นเราต้องทำให้ถูกต้อง” พวกเขากล่าว

 

เรียบเรียงจาก The Guardian

ภาพจาก AFP

คอนเทนต์แนะนำ
เช็กสิทธิ! เปิดสมัครสอบครูผู้ช่วย ปี 2566
พบเส้นทางเงิน 78 ล้านของ "แอม" มาจากพนัน
WHO เตือนทั่วโลกการ์ดอย่าตก เตรียมพร้อมรับมือโรคใหม่เสมอ

Bottom-PL-HLW Bottom-PL-HLW

วิดีโอยอดนิยม

ข่าวเด่นในรอบสัปดาห์

PPTVHD36

เพิ่ม PPTVHD36
ลงในหน้าจอหลักของคุณ