Robert Oppenheimer กําลังพูดที่ CERN ในปี 1960

เมื่อวันที่ 16 กรกฎาคม ค.ศ. 1945 โลกเปลี่ยนไปตลอดกาล การทดสอบ ‘Trinity’ โครงการ Manhattan ที่อยู่ภายใต้การบริหารของ Robert Oppenheimer มอบความสามารถให้มนุษยชาติเป็นครั้งแรกในการล้างผลาญตัวเอง: ระเบิดปรมาณูถูกจุดระเบิดอย่างสําเร็จ 210 ไมล์ใต้ของ Los Alamos, New Mexico

เมื่อวันที่ 6 สิงหาคม ค.ศ. 1945 ระเบิดถูกทิ้งลงที่ Hiroshima และสามวันต่อมา Nagasaki — ปลดปล่อยพลังทําลายล้างที่ไม่เคยมีมาก่อน สงครามโลกครั้งที่ 2 สิ้นสุดลงด้วยสันติภาพอันเปราะบาง ที่ถูกคุกคามด้วยภัยคุกคามใหม่นี้ต่อการดํารงอยู่ของมนุษยชาติ

ในขณะที่เทคโนโลยีนิวเคลียร์สัญญาว่าจะนํามาซึ่งยุคของพลังงานที่อุดมสมบูรณ์ แต่มันก็ทําให้เราก้าวเข้าสู่อนาคตที่สงครามนิวเคลียร์อาจนําไปสู่จุดจบของอารยธรรมของเรา รัศมีการระเบิดของเทคโนโลยีของเราได้เพิ่มขึ้นเป็นระดับโลก มันกลายเป็นที่ชัดเจนขึ้นเรื่อย ๆ ว่าการปกครองเทคโนโลยีนิวเคลียร์เพื่อหลีกเลี่ยงภัยพิบัติระดับโลกนั้นจําเป็นต้องมีความร่วมมือระหว่างประเทศ เวลาเป็นสิ่งสําคัญอย่างยิ่งในการจัดตั้งสถาบันที่เข้มแข็งเพื่อจัดการกับเรื่องนี้

ในปี 1952 ประเทศ 11 ประเทศก่อตั้ง CERN และ มอบหมายให้ “ความร่วมมือในการวิจัยทางวิทยาศาสตร์ [นิวเคลียร์] ที่มีลักษณะพื้นฐานอย่างแท้จริง” — ทําให้ชัดเจนว่าการวิจัยของ CERN จะถูกใช้เพื่อประโยชน์สาธารณะ องค์การพลังงานปรมาณูระหว่างประเทศ (IAEA) ยังถูกก่อตั้งขึ้นในปี 1957 เพื่อตรวจสอบสต็อกยูเรเนียมทั่วโลกและจํากัดการแพร่ขยาย นอกจากนี้ สถาบันเหล่านี้ยังช่วยให้เรารอดชีวิตมาได้ใน 70 ปีที่ผ่านมา

เราเชื่อว่ามนุษยชาติกําลังเผชิญหน้าอีกครั้งกับการเพิ่มขึ้นของ ‘รัศมีการระเบิด’ ของเทคโนโลยี: การพัฒนาปัญญาประดิษฐ์ขั้นสูง ซึ่งเป็นเทคโนโลยีที่ทรงพลังที่สามารถล้างผลาญมนุษยชาติได้หากปล่อยให้ปราศจากการควบคุม แต่ถ้าได้รับการควบคุมอย่างปลอดภัย ก็สามารถเปลี่ยนแปลงโลกใบนี้ไปในทางที่ดีขึ้นได้ เราสามารถหลีกเลี่ยงการทําลายล้างตัวเองด้วยอาวุธนิวเคลียร์ได้ และเราสามารถปกป้องอนาคตของเราอีกครั้ง – แต่ไม่ใช่ถ้าเรายังนิ่งเฉยอยู่ เราต้องวางการพัฒนา AI ขั้นสูงไว้ในมือของสถาบันโลกใหม่ที่ไว้วางใจได้ และสร้างอนาคตที่ปลอดภัยสําหรับทุกคน

ภาพประกอบของปัญญาประดิษฐ์ทั่วไป

ผู้เชี่ยวชาญได้ส่งเสียงเตือนเกี่ยวกับการพัฒนาปัญญาประดิษฐ์ทั่วไป (AGI) นักวิทยาศาสตร์ AI ที่มีชื่อเสียงและผู้นําบริษัท AI ชั้นนํา รวมถึง Sam Altman ของ OpenAI และ Demis Hassabis ของ Google DeepMind ได้ลงนามในแถลงการณ์จาก Center for AI Safety ที่ ระบุว่า “การบรรเทาความเสี่ยงจากการสูญพันธุ์จาก AI ควรเป็นความสําคัญระดับโลกควบคู่ไปกับความเสี่ยงระดับสังคมอื่นๆ เช่น โรคระบาดและสงครามนิวเคลียร์” เมื่อไม่กี่เดือนก่อนหน้านี้ จดหมายเปิดฉบับหนึ่ง เรียกร้องให้หย