
(SeaPRwire) – เมื่อสัปดาห์ที่ผ่านมา กลุ่มพันธมิตรของผู้นำทางวิทยาศาสตร์ ศาสนา และการเมือง ได้เรียกร้องให้มีการห้ามการพัฒนาปัญญาประดิษฐ์ขั้นสูงยิ่ง (superintelligence) ทั่วโลก ซึ่งหมายถึง AI ที่มีประสิทธิภาพเหนือกว่ามนุษย์ในทุกภารกิจการรับรู้ ผมเป็นหนึ่งในผู้ลงนามกลุ่มแรก ร่วมกับผู้ได้รับรางวัลโนเบล เช่น Geoffrey Hinton; Yoshua Bengio นักวิทยาศาสตร์ AI ที่ได้รับการอ้างอิงมากที่สุดในโลก; Steve Bannon อดีตที่ปรึกษาประธานาธิบดี Donald Trump; Mike Mullen อดีตประธานคณะเสนาธิการร่วม; และ Prince Harry กับ Meghan, Duchess of Sussex
อะไรที่ทำให้กลุ่มนี้มารวมตัวกัน? ก็คือภัยคุกคามที่เร่งด่วนและคุกคามการดำรงอยู่ของมนุษยชาติ บริษัทเทคโนโลยีกำลังทุ่มเงินหลายพันล้านดอลลาร์เพื่อบรรลุเป้าหมายการพัฒนา superintelligence ให้เร็วที่สุดเท่าที่จะเป็นไปได้ ไม่มีใครรู้ว่าจะควบคุม AI ที่มีความสามารถเหนือกว่ามนุษย์อย่างมหาศาลได้อย่างไร แต่เราก็กำลังเข้าใกล้การพัฒนามันมากขึ้นเรื่อยๆ โดยผู้เชี่ยวชาญหลายคนคาดการณ์ว่า superintelligence จะเกิดขึ้นภายใน 5 ปีข้างหน้า ด้วยความเร็วในปัจจุบันนี้
นี่คือเหตุผลที่นักวิทยาศาสตร์ AI ชั้นนำเตือนว่า การพัฒนา superintelligence อาจนำไปสู่การสูญพันธุ์ของมนุษยชาติได้
ความจำเป็นในการห้าม superintelligence
เมื่อเราพัฒนาเครื่องจักรที่มีความสามารถเหนือกว่าเราอย่างมากในทุกด้าน เราก็มีแนวโน้มที่จะตกอยู่ภายใต้การควบคุมของบุคคลหรือประเทศที่ควบคุมพวกมัน หรือไม่เราก็จะตกอยู่ภายใต้ความเมตตาของเครื่องจักร superintelligent เหล่านั้นเอง เนื่องจากปัจจุบันยังไม่มีประเทศใด บริษัทใด และบุคคลใดที่รู้วิธีควบคุมพวกมัน ในทางทฤษฎีแล้ว superintelligent AI จะแสวงหาเป้าหมายของตัวเอง และหากเป้าหมายเหล่านั้นไม่สอดคล้องกับการดำรงอยู่ของชีวิตมนุษย์ เราก็จะถูกทำลายล้าง
ที่แย่ไปกว่านั้น นักพัฒนา AI ไม่เข้าใจว่าระบบ AI ที่ทรงพลังในปัจจุบันทำงานอย่างไร ไม่เหมือนสะพานหรือโรงไฟฟ้าที่ถูกออกแบบตามข้อกำหนดของมนุษย์อย่างแม่นยำ แต่ระบบ AI ในปัจจุบันถูกฝึกฝนจากชุดข้อมูลขนาดใหญ่ผ่านกระบวนการที่แม้แต่ผู้สร้างเองก็ไม่สามารถตีความได้ แม้แต่ Dario Amodei ซีอีโอของ Anthropic ยังยอมรับว่า เรา “เข้าใจการทำงานของพวกมันเพียง 3% เท่านั้น”
แม้จะมีอันตรายนี้ แต่ superintelligence ยังคงเป็นเป้าหมายหลักของบริษัท AI ชั้นนำต่างๆ ได้แก่ OpenAI, Anthropic, Google DeepMind, Meta, xAI, DeepSeek และด้วยมูลค่าบริษัทที่พุ่งสูงขึ้น พวกเขาก็ไม่น่าจะหยุดได้เอง
รัฐบาลทั่วโลกต้องเข้ามาแทรกแซงก่อนที่จะสายเกินไป อย่างไรก็ตาม สถานการณ์ระหว่างประเทศไม่น่าสนับสนุน เราอยู่ในยุคที่ความตึงเครียดทางภูมิรัฐศาสตร์เพิ่มขึ้น เต็มไปด้วยความขัดแย้งระหว่างสหรัฐฯ และจีน หลายประเทศเร่งลงทุนหลายพันล้านดอลลาร์ในศูนย์ข้อมูลเพื่อขับเคลื่อน AI ในขณะที่การพัฒนาและติดตั้งระบบ AI ที่อันตรายยังคงมีการควบคุมน้อยกว่าการเปิดร้านอาหารใหม่หรือการสร้างบ้าน
จะห้าม superintelligence ได้อย่างไร
ในสถานการณ์เช่นนี้ การห้ามการพัฒนา superintelligence ในระดับนานาชาติยังเป็นไปได้หรือไม่?
เป็นไปได้ เพราะเราเคยประสบความสำเร็จในการห้ามในระดับโลกเช่นนี้มาแล้ว
ในปี 1985 โลกได้ค้นพบว่ามีรูโหว่ในชั้นโอโซนเหนือทวีปแอนตาร์กติกา ต้องขอบคุณนักวิทยาศาสตร์สามคนจาก British Antarctic Survey ตัวการของอาชญากรรมทางบรรยากาศนี้คือ สารเคมีอุตสาหกรรมทั่วไปที่เรียกว่า CFCs หากไม่มีการดำเนินการใดๆ รูโหว่ก็จะขยายตัวต่อไป และผู้คนหลายล้านคนจะป่วยเป็นมะเร็งผิวหนังหรือตาบอดเนื่องจากขาดการป้องกันรังสียูวี
แต่ทว่า ผู้คนหลายล้านคนได้รวมพลังกัน นักวิทยาศาสตร์ทำให้ภัยคุกคามจับต้องได้ด้วยภาพถ่ายดาวเทียมสีสันสดใสและการอภิปรายที่ชัดเจนเกี่ยวกับผลกระทบต่อสุขภาพ องค์กรพัฒนาเอกชน (NGOs) ได้จัดให้มีการคว่ำบาตรแบรนด์ใหญ่ๆ และชี้นำประชาชนที่กังวลนับพันให้เขียนจดหมายประท้วง โรงเรียนทั่วโลกได้จัดทำโครงการการศึกษา และองค์การสหประชาชาติ (UN) ก็สนับสนุนการรณรงค์สร้างความตระหนักรู้แก่สาธารณะ
ในปี 1987 เพียงสองปีหลังจากที่รูโหว่โอโซนถูกเปิดเผยสู่สาธารณะ ทุกประเทศที่มีอยู่ได้ลงนามใน Montreal Protocol ข้อตกลงที่ลงนามในช่วงสงครามเย็นนี้แสดงให้เห็นว่าสามารถบรรลุข้อตกลงระหว่างประเทศที่รวดเร็วและเด็ดขาดได้แม้ท่ามกลางความตึงเครียดทางภูมิรัฐศาสตร์
ปัจจัยสำคัญประการหนึ่งคือ รูโหว่โอโซนเป็นอันตรายต่อเกือบทุกคนในโลก ไม่ใช่ผลกระทบภายนอกที่คนบางกลุ่มผลักภาระให้คนอื่น แต่เป็นสิ่งที่ทุกคนจะต้องทนทุกข์ทรมาน Superintelligence ก็เป็นภัยคุกคามสากลที่คล้ายคลึงกัน การสูญเสียการควบคุม AI หมายความว่าแม้แต่ผู้ที่พัฒนา AI ก็จะไม่รอดพ้นจากอันตรายของมัน ดังนั้น ความเสี่ยงต่อการสูญพันธุ์จาก superintelligence จึงมีศักยภาพที่จะขจัดความแตกแยกทั้งหมด มันสามารถรวมผู้คนจากพรรคการเมือง ศาสนา ชาติ และอุดมการณ์ต่างๆ เข้าด้วยกัน ไม่มีใครอยากให้ชีวิต ครอบครัว หรือโลกของตนถูกทำลาย
เมื่อผู้คนเรียนรู้เกี่ยวกับ superintelligence และความเสี่ยงต่อการสูญพันธุ์ที่มันก่อให้เกิด หลายคนก็มองเห็นอันตรายและเริ่มกังวลเกี่ยวกับมัน เช่นเดียวกับกรณีรูโหว่โอโซน ความกังวลนี้จะต้องถูกกระตุ้นให้กลายเป็นการมีส่วนร่วมของพลเมือง สร้างการเคลื่อนไหวระดับโลกที่ทำงานร่วมกับรัฐบาลเพื่อทำให้การห้าม superintelligence เป็นจริงขึ้นมาได้
น่าเสียดายที่ผู้ร่างกฎหมายส่วนใหญ่ยังคงไม่รู้ถึงภัยคุกคามของ superintelligence หรือความเร่งด่วนของมัน และบริษัท AI กำลังใช้ความพยายามล็อบบี้อย่างมหาศาลเพื่อบดขยี้ความพยายามในการควบคุม AI
สิ่งที่ดีที่สุดในการถ่วงดุลความพยายามล็อบบี้อันมหาศาลนี้คือ การที่ผู้ร่างกฎหมายได้รับฟังจากผู้มีสิทธิเลือกตั้งของตนเองว่าพวกเขามีความคิดเห็นอย่างไรเกี่ยวกับ superintelligence บ่อยครั้งที่ผู้ร่างกฎหมายจะพบว่าผู้มีสิทธิเลือกตั้งส่วนใหญ่ของพวกเขาต้องการให้พวกเขาตอบ “ไม่” ต่อภัยคุกคาม และ “ใช่” ต่ออนาคตที่มนุษยชาติอยู่รอดและเจริญรุ่งเรือง
ในยุคที่การมีส่วนร่วมทางการเมืองลดลงและมีความเป็นพวกพ้องมากขึ้น การห้าม superintelligence เป็นเรื่องของสามัญสำนึกที่รวมผู้คนจากทุกพรรคการเมืองเข้าไว้ด้วยกัน
เช่นเดียวกับกรณีการลดลงของชั้นโอโซน ทุกคนจะต้องสูญเสียจากการพัฒนา superintelligence เรารู้ว่าการเคลื่อนไหวเพื่อหลีกเลี่ยงชะตากรรมนี้สามารถสร้างขึ้นได้
คำถามเดียวที่เหลืออยู่คือ: เราจะสร้างมันได้เร็วพอหรือไม่?
บทความนี้ให้บริการโดยผู้ให้บริการเนื้อหาภายนอก SeaPRwire (https://www.seaprwire.com/) ไม่ได้ให้การรับประกันหรือแถลงการณ์ใดๆ ที่เกี่ยวข้องกับบทความนี้
หมวดหมู่: ข่าวสําคัญ ข่าวประจําวัน
SeaPRwire จัดส่งข่าวประชาสัมพันธ์สดให้กับบริษัทและสถาบัน โดยมียอดการเข้าถึงสื่อกว่า 6,500 แห่ง 86,000 บรรณาธิการและนักข่าว และเดสก์ท็อปอาชีพ 3.5 ล้านเครื่องทั่ว 90 ประเทศ SeaPRwire รองรับการเผยแพร่ข่าวประชาสัมพันธ์เป็นภาษาอังกฤษ เกาหลี ญี่ปุ่น อาหรับ จีนตัวย่อ จีนตัวเต็ม เวียดนาม ไทย อินโดนีเซีย มาเลเซีย เยอรมัน รัสเซีย ฝรั่งเศส สเปน โปรตุเกส และภาษาอื่นๆ