(SeaPRwire) – OpenAI กำลังมองหาการเพิ่มขีดความสามารถด้านการให้เหตุผลของแบบจำลองของตัวเองอย่างมาก เอเจนซีกล่าว
OpenAI ผู้สร้างผู้ช่วยเสมือน ChatGPT กำลังพัฒนาแนวทางใหม่สำหรับเทคโนโลยีปัญญาประดิษฐ์ของตัวเอง รอยเตอร์รายงาน
เป็นส่วนหนึ่งของโครงการที่มีชื่อรหัสว่า ‘Strawberry’ บริษัทที่ได้รับการสนับสนุนจาก Microsoft กำลังพยายามปรับปรุงขีดความสามารถด้านการให้เหตุผลของแบบจำลองของตัวเองอย่างมาก เอเจนซีกล่าวในบทความเมื่อวันศุกร์
วิธีการทำงานของ Strawberry “เป็นความลับอย่างมาก” แม้กระทั่งภายใน OpenAI เอง บุคคลที่คุ้นเคยกับเรื่องนี้บอกกับรอยเตอร์
แหล่งข่าวกล่าวว่าโครงการนี้เกี่ยวข้องกับ “วิธีพิเศษ” ในการประมวลผลแบบจำลอง AI หลังจากได้รับการฝึกฝนล่วงหน้าบนชุดข้อมูลขนาดใหญ่ เป้าหมายคือการทำให้ปัญญาประดิษฐ์ไม่เพียงแค่สร้างคำตอบสำหรับคำถาม แต่ยังสามารถวางแผนล่วงหน้าได้อย่างเพียงพอเพื่อทำการวิจัยที่เรียกว่า “การวิจัยเชิงลึก” โดยการนำทางอินเทอร์เน็ตโดยอัตโนมัติและเชื่อถือได้ แหล่งข่าวอธิบาย
รอยเตอร์กล่าวว่าได้ตรวจสอบเอกสารภายในของ OpenAI ซึ่งรายละเอียดแผนสำหรับวิธีที่บริษัทสหรัฐฯ สามารถนำ Strawberry ไปใช้ในการวิจัย อย่างไรก็ตาม เอเจนซีกล่าวว่าไม่สามารถระบุได้ว่าเทคโนโลยีนี้จะพร้อมใช้งานต่อสาธารณะเมื่อใด แหล่งข่าวอธิบายโครงการนี้ว่าเป็น “งานที่อยู่ระหว่างดำเนินการ”
เมื่อถูกถามเกี่ยวกับเรื่องนี้ โฆษกของ OpenAI บอกกับรอยเตอร์: “เราต้องการให้แบบจำลอง AI ของเรามองเห็นและเข้าใจโลกเหมือนกับเรา [มนุษย์] การวิจัยอย่างต่อเนื่องเกี่ยวกับความสามารถของ AI ใหม่เป็นเรื่องปกติในอุตสาหกรรม โดยมีความเชื่อร่วมกันว่าระบบเหล่านี้จะปรับปรุงด้านการให้เหตุผลตามเวลา” โฆษกไม่ได้กล่าวถึง Strawberry โดยตรงในคำตอบของเขา
แบบจำลองภาษาขนาดใหญ่ของ AI ในปัจจุบันมีความสามารถในการสรุปข้อความจำนวนมากและรวบรวมข้อความที่สอดคล้องกันได้เร็วกว่าคน แต่โดยปกติแล้วจะมีปัญหาในการแก้ปัญหาเชิงตรรกะที่เป็นสัญชาตญาณสำหรับมนุษย์ เมื่อสิ่งนี้เกิดขึ้น แบบจำลองมักจะ “หลอน” โดยพยายามแสดงข้อมูลที่ผิดหรือทำให้เข้าใจผิดว่าเป็นข้อเท็จจริง
นักวิจัยที่พูดคุยกับรอยเตอร์กล่าวว่าการให้เหตุผลซึ่งเป็นสิ่งที่แบบจำลอง AI หลีกเลี่ยงมาจนถึงตอนนี้ เป็นกุญแจสำคัญในการที่ปัญญาประดิษฐ์จะบรรลุระดับมนุษย์หรือเหนือมนุษย์
สัปดาห์ที่ผ่านมา Yoshua Bengio หนึ่งในผู้เชี่ยวชาญด้านปัญญาประดิษฐ์ชั้นนำของโลกและเป็นผู้นำด้านการเรียนรู้เชิงลึก ได้เตือนถึง “ความเสี่ยงมากมาย” รวมถึงความเป็นไปได้ของ “การสูญพันธุ์ของมนุษยชาติ” ที่เกิดจากบริษัทเอกชนแข่งขันกันเพื่อให้ได้มาซึ่ง AI ระดับมนุษย์และเหนือกว่า
”หน่วยงานที่ฉลาดกว่ามนุษย์และมีเป้าหมายของตัวเอง: เราแน่ใจหรือไม่ว่าพวกเขาจะกระทำการเพื่อความเป็นอยู่ที่ดีของเรา?” ศาสตราจารย์มหาวิทยาลัยมอนทรีออลและผู้อำนวยการฝ่ายวิทยาศาสตร์ของสถาบันมอนทรีออลสำหรับอัลกอริธึมการเรียนรู้ (MILA) กล่าวในบทความบนเว็บไซต์ของเขา
Bengio เรียกร้องให้ชุมชนวิทยาศาสตร์และสังคมโดยรวมทำ “ความพยายามร่วมกันอย่างมาก” เพื่อหาทางควบคุม AI ขั้นสูง
บทความนี้ให้บริการโดยผู้ให้บริการเนื้อหาภายนอก SeaPRwire (https://www.seaprwire.com/) ไม่ได้ให้การรับประกันหรือแถลงการณ์ใดๆ ที่เกี่ยวข้องกับบทความนี้
หมวดหมู่: ข่าวสําคัญ ข่าวประจําวัน
SeaPRwire จัดส่งข่าวประชาสัมพันธ์สดให้กับบริษัทและสถาบัน โดยมียอดการเข้าถึงสื่อกว่า 6,500 แห่ง 86,000 บรรณาธิการและนักข่าว และเดสก์ท็อปอาชีพ 3.5 ล้านเครื่องทั่ว 90 ประเทศ SeaPRwire รองรับการเผยแพร่ข่าวประชาสัมพันธ์เป็นภาษาอังกฤษ เกาหลี ญี่ปุ่น อาหรับ จีนตัวย่อ จีนตัวเต็ม เวียดนาม ไทย อินโดนีเซีย มาเลเซีย เยอรมัน รัสเซีย ฝรั่งเศส สเปน โปรตุเกส และภาษาอื่นๆ