Sora by OpenAI ranks first on App Store free app chart

(SeaPRwire) –   เมื่อ OpenAI เปิดตัวแอปสร้างวิดีโอ AI, Sora, ในเดือนกันยายน บริษัทกล่าวว่า “คุณสามารถควบคุมภาพลักษณ์ของคุณได้ตั้งแต่ต้นจนจบ” แอปนี้อนุญาตให้ผู้ใช้ใส่ตัวเองและเพื่อน ๆ ในวิดีโอผ่านฟีเจอร์ที่เรียกว่า “cameos” ซึ่งแอปจะสแกนใบหน้าของผู้ใช้และทำการตรวจสอบการมีชีวิตอยู่ โดยให้ข้อมูลเพื่อสร้างวิดีโอของผู้ใช้และเพื่อรับรองความยินยอมจากเพื่อน ๆ ในการใช้ภาพลักษณ์ของพวกเขาบนแอป

แต่ Reality Defender บริษัทที่เชี่ยวชาญในการระบุ deepfake กล่าวว่าพวกเขาสามารถละเมิดการป้องกันการแอบอ้างตัวตนของ Sora ได้ภายใน 24 ชั่วโมง แพลตฟอร์มเช่น Sora ให้ “ความรู้สึกปลอดภัยที่น่าเชื่อถือ” เบน โคลแมน ซีอีโอของ Reality Defender กล่าว แม้ว่า “ใคร ๆ ก็สามารถใช้เครื่องมือสำเร็จรูป” เพื่อผ่านการรับรองความถูกต้องเป็นคนอื่นได้

นักวิจัยของ Reality Defender ใช้ฟุตเทจที่มีอยู่ทั่วไปของบุคคลที่มีชื่อเสียง รวมถึงซีอีโอและนักแสดง จากการแถลงผลประกอบการและการสัมภาษณ์สื่อ บริษัทประสบความสำเร็จในการละเมิดการป้องกันกับทุกภาพลักษณ์ที่พวกเขาพยายามแอบอ้าง โคลแมนกล่าวว่า “เด็กนักเรียนเกรด 10 ที่ฉลาด” ก็สามารถคิดค้นเครื่องมือที่บริษัทของเขาใช้ได้

โฆษกของ OpenAI กล่าวในแถลงการณ์ทางอีเมลถึง TIME ว่า “นักวิจัยได้สร้างระบบ deepfake ที่ซับซ้อนของซีอีโอและนักแสดงเพื่อพยายามหลีกเลี่ยงการป้องกันเหล่านั้น และเรากำลังเสริมสร้าง Sora อย่างต่อเนื่องเพื่อให้มีความยืดหยุ่นมากขึ้นต่อการใช้งานในทางที่ผิด”

การเปิดตัว Sora และการหลีกเลี่ยงกลไกการรับรองความถูกต้องอย่างรวดเร็ว เป็นเครื่องเตือนใจว่าสังคมยังไม่พร้อมสำหรับ deepfake ที่สมจริงและเป็นส่วนตัวมากขึ้นในยุคต่อไป ช่องว่างระหว่างเทคโนโลยีที่ก้าวหน้าและการควบคุมที่ล้าหลัง ทำให้แต่ละคนต้องนำทางภูมิทัศน์ข้อมูลที่ไม่แน่นอนด้วยตนเอง และเพื่อปกป้องตนเองจากการฉ้อโกงและการคุกคามที่อาจเกิดขึ้น

“แพลตฟอร์มรู้ดีว่าสิ่งนี้กำลังเกิดขึ้น และรู้ดีว่าพวกเขาสามารถแก้ไขได้หากพวกเขาต้องการ แต่จนกว่ากฎระเบียบจะตามทัน เราก็เห็นสิ่งเดียวกันในทุกแพลตฟอร์มโซเชียลมีเดีย พวกเขาจะไม่ทำอะไรเลย” โคลแมนกล่าว

Sora มียอดดาวน์โหลดถึง 1 ล้านครั้งในเวลาไม่ถึงห้าวัน เร็วกว่า ChatGPT ซึ่งในขณะนั้นเป็นแอปสำหรับผู้บริโภคที่เติบโตเร็วที่สุด แม้ว่าผู้ใช้จะต้องมีคำเชิญ บิล พีเบิลส์ หัวหน้าของ Sora ของ OpenAI กล่าว การเปิดตัวของ OpenAI ตามมาด้วยข้อเสนอที่คล้ายกันจาก Meta ที่เรียกว่า Vibes ซึ่งรวมอยู่ในแอป Meta AI

การเข้าถึง deepfake ที่น่าเชื่อถือที่เพิ่มขึ้นทำให้ผู้สังเกตการณ์บางคนตกใจ “ความจริงก็คือการตรวจจับ [deepfake] ด้วยตาเปล่าแทบจะเป็นไปไม่ได้เลย เมื่อพิจารณาถึงความก้าวหน้าอย่างรวดเร็วในด้านความสามารถในการสร้างข้อความเป็นภาพ ข้อความเป็นวิดีโอ และการโคลนเสียง” เจนนิเฟอร์ ยูแบงค์ อดีตรองผู้อำนวยการด้านนวัตกรรมดิจิทัลของ CIA กล่าวในอีเมลถึง TIME

หน่วยงานกำกับดูแลกำลังพยายามแก้ไขปัญหา deepfake มาตั้งแต่ปี 2019 เมื่อประธานาธิบดีทรัมป์ลงนามในกฎหมายที่กำหนดให้ผู้อำนวยการข่าวกรองแห่งชาติตรวจสอบการใช้ deepfake โดยรัฐบาลต่างประเทศ อย่างไรก็ตาม เมื่อการเข้าถึง deepfake เพิ่มขึ้น จุดสนใจของกฎหมายได้เคลื่อนเข้าใกล้บ้านมากขึ้น ในเดือนพฤษภาคม 2025 กฎหมาย Take It Down Act ได้รับการอนุมัติให้เป็นกฎหมายของรัฐบาลกลาง ซึ่งห้ามการเผยแพร่ออนไลน์ของ “ภาพแสดงความใกล้ชิด” ของผู้เยาว์และผู้ใหญ่ที่ไม่ยินยอม และกำหนดให้แพลตฟอร์มลบเนื้อหาที่ละเมิดภายใน 48 ชั่วโมงหลังจากได้รับการร้องขอ แต่การบังคับใช้จะมีผลบังคับใช้ในเดือนพฤษภาคม 2026 เท่านั้น

กฎหมายที่ห้าม deepfake อาจเป็นเรื่องที่ยุ่งยาก “มันซับซ้อนมากในทางเทคนิคและทางกฎหมาย เพราะมีความกังวลเกี่ยวกับการแก้ไขเพิ่มเติมครั้งแรกเกี่ยวกับการลบบางคำพูด” Jameson Spivack รองผู้อำนวยการด้านนโยบายของสหรัฐอเมริกาที่ Future of Privacy Forum กล่าว ในเดือนสิงหาคม ผู้พิพากษาของรัฐบาลกลางได้ยกเลิกกฎหมาย deepfake ของแคลิฟอร์เนีย ซึ่งมีเป้าหมายเพื่อจำกัดเนื้อหา deepfake ที่สร้างโดย AI ในช่วงการเลือกตั้ง หลังจากที่ X ของ Elon Musk ฟ้องร้องรัฐโดยอ้างว่ากฎหมายดังกล่าวละเมิดการคุ้มครองแก้ไขเพิ่มเติมครั้งแรก เป็นผลให้ข้อกำหนดในการติดป้ายกำกับเนื้อหาที่สร้างโดย AI เป็นเรื่องปกติมากกว่าการห้ามโดยสิ้นเชิง สปิแวคกล่าว

อีกแนวทางหนึ่งที่มีแนวโน้มคือการที่แพลตฟอร์มนำรูปแบบ know-your-customer ที่ดีกว่ามาใช้ Fred Heiding นักวิจัยจากโครงการป้องกันประเทศ เทคโนโลยีเกิดใหม่ และยุทธศาสตร์ของมหาวิทยาลัยฮาร์วาร์ดกล่าว รูปแบบ know-your-customer กำหนดให้ผู้ใช้แพลตฟอร์มเช่น Sora ลงชื่อเข้าใช้โดยใช้การระบุตัวตนที่ยืนยันแล้ว เพิ่มความรับผิดชอบและอนุญาตให้เจ้าหน้าที่ติดตามพฤติกรรมที่ผิดกฎหมายได้ แต่ก็มีข้อแลกเปลี่ยนเช่นกัน “ปัญหาคือเราให้ความสำคัญกับความไม่เปิดเผยตัวตนในโลกตะวันตก” ไฮดิงกล่าว “นั่นเป็นสิ่งที่ดี แต่ความไม่เปิดเผยตัวตนก็มีต้นทุน และต้นทุนคือสิ่งเหล่านี้บังคับใช้ได้ยากมาก”

ในขณะที่ฝ่ายนิติบัญญัติกำลังต่อสู้กับการแพร่หลายและความสมจริงที่เพิ่มขึ้นของ deepfake บุคคลและองค์กรสามารถทำตามขั้นตอนเพื่อปกป้องตนเองได้ Spivack แนะนำให้ใช้ซอฟต์แวร์ตรวจสอบสิทธิ์เช่น Content Authenticity Initiative (CAI) ซึ่งพัฒนาโดย Coalition for Content Provenance and Authenticity ซึ่งผนวก metadata เกี่ยวกับที่มาของรูปภาพและวิดีโอ กล้องจาก Sony และ Nikon รองรับลายน้ำ เช่นเดียวกับ Adobe Photoshop การใช้การตรวจสอบสิทธิ์ดังกล่าวจะเพิ่มความไว้วางใจในรูปภาพที่แท้จริง และบ่อนทำลายของปลอม

เมื่อภูมิทัศน์ข้อมูลออนไลน์เปลี่ยนแปลงไป ทำให้การไว้วางใจในสิ่งที่เราเห็นและได้ยินทางออนไลน์ยากขึ้น ทั้งผู้กำหนดนโยบายและบุคคลทั่วไปต้องสร้างความยืดหยุ่นของสังคมต่อสื่อปลอม “ยิ่งเราปลูกฝังความยืดหยุ่นนั้นมากเท่าไหร่ ก็ยิ่งยากสำหรับใครก็ตามที่จะผูกขาดความสนใจของเราและบิดเบือนความไว้วางใจของเรา” ยูแบงค์กล่าว

บทความนี้ให้บริการโดยผู้ให้บริการเนื้อหาภายนอก SeaPRwire (https://www.seaprwire.com/) ไม่ได้ให้การรับประกันหรือแถลงการณ์ใดๆ ที่เกี่ยวข้องกับบทความนี้

หมวดหมู่: ข่าวสําคัญ ข่าวประจําวัน

SeaPRwire จัดส่งข่าวประชาสัมพันธ์สดให้กับบริษัทและสถาบัน โดยมียอดการเข้าถึงสื่อกว่า 6,500 แห่ง 86,000 บรรณาธิการและนักข่าว และเดสก์ท็อปอาชีพ 3.5 ล้านเครื่องทั่ว 90 ประเทศ SeaPRwire รองรับการเผยแพร่ข่าวประชาสัมพันธ์เป็นภาษาอังกฤษ เกาหลี ญี่ปุ่น อาหรับ จีนตัวย่อ จีนตัวเต็ม เวียดนาม ไทย อินโดนีเซีย มาเลเซีย เยอรมัน รัสเซีย ฝรั่งเศส สเปน โปรตุเกส และภาษาอื่นๆ 

“`