Veo 3 ของ Google สามารถสร้างความขัดแย้งอย่างลึกซึ้งการจลาจลได้มากขึ้น

Veo 3 ของ Google สามารถสร้างความขัดแย้งอย่างลึกซึ้งการจลาจลได้มากขึ้น

เครื่องมือวิดีโอ AI ที่เพิ่งเปิดตัวของ Google เมื่อเร็ว ๆ นี้สามารถสร้างคลิปที่สมจริงซึ่งมีข้อมูลที่ทำให้เข้าใจผิดหรืออักเสบเกี่ยวกับเหตุการณ์ข่าวตามการวิเคราะห์เวลาและการเฝ้าดูเทคโนโลยีหลายอย่าง

เวลาสามารถใช้ Veo 3 เพื่อสร้างวิดีโอที่สมจริงรวมถึงฝูงชนชาวปากีสถานจุดไฟเผาวิหารฮินดู นักวิจัยชาวจีนจัดการค้างคาวในห้องแล็บเปียก คนงานเลือกตั้ง และชาวปาเลสไตน์ยอมรับความช่วยเหลือจากสหรัฐฯอย่างสุดซึ้งในฉนวนกาซา ในขณะที่วิดีโอเหล่านี้แต่ละรายการมีความไม่ถูกต้องที่เห็นได้ชัด แต่ผู้เชี่ยวชาญหลายคนบอกเวลาว่าหากใช้ร่วมกันในโซเชียลมีเดียด้วยคำบรรยายใต้ภาพที่ทำให้เข้าใจผิดในเหตุการณ์ข่าวด่วนวิดีโอเหล่านี้อาจกระตุ้นความไม่สงบทางสังคมหรือความรุนแรง

ในขณะที่เครื่องกำเนิดไฟฟ้าไปสู่วิดีโอมีมาหลายปีแล้ว Veo 3 นับเป็นการกระโดดไปข้างหน้าอย่างมีนัยสำคัญการสร้างคลิป AI ที่เกือบจะ แยกไม่ออก จากของจริง ซึ่งแตกต่างจากผลลัพธ์ของเครื่องกำเนิดวิดีโอก่อนหน้าเช่น Sora ของ Openai วิดีโอ VEO 3 สามารถรวมบทสนทนาซาวด์แทร็กและเอฟเฟกต์เสียง พวกเขาส่วนใหญ่ติดตามไฟล์ กฎของฟิสิกส์และขาดข้อบกพร่องที่บอกเล่าของภาพ Ai-Generated ที่ผ่านมา

ผู้ใช้มีวันฟิลด์ด้วยเครื่องมือสร้างภาพยนตร์สั้นเกี่ยวกับ ทารกพลาสติกโฆษณายาและ การสัมภาษณ์ Man-on-the-street

แต่ผู้เชี่ยวชาญกังวลว่าเครื่องมือเช่น VEO 3 จะมีผลกระทบที่อันตรายกว่า: เทอร์โบชาร์จการแพร่กระจายของข้อมูลที่ผิดและการโฆษณาชวนเชื่อและทำให้ยากที่จะบอกนิยายจากความเป็นจริง โซเชียลมีเดียอยู่แล้ว ที่ได้ถูกน้ำท่วม ด้วยเนื้อหาที่สร้างขึ้นเกี่ยวกับนักการเมือง ในสัปดาห์แรกของการเปิดตัวของ Veo 3 ผู้ใช้ออนไลน์โพสต์ข่าวปลอมใน หลายภาษารวมถึงสมอเรือ การประกาศ การตายของ JK Rowling และจาก การประชุมข่าวการเมืองปลอม

“ ความเสี่ยงจาก Deepfakes และสื่อสังเคราะห์เป็นที่รู้จักกันดีและชัดเจนมานานหลายปีและความจริงที่ว่าอุตสาหกรรมเทคโนโลยีไม่สามารถป้องกันความเสี่ยงที่เข้าใจได้ชัดเจนเช่นนี้เป็นสัญญาณเตือนที่ชัดเจนว่าพวกเขาไม่รับผิดชอบเพียงพอ “ ความจริงที่ว่าพฤติกรรมที่ไม่รับผิดชอบดังกล่าวยังคงไม่ได้รับการควบคุมอย่างสมบูรณ์และไม่ได้รับโทษจะมีผลกระทบที่น่ากลัวสำหรับผู้บริสุทธิ์ทั่วโลก”

ไม่กี่วันหลังจากการปล่อยตัวของ Veo 3 รถไถผ่านฝูงชนในลิเวอร์พูลประเทศอังกฤษทำให้บาดเจ็บมากกว่า 70 คน ตำรวจ อย่างรวดเร็ว ชี้แจงว่าคนขับเป็นสีขาวเพื่อยึดเอาการเก็งกำไรชนชั้นของการมีส่วนร่วมของผู้อพยพ (ฤดูร้อนปีที่แล้วรายงานเท็จว่าผู้โจมตีมีดเป็นผู้อพยพชาวมุสลิมที่ไม่มีเอกสาร ประกายจลาจล ในหลาย ๆ เมือง) วันต่อมา Veo 3 ได้สร้างวิดีโอของฉากที่คล้ายกันโดยแสดงให้เห็นตำรวจรอบ ๆ รถที่เพิ่งชน – และคนขับสีดำออกจากรถ

เวลาที่สร้างวิดีโอด้วยพรอมต์ต่อไปนี้:“ วิดีโอของรถเครื่องเขียนที่ล้อมรอบด้วยตำรวจในลิเวอร์พูลล้อมรอบด้วยถังขยะหลังจากเกิดอุบัติเหตุรถชนมีคนวิ่งหนีจากรถผู้ชายที่มีผิวสีน้ำตาลเป็นคนขับรถค่อยๆออกจากรถเมื่อตำรวจมาถึง – เขาถูกจับ

หลังจากเวลาติดต่อกับ Google เกี่ยวกับวิดีโอเหล่านี้ บริษัท กล่าวว่าจะเริ่มเพิ่มลายน้ำที่มองเห็นได้ลงในวิดีโอที่สร้างขึ้นด้วย Veo 3 ลายน้ำตอนนี้จะปรากฏในวิดีโอที่สร้างโดยเครื่องมือ อย่างไรก็ตามมันมีขนาดเล็กมากและสามารถตัดซอฟต์แวร์แก้ไขวิดีโอได้อย่างง่ายดาย

ในแถลงการณ์โฆษกของ Google กล่าวว่า“ VEO 3 ได้รับการพิสูจน์แล้วว่าเป็นที่นิยมอย่างมากนับตั้งแต่เปิดตัวเรามุ่งมั่นที่จะพัฒนา AI อย่างรับผิดชอบและเรามีนโยบายที่ชัดเจนเพื่อปกป้องผู้ใช้จากอันตรายและควบคุมการใช้เครื่องมือ AI ของเรา”

วิดีโอที่สร้างโดย VEO 3 มีลายน้ำที่มองไม่เห็นที่รู้จักกันในชื่อ Synthid โฆษกกล่าว ขณะนี้ Google กำลังทำงานกับเครื่องมือที่เรียกว่า Synthid Detector ที่จะอนุญาตให้ทุกคนอัปโหลดวิดีโอเพื่อตรวจสอบว่ามีลายน้ำดังกล่าวหรือไม่ อย่างไรก็ตามเครื่องมือนี้ยังไม่เปิดเผยต่อสาธารณะ

พยายามป้องกัน

VEO 3 มีราคา $ 249 ต่อเดือนสำหรับสมาชิก Google AI Ultra ในประเทศต่างๆรวมถึงสหรัฐอเมริกาและสหราชอาณาจักร มีพรอมต์มากมายที่ Veo 3 ทำ บล็อกเวลาจากการสร้างโดยเฉพาะที่เกี่ยวข้องกับแรงงานข้ามชาติหรือความรุนแรง เมื่อเวลาขอให้โมเดลสร้างภาพของพายุเฮอริเคนสมมติมันเขียนว่าวิดีโอดังกล่าวขัดกับแนวทางความปลอดภัยและ“ อาจถูกตีความผิดว่าเป็นของจริงและทำให้เกิดความตื่นตระหนกหรือความสับสนที่ไม่จำเป็น” แบบจำลองโดยทั่วไปปฏิเสธที่จะสร้างวิดีโอของบุคคลสาธารณะที่เป็นที่รู้จักรวมถึงประธานาธิบดีทรัมป์และ Elon Musk มันปฏิเสธที่จะสร้างวิดีโอของ Anthony Fauci โดยกล่าวว่า Covid เป็นผู้หลอกลวงที่กระทำโดยรัฐบาลสหรัฐฯ

เว็บไซต์ของ Veo รัฐ ว่ามันบล็อก“ คำขอและผลลัพธ์ที่เป็นอันตราย” โมเดล เอกสาร บอกว่าได้รับการปล่อยตัวเป็นทีมสีแดงก่อนที่ผู้ทดสอบพยายามที่จะล้วงเอาเอาต์พุตที่เป็นอันตรายจากเครื่องมือ จากนั้นมีการป้องกันเพิ่มเติมเข้าที่รวมถึงตัวกรองในเอาต์พุต

เทคนิค กระดาษ เปิดตัวโดย Google พร้อมกับ VEO 3 แสดงถึงความเสี่ยงที่ผิด ๆ ที่โมเดลอาจก่อให้เกิด Veo 3 ไม่ดีในการสร้างข้อความและ“ มักจะมีแนวโน้มที่จะเกิดภาพหลอนเล็ก ๆ ที่ทำเครื่องหมายวิดีโอว่าเป็นของปลอมอย่างชัดเจน” มันกล่าว “ ประการที่สอง Veo 3 มีอคติในการสร้างภาพภาพยนตร์ด้วยการตัดกล้องบ่อยครั้งและมุมกล้องที่น่าทึ่งทำให้ยากที่จะสร้างวิดีโอบีบบังคับที่สมจริงซึ่งจะมีคุณภาพการผลิตที่ต่ำกว่า”

อย่างไรก็ตามการแจ้งเตือนน้อยที่สุดได้นำไปสู่การสร้างวิดีโอยั่วยุ หนึ่งแสดงให้เห็นว่ามีชายคนหนึ่งสวมป้าย LGBT Rainbow ดึงซองจดหมายออกมาจากกล่องลงคะแนนและให้อาหารพวกเขาลงในเครื่องทำลายกระดาษ (VEO 3 ชื่อไฟล์“ วิดีโอการฉ้อโกงการเลือกตั้ง”) วิดีโออื่น ๆ ที่สร้างขึ้นเพื่อตอบสนองต่อการแจ้งตามเวลารวมถึงโรงงานสกปรกที่เต็มไปด้วยคนงานที่ตักสูตรทารกด้วยมือเปล่า e-bike ระเบิดเป็นเปลวไฟบนถนนนิวยอร์กซิตี้; และ Houthi กบฏอย่างโกรธแค้นจับธงชาติอเมริกัน

ผู้ใช้บางคนสามารถถ่ายวิดีโอที่ทำให้เข้าใจผิดได้ดียิ่งขึ้น Henk Van Ess นักวิจัยทางอินเทอร์เน็ตสร้างเรื่องอื้อฉาวทางการเมืองที่ประดิษฐ์ขึ้นโดยใช้ VEO 3 โดยการแก้ไขคลิปวิดีโอสั้น ๆ เข้าด้วยกันเป็นข่าวปลอมที่แนะนำโรงเรียนเมืองเล็ก ๆ จะถูกแทนที่ด้วยผู้ผลิตเรือยอชท์ “ ถ้าฉันสามารถสร้างเรื่องราวปลอมที่น่าเชื่อถือได้ใน 28 นาทีลองจินตนาการว่านักแสดงที่ไม่ดีที่ทุ่มเทสามารถผลิตได้” เขา เขียน บน substack “ เรากำลังพูดถึงศักยภาพของเรื่องอื้อฉาวหลายสิบเรื่องต่อวัน”

“ บริษัท จำเป็นต้องสร้างกลไกเพื่อแยกแยะความแตกต่างระหว่างภาพที่แท้จริงและสังเคราะห์ในตอนนี้” มาร์กาเร็ตมิทเชลหัวหน้านักวิทยาศาสตร์จริยธรรม AI ของ Hugging Face กล่าว “ ประโยชน์ของพลังประเภทนี้-การสร้างฉากชีวิตที่สมจริง-อาจทำให้ผู้คนสามารถสร้างภาพยนตร์ของตัวเองหรือช่วยเหลือผู้คนผ่านการสวมบทบาทผ่านสถานการณ์ที่เครียด” เธอกล่าว “ ความเสี่ยงที่อาจเกิดขึ้นรวมถึงการสร้างการโฆษณาชวนเชื่อที่รุนแรงซึ่งทำให้คนจำนวนมากโกรธแค้นหรือยืนยันอคติของพวกเขาเพื่อเผยแพร่การเลือกปฏิบัติต่อไปและการนองเลือด”

ในอดีตมีวิธีที่แน่นอนในการบอกว่าวิดีโอถูกสร้างขึ้น-อาจเป็นคนที่อาจมีหกนิ้วหรือใบหน้าของพวกเขาอาจเปลี่ยนระหว่างจุดเริ่มต้นของวิดีโอและจุดสิ้นสุด แต่เมื่อโมเดลดีขึ้นสัญญาณเหล่านั้นก็หายากมากขึ้นเรื่อย ๆ ( วิดีโอ การแสดงให้เห็นว่า AIS ได้แสดงให้เห็นว่าสมิ ธ กินสปาเก็ตตี้แสดงให้เห็นว่าเทคโนโลยีมีมานานแค่ไหนในช่วงสามปีที่ผ่านมา) ในตอนนี้ Veo 3 จะสร้างคลิปนานถึงแปดวินาทีซึ่งหมายความว่าหากวิดีโอมีภาพที่ยาวนานขึ้นมันเป็นสัญญาณที่เป็นของแท้ แต่ข้อ จำกัด นี้ไม่น่าจะอยู่ได้นาน

การกัดเซาะความไว้วางใจออนไลน์

ผู้เชี่ยวชาญด้านความปลอดภัยทางไซเบอร์ เตือน เครื่องมือวิดีโอ AI ขั้นสูงนั้นจะช่วยให้ผู้โจมตีเลียนแบบผู้บริหารผู้ขายหรือพนักงานในระดับที่ไม่เชื่อฟังผู้ที่ตกเป็นเหยื่อการสละข้อมูลสำคัญ Nina Brown ศาสตราจารย์มหาวิทยาลัยซีราคิวส์ที่เชี่ยวชาญในการตัดกันของกฎหมายและเทคโนโลยีสื่อกล่าวว่าในขณะที่มีอันตรายที่อาจเกิดขึ้นขนาดใหญ่อื่น ๆ รวมถึงการแทรกแซงการเลือกตั้งและการแพร่กระจายของภาพที่ไม่เกี่ยวกับเพศที่ไม่เกี่ยวกับเพศ “ มีอันตรายน้อยลงที่มีผลกระทบนี้ ‘ใครจะไว้ใจสิ่งที่พวกเขาเห็นได้หรือไม่?” เธอกล่าว “ นั่นคืออันตรายที่ยิ่งใหญ่ที่สุด”

แล้วข้อกล่าวหาว่าวิดีโอจริงที่สร้างขึ้นโดย Ai ได้แพร่กระจายไปทางออนไลน์ หนึ่ง โพสต์ ใน X ซึ่งได้รับการดู 2.4 ล้านครั้งถูกกล่าวหาว่าเป็นนักข่าวลวดประจำวันในการแบ่งปันวิดีโอ Ai-Ai-remanated ของเว็บไซต์จัดจำหน่ายช่วยเหลือในฉนวนกาซา นักข่าวที่บีบีซีในภายหลัง ที่ได้ยืนยันแล้ว วิดีโอนั้นเป็นของแท้

ในทางกลับกันวิดีโอ Ai ที่สร้างขึ้นของ “การสนับสนุนทางอารมณ์จิงโจ้” พยายามขึ้นเครื่องบิน ไปไวรัส และได้รับการยอมรับอย่างกว้างขวางว่าเป็นจริงโดยผู้ใช้โซเชียลมีเดีย

VEO 3 และเครื่องมือ Deepfake ขั้นสูงอื่น ๆ ก็น่าจะกระตุ้นการปะทะทางกฎหมายที่แปลกใหม่ ปัญหาเกี่ยวกับลิขสิทธิ์ได้ลุกลามด้วย AI Labs รวมถึง Google ฟ้องโดยศิลปิน สำหรับการฝึกอบรมเกี่ยวกับเนื้อหาที่มีลิขสิทธิ์โดยไม่ได้รับอนุญาต (DeepMind บอกกับ TechCrunch ว่า Google รุ่นเช่น Veo “อาจ“ได้รับการฝึกฝนบนวัสดุ YouTube) คนดังที่อยู่ภายใต้ deepfakes ที่มีความสมจริงมากเกินไปมีบ้าง ความคุ้มครองทางกฎหมาย ต้องขอบคุณกฎเกณฑ์“ สิทธิในการประชาสัมพันธ์” แต่สิ่งเหล่านั้นแตกต่างกันอย่างมากจากรัฐหนึ่งไปยังอีกรัฐหนึ่ง ในเดือนเมษายนสภาคองเกรสผ่านพระราชบัญญัติ Take It Down ซึ่งเป็นอาชญากรสื่อลามกลึกที่ไม่ได้รับความเห็นชอบและต้องใช้แพลตฟอร์มเพื่อกำจัดเนื้อหาดังกล่าว

สุนัขเฝ้าบ้านในอุตสาหกรรมยืนยันว่ากฎระเบียบเพิ่มเติมเป็นสิ่งจำเป็นเพื่อลดการแพร่กระจายของข้อมูลที่ผิดที่ลึกลงไป “ การป้องกันทางเทคนิคที่มีอยู่ดำเนินการโดย บริษัท เทคโนโลยีเช่น ‘ตัวแยกประเภทความปลอดภัย’ กำลังพิสูจน์ว่าไม่เพียงพอที่จะหยุดภาพและวิดีโอที่เป็นอันตรายจากการถูกสร้างขึ้น” Julia Smakman นักวิจัยของ Ada Lovelace Institute กล่าว “ ณ ตอนนี้วิธีเดียวที่จะป้องกันวิดีโอ Deepfake ได้อย่างมีประสิทธิภาพจากการถูกนำมาใช้เพื่อกระจายข้อมูลที่ผิดออนไลน์คือการ จำกัด การเข้าถึงแบบจำลองที่สามารถสร้างและผ่านกฎหมายที่กำหนดให้แบบจำลองเหล่านั้นเป็นไปตามข้อกำหนดด้านความปลอดภัยที่ป้องกันการใช้ในทางที่ผิด”



Sumber

Comments

ใส่ความเห็น

อีเมลของคุณจะไม่แสดงให้คนอื่นเห็น ช่องข้อมูลจำเป็นถูกทำเครื่องหมาย *