เมื่อปีที่แล้ว Andrey Doronichev รู้สึกตื่นตระหนกเมื่อเขาเห็นวิดีโอบนโซเชียลมีเดียที่แสดงให้เห็นว่าประธานาธิบดียูเครนยอมจำนนต่อรัสเซีย
วิดีโอดังกล่าวถูกหักล้างอย่างรวดเร็วว่าเป็น Deepfake ที่สร้างขึ้นโดยสังเคราะห์ แต่สำหรับ Mr. Doronichev มันเป็นสัญญาณที่น่ากังวล ในปีนี้ ความกลัวของเขาเข้าใกล้ความเป็นจริงมากขึ้น เมื่อบริษัทต่างๆ เริ่มแข่งขันกันเพื่อปรับปรุงและเผยแพร่เทคโนโลยีปัญญาประดิษฐ์ แม้ว่าความหายนะจะเกิดขึ้นก็ตาม
ขณะนี้ Generative AI พร้อมใช้งานสำหรับทุกคน และมีความสามารถมากขึ้นเรื่อยๆ ในการหลอกผู้คนด้วยข้อความ เสียง รูปภาพ และวิดีโอที่ดูเหมือนว่ามนุษย์คิดขึ้นและจับภาพได้ ความเสี่ยงจากความงมงายในสังคมทำให้เกิดความกังวลเกี่ยวกับการบิดเบือนข้อมูล การสูญเสียงาน การเลือกปฏิบัติ ความเป็นส่วนตัว และโทเปียในวงกว้าง
สำหรับผู้ประกอบการเช่น Mr. Doronichev ก็กลายเป็นโอกาสทางธุรกิจเช่นกัน ปัจจุบันมีบริษัทมากกว่า 12 แห่งเสนอเครื่องมือในการระบุว่าบางสิ่งถูกสร้างขึ้นด้วยปัญญาประดิษฐ์หรือไม่ โดยมีชื่ออย่างเช่น Sensity AI (การตรวจจับการปลอมอย่างลึกล้ำ), Fictitious.AI (การตรวจจับการลอกเลียนแบบ) และ Originality.AI (การลอกเลียนแบบเช่นกัน)
นาย Doronichev ชาวรัสเซียก่อตั้งบริษัทในซานฟรานซิสโกที่ชื่อว่า Optic เพื่อช่วยระบุวัสดุสังเคราะห์หรือวัสดุปลอมแปลง ซึ่งก็คือ “เครื่องเอ็กซ์เรย์สนามบินสำหรับเนื้อหาดิจิทัล” ตามคำพูดของเขา
ในเดือนมีนาคมเปิดตัว เว็บไซต์ ซึ่งผู้ใช้สามารถตรวจสอบภาพเพื่อดูว่าสร้างขึ้นจากภาพถ่ายจริงหรือปัญญาประดิษฐ์ กำลังทำงานกับบริการอื่นๆ เพื่อยืนยันวิดีโอและเสียง
“ความถูกต้องของเนื้อหากำลังจะกลายเป็นปัญหาใหญ่ของสังคมโดยรวม” นายโดโรนิเชฟ ผู้ลงทุนในแอปเปลี่ยนใบหน้าชื่อ Reface กล่าว “เรากำลังเข้าสู่ยุคของปลอมราคาถูก” เนื่องจากการผลิตเนื้อหาปลอมไม่มีค่าใช้จ่ายมากนัก เขากล่าวว่าสามารถทำได้ในปริมาณมาก
ตลาด AI กำเนิดโดยรวมคาดว่าจะเกิน 109 พันล้านดอลลาร์ภายในปี 2573 เติบโตเฉลี่ย 35.6 เปอร์เซ็นต์ต่อปีจนถึงตอนนั้น ตามรายงานของบริษัทวิจัยตลาด Grand View Research ธุรกิจที่เน้นการตรวจจับเทคโนโลยีเป็นส่วนหนึ่งที่เติบโตขึ้นของอุตสาหกรรม
หลายเดือนหลังจากสร้างโดยนักศึกษามหาวิทยาลัยพรินซ์ตัน GPTZero อ้างว่ามีผู้คนมากกว่าหนึ่งล้านคนใช้โปรแกรมนี้เพื่อค้นหาข้อความที่สร้างโดยคอมพิวเตอร์ Reality Defender เป็นหนึ่งในนั้น 414 บริษัท ได้รับเลือกจากแอปพลิเคชัน 17,000 รายการเพื่อรับทุนจาก Y Combinator สตาร์ทอัพเร่งความเร็วในฤดูหนาวนี้
การคัดลอกการรั่วไหล ระดมทุนได้ 7.75 ล้านดอลลาร์ในปีที่แล้ว ส่วนหนึ่งเพื่อขยายบริการต่อต้านการคัดลอกผลงานสำหรับโรงเรียนและมหาวิทยาลัย เพื่อตรวจจับปัญญาประดิษฐ์ในงานของนักเรียน ยามซึ่งเป็นผู้ก่อตั้งที่เชี่ยวชาญด้านการรักษาความปลอดภัยทางไซเบอร์และสงครามข้อมูลสำหรับกองทัพเรืออังกฤษและองค์การสนธิสัญญาป้องกันแอตแลนติกเหนือ ปิดการระดมทุน 1.5 ล้านดอลลาร์ในปี 2563 ซึ่งได้รับการสนับสนุนบางส่วนจากหนึ่งในวิศวกรผู้ก่อตั้งของ Skype เพื่อช่วยปกป้องประชาธิปไตยจากของปลอมและการสังเคราะห์ที่เป็นอันตรายอื่นๆ สื่อ
บริษัทเทคโนโลยีรายใหญ่ที่เกี่ยวข้อง: ของ Intel เฟคแคทเชอร์ อ้างว่าสามารถระบุวิดีโอ Deepfake ได้อย่างแม่นยำ 96 เปอร์เซ็นต์ ส่วนหนึ่งมาจากการวิเคราะห์พิกเซลเพื่อหาร่องรอยการไหลเวียนของเลือดบนใบหน้าของมนุษย์
ภายใน รัฐบาลกลางหน่วยงานโครงการวิจัยขั้นสูงกลาโหมวางแผนที่จะใช้จ่าย เกือบ 30 ล้านเหรียญ ในปีนี้จะเรียกใช้ Semantic Forensics ซึ่งเป็นโปรแกรมที่พัฒนาอัลกอริทึมเพื่อตรวจหา Deepfakes โดยอัตโนมัติและระบุว่าเป็นอันตรายหรือไม่
แม้แต่ OpenAI ซึ่งเพิ่มพลังให้ AI บูมเมื่อเปิดตัวเครื่องมือ ChatGPT เมื่อปลายปีที่แล้ว ก็กำลังทำงานเกี่ยวกับบริการตรวจจับ เปิดตัวบริษัทที่ตั้งอยู่ในซานฟรานซิสโก เครื่องมือฟรี ในเดือนมกราคมเพื่อช่วยแยกความแตกต่างระหว่างข้อความที่แต่งขึ้นโดยมนุษย์และข้อความที่เขียนโดยปัญญาประดิษฐ์
OpenAI เน้นว่าแม้ว่าเครื่องมือจะได้รับการปรับปรุงจากการทำซ้ำที่ผ่านมา แต่ก็ยัง “ไม่น่าเชื่อถืออย่างสมบูรณ์” เครื่องมือนี้ระบุข้อความที่สร้างขึ้นโดยปลอมได้ถูกต้องถึง 26 เปอร์เซ็นต์ แต่ตั้งค่าสถานะผิดพลาด 9 เปอร์เซ็นต์ของข้อความจากมนุษย์เมื่อคอมพิวเตอร์สร้างขึ้น
เครื่องมือ OpenAI มีข้อบกพร่องทั่วไปในโปรแกรมตรวจจับ: มีปัญหากับข้อความสั้นและการเขียนที่ไม่ใช่ภาษาอังกฤษ ในสถานศึกษา เครื่องมือตรวจจับการลอกเลียนแบบเช่น TurnItIn ถูกกล่าวหาว่า ไม่ถูกต้อง การจำแนกประเภท เรียงความที่เขียนโดยนักเรียนที่สร้างขึ้นโดยแชทบอท
เครื่องมือตรวจจับมักจะล้าหลังกว่าเทคโนโลยีกำเนิดที่พวกเขาพยายามตรวจจับ เมื่อถึงเวลาที่ระบบป้องกันสามารถจดจำการทำงานของแชทบอทหรือโปรแกรมสร้างรูปภาพใหม่ เช่น Google Bard หรือ Midjourney นักพัฒนาซอฟต์แวร์ก็กำลังคิดค้นการทำซ้ำใหม่ที่สามารถหลบเลี่ยงการป้องกันนั้นได้ สถานการณ์ดังกล่าวได้รับการอธิบายว่าเป็นการแข่งขันทางอาวุธหรือความสัมพันธ์ระหว่างไวรัสกับแอนตี้ไวรัสที่ฝ่ายหนึ่งให้กำเนิดอีกฝ่ายหนึ่งซ้ำแล้วซ้ำเล่า
Hany Farid ศาสตราจารย์ด้านวิทยาการคอมพิวเตอร์ของมหาวิทยาลัยกล่าวว่า “เมื่อ Midjourney ปล่อย Midjourney 5 ปืนสตาร์ทเตอร์ของฉันก็ดับลง และฉันก็เริ่มทำงานเพื่อตามให้ทัน และในขณะที่ฉันทำแบบนั้น พวกเขากำลังทำงานใน Midjourney 6” Hany Farid ศาสตราจารย์ด้านวิทยาการคอมพิวเตอร์ของมหาวิทยาลัยกล่าว แห่งแคลิฟอร์เนีย เบิร์กลีย์ ซึ่งเชี่ยวชาญด้านนิติวิทยาศาสตร์ดิจิทัล และยังมีส่วนร่วมในอุตสาหกรรมการตรวจจับด้วย AI “มันเป็นเกมที่มีศัตรูโดยเนื้อแท้อยู่แล้ว ซึ่งในขณะที่ฉันทำงานกับเครื่องตรวจจับ มีคนกำลังสร้างกับดักหนูที่ดีกว่า ซินธิไซเซอร์ที่ดีกว่า”
Joshua Tucker ศาสตราจารย์ด้านการเมืองที่ New York University และผู้อำนวยการร่วมของ Center for Social Media and Politics กล่าวว่า แม้จะมีการไล่ตามกันอย่างต่อเนื่อง แต่หลายบริษัทก็เห็นความต้องการการตรวจจับ AI จากโรงเรียนและนักการศึกษา เขาตั้งคำถามว่าตลาดที่คล้ายกันนี้จะเกิดขึ้นก่อนการเลือกตั้งในปี 2567 หรือไม่
“เราจะได้เห็นปีกคู่ขนานของบริษัทเหล่านี้ที่พัฒนาเพื่อช่วยปกป้องผู้สมัครรับเลือกตั้งเพื่อให้พวกเขารู้ว่าเมื่อใดที่พวกเขาตกเป็นเป้าของสิ่งเหล่านี้” เขากล่าว
ผู้เชี่ยวชาญกล่าวว่าวิดีโอที่สร้างขึ้นโดยสังเคราะห์นั้นค่อนข้างจะค่อนข้างเกะกะและง่ายต่อการระบุ แต่การโคลนเสียงและการสร้างภาพนั้นเป็นขั้นสูงทั้งคู่ การแยกของจริงออกจากของปลอมจะต้องใช้กลยุทธ์ทางนิติวิทยาศาสตร์ดิจิทัล เช่น การค้นหาภาพย้อนกลับและการติดตามที่อยู่ IP
โปรแกรมการตรวจจับที่มีอยู่กำลังได้รับการทดสอบด้วยตัวอย่างที่ “แตกต่างอย่างมากจากการเข้าไปในป่า ซึ่งภาพที่ได้รับการหมุนเวียนและได้รับการแก้ไข ครอบตัด ย่อขนาด แปลงรหัสและใส่คำอธิบายประกอบ และพระเจ้าทรงทราบว่ามีอะไรเกิดขึ้นกับพวกเขาอีกบ้าง” นายฟาริด กล่าว
“การฟอกเนื้อหานั้นทำให้เป็นงานหนัก” เขากล่าวเสริม
Content Authenticity Initiative ซึ่งเป็นกลุ่มบริษัทและองค์กรกว่า 1,000 แห่ง เป็นกลุ่มหนึ่งที่พยายามทำให้เทคโนโลยีสร้างสรรค์ชัดเจนตั้งแต่เริ่มแรก (นำโดย Adobe พร้อมด้วยสมาชิกเช่น The New York Times และผู้เล่นด้านปัญญาประดิษฐ์เช่น Stability AI) แทนที่จะปะติดปะต่อที่มาของภาพหรือวิดีโอในภายหลังในวงจรชีวิตของมัน กลุ่มพยายามสร้างมาตรฐานที่จะนำไปใช้ ข้อมูลรับรองที่ตรวจสอบย้อนกลับได้กับงานดิจิทัลเมื่อสร้าง
Adobe กล่าวเมื่อสัปดาห์ที่แล้วว่า Firefly เทคโนโลยีกำเนิดจะเป็น รวมเข้ากับ Google Bardซึ่งจะแนบ “ฉลากโภชนาการ” กับเนื้อหาที่ผลิต รวมถึงวันที่สร้างภาพและเครื่องมือดิจิทัลที่ใช้สร้าง
Jeff Sakasegawa สถาปนิกด้านความไว้วางใจและความปลอดภัยของ Persona ซึ่งเป็นบริษัทที่ช่วยยืนยันตัวตนของผู้บริโภค กล่าวว่าความท้าทายที่เกิดจากปัญญาประดิษฐ์เพิ่งเริ่มต้นขึ้นเท่านั้น
“คลื่นกำลังสร้างโมเมนตัม” เขากล่าว “มันกำลังมุ่งหน้าไปยังฝั่ง ฉันคิดว่ามันยังไม่พัง”