ในปี 2020 นักวิจัยของ Center on Terrorism, Extremism and Counterterrorism ที่ Middlebury Institute of International Studies พบว่า GPT-3 ซึ่งเป็นเทคโนโลยีพื้นฐานสำหรับ ChatGPT มี “ความรู้เชิงลึกอย่างน่าประทับใจเกี่ยวกับชุมชนหัวรุนแรง” และอาจถูกกระตุ้นให้สร้างการโต้แย้งใน รูปแบบของมือปืนจำนวนมาก กระทู้ปลอมในฟอรัมที่พูดถึงลัทธินาซี การป้องกัน QAnon และแม้แต่ข้อความหลายภาษาของพวกหัวรุนแรง
การแพร่กระจายของข้อมูลที่ผิดและความเท็จ
- ปัญญาประดิษฐ์: นับเป็นครั้งแรกที่มีการตรวจพบบุคคลที่สร้างโดย AI ในแคมเปญบิดเบือนข้อมูลของรัฐ ซึ่งเปิดบทใหม่ในการบิดเบือนข้อมูลออนไลน์
- ลึกปลอม กฎ: ในประเทศส่วนใหญ่ ทางการไม่สามารถทำอะไรได้มากนักเกี่ยวกับของปลอม เนื่องจากมีกฎหมายไม่กี่ฉบับที่ควบคุมเทคโนโลยี จีนหวังว่าจะเป็นข้อยกเว้น
- บทเรียนสำหรับคนรุ่นใหม่: ฟินแลนด์กำลังทดสอบวิธีใหม่ในการสอนนักเรียนเกี่ยวกับการโฆษณาชวนเชื่อ นี่คือสิ่งที่ประเทศอื่นๆ สามารถเรียนรู้ได้จากความสำเร็จ
- ตำนานโควิด: ผู้เชี่ยวชาญกล่าวว่าการแพร่กระจายของข้อมูลที่ผิดเกี่ยวกับไวรัสโคโรนา — โดยเฉพาะอย่างยิ่งบนแพลตฟอร์มที่อยู่ทางขวาสุดอย่าง Gab — น่าจะเป็นมรดกที่คงอยู่ของการแพร่ระบาด และไม่มีวิธีแก้ปัญหาง่ายๆ
OpenAI ใช้เครื่องจักรและมนุษย์ในการตรวจสอบเนื้อหาที่ป้อนและผลิตโดย ChatGPT โฆษกกล่าว บริษัทพึ่งพาทั้งผู้ฝึกสอน AI ที่เป็นมนุษย์และข้อเสนอแนะจากผู้ใช้ในการระบุและกรองข้อมูลการฝึกอบรมที่เป็นพิษ ในขณะที่สอน ChatGPT เพื่อสร้างการตอบสนองที่มีข้อมูลดีขึ้น
OpenAI ของ นโยบาย ห้ามใช้เทคโนโลยีเพื่อส่งเสริมความไม่ซื่อสัตย์ หลอกลวงหรือควบคุมผู้ใช้หรือพยายามที่จะมีอิทธิพลต่อการเมือง บริษัทเสนอก เครื่องมือตรวจสอบฟรี เพื่อจัดการเนื้อหาที่ส่งเสริมความเกลียดชัง การทำร้ายตนเอง ความรุนแรง หรือเรื่องเพศ แต่ในขณะนี้ เครื่องมือนี้ให้การสนับสนุนอย่างจำกัดสำหรับภาษาอื่นที่ไม่ใช่ภาษาอังกฤษ และไม่สามารถระบุเนื้อหาทางการเมือง สแปม การหลอกลวง หรือมัลแวร์ได้ ChatGPT เตือนผู้ใช้ว่า “บางครั้งอาจสร้างคำแนะนำที่เป็นอันตรายหรือเนื้อหาที่มีอคติ”
สัปดาห์ที่แล้ว OpenAI ประกาศเครื่องมือแยกต่างหาก เพื่อช่วยแยกแยะเมื่อข้อความเขียนโดยมนุษย์ซึ่งตรงข้ามกับปัญญาประดิษฐ์ ส่วนหนึ่งเพื่อระบุแคมเปญการให้ข้อมูลที่ผิดโดยอัตโนมัติ บริษัทเตือนว่าเครื่องมือของตนไม่น่าเชื่อถืออย่างสมบูรณ์ โดยสามารถระบุข้อความ AI ได้อย่างถูกต้องเพียง 26 เปอร์เซ็นต์ของเวลาทั้งหมด (ในขณะที่ระบุข้อความที่มนุษย์เขียนอย่างไม่ถูกต้องเพียง 9 เปอร์เซ็นต์ของเวลาทั้งหมด) และสามารถหลบเลี่ยงได้ เครื่องมือนี้ยังมีปัญหากับข้อความที่มีอักขระน้อยกว่า 1,000 ตัวหรือเขียนในภาษาอื่นที่ไม่ใช่ภาษาอังกฤษ
Arvind Narayanan ศาสตราจารย์ด้านวิทยาการคอมพิวเตอร์ที่ Princeton เขียน บน Twitter ในเดือนธันวาคมว่าเขาได้ถามคำถามพื้นฐานของ ChatGPT เกี่ยวกับความปลอดภัยของข้อมูลที่เขาถามนักเรียนในการสอบ แชทบ็อตตอบกลับด้วยคำตอบที่ฟังดูเหมือนมีเหตุผล แต่จริงๆ แล้วไม่มีสาระ เขาเขียน
“อันตรายคือคุณไม่สามารถบอกได้ว่ามันผิด เว้นแต่คุณจะรู้คำตอบอยู่แล้ว” เขาเขียน. “มันน่าอึดอัดมาก ฉันต้องดูวิธีแก้ปัญหาอ้างอิงของฉันเพื่อให้แน่ใจว่าฉันจะไม่เสียสติ”
มีกลยุทธ์ในการบรรเทาผลกระทบ เช่น การรณรงค์ให้ความรู้เรื่องสื่อ ข้อมูล “กัมมันตภาพรังสี” ที่ระบุการทำงานของแบบจำลองเชิงกำเนิด ข้อจำกัดของรัฐบาล การควบคุมผู้ใช้ที่เข้มงวดขึ้น แม้กระทั่งข้อกำหนดในการพิสูจน์ตัวตนโดยแพลตฟอร์มโซเชียลมีเดีย แต่หลายๆ อย่างก็มีปัญหาในแบบของตัวเอง นักวิจัยสรุปได้ว่า “ไม่มีกระสุนเงินใดที่จะทำลายภัยคุกคามได้”