ในสัปดาห์นี้ ทำเนียบขาวประกาศว่าได้รับ “คำมั่นสัญญาโดยสมัครใจ” จากบริษัท AI ชั้นนำ 7 แห่ง เพื่อจัดการความเสี่ยงที่เกิดจากปัญญาประดิษฐ์
การทำให้บริษัทต่างๆ — Amazon, Anthropic, Google, Inflection, Meta, Microsoft และ OpenAI — ตกลงในสิ่งใดสิ่งหนึ่งคือก้าวไปข้างหน้า พวกเขารวมถึงคู่แข่งที่ขมขื่นด้วยความแตกต่างที่ละเอียดอ่อนแต่สำคัญในแนวทางที่พวกเขาเข้าใกล้การวิจัยและพัฒนา AI
ตัวอย่างเช่น Meta มีความกระตือรือร้นอย่างมากที่จะให้โมเดล AI ของตนอยู่ในมือของนักพัฒนาซอฟต์แวร์ ซึ่งได้ทำให้โมเดลเหล่านี้เป็นแบบโอเพ่นซอร์สจำนวนมาก โดยนำโค้ดของพวกเขามาเผยแพร่เพื่อให้ทุกคนสามารถใช้งานได้ แล็บอื่นๆ เช่น Anthropic ได้ใช้แนวทางที่ระมัดระวังมากขึ้น โดยปล่อยเทคโนโลยีของตนในรูปแบบที่จำกัดมากขึ้น
แต่คำมั่นสัญญาเหล่านี้หมายถึงอะไรจริง ๆ ? และพวกเขามีแนวโน้มที่จะเปลี่ยนแปลงวิธีการทำงานของบริษัท AI ไปมากหรือไม่ เนื่องจากพวกเขาไม่ได้รับการสนับสนุนจากกฎหมาย
เนื่องจากข้อบังคับของ AI ที่อาจเป็นไปได้ รายละเอียดมีความสำคัญ ดังนั้น เรามาดูรายละเอียดเพิ่มเติมเกี่ยวกับสิ่งที่ตกลงร่วมกันที่นี่ และเพิ่มขนาดผลกระทบที่อาจเกิดขึ้น
ความมุ่งมั่นที่ 1: บริษัทต่างๆ ให้คำมั่นที่จะทดสอบความปลอดภัยทั้งภายในและภายนอกของระบบ AI ก่อนเปิดตัว
บริษัท AI เหล่านี้แต่ละแห่งทำการทดสอบความปลอดภัย — สิ่งที่มักเรียกว่า “เรดทีม” — ของโมเดลของตนก่อนที่จะเผยแพร่ ในระดับหนึ่ง นี่ไม่ใช่ข้อผูกมัดใหม่จริงๆ และเป็นคำสัญญาที่คลุมเครือ ไม่มีรายละเอียดมากมายเกี่ยวกับประเภทของการทดสอบที่จำเป็นหรือผู้ที่จะทำการทดสอบ
ใน แถลงการณ์ประกอบภาระผูกพันทำเนียบขาวกล่าวเพียงว่าการทดสอบแบบจำลอง AI “จะดำเนินการในบางส่วนโดยผู้เชี่ยวชาญอิสระ” และมุ่งเน้นไปที่ความเสี่ยงของ AI “เช่น ความปลอดภัยทางชีวภาพและความปลอดภัยทางไซเบอร์ ตลอดจนผลกระทบทางสังคมในวงกว้าง”
เป็นความคิดที่ดีที่จะให้บริษัท AI ยอมรับต่อสาธารณชนที่จะทำการทดสอบประเภทนี้ต่อไป และส่งเสริมความโปร่งใสมากขึ้นในกระบวนการทดสอบ และมีความเสี่ยงด้าน AI บางประเภท เช่น อันตรายที่แบบจำลอง AI สามารถนำมาใช้ในการพัฒนาอาวุธชีวภาพได้ ซึ่งเจ้าหน้าที่รัฐบาลและทหารน่าจะเหมาะสมกว่าบริษัทต่างๆ ในการประเมิน
ฉันชอบที่จะเห็นอุตสาหกรรม AI เห็นด้วยกับการทดสอบแบตเตอรี่มาตรฐานเพื่อความปลอดภัย เช่น การทดสอบ “การจำลองอัตโนมัติ” ที่ ศูนย์วิจัยการจัดตำแหน่ง ดำเนินการกับรุ่นก่อนวางจำหน่ายโดย OpenAI และ Anthropic นอกจากนี้ ฉันยังต้องการเห็นรัฐบาลให้ทุนสนับสนุนการทดสอบประเภทนี้ ซึ่งอาจมีราคาแพงและต้องใช้วิศวกรที่มีความเชี่ยวชาญด้านเทคนิคอย่างมาก ปัจจุบัน การทดสอบความปลอดภัยจำนวนมากได้รับทุนสนับสนุนและดูแลโดยบริษัทต่างๆ ซึ่งทำให้เกิดคำถามเกี่ยวกับผลประโยชน์ทับซ้อนที่ชัดเจน
พันธสัญญาที่ 2: บริษัทมุ่งมั่นที่จะแบ่งปันข้อมูลทั่วทั้งอุตสาหกรรมและกับรัฐบาล ภาคประชาสังคม และสถาบันการศึกษาในการจัดการความเสี่ยงด้าน AI
ความมุ่งมั่นนี้ยังค่อนข้างคลุมเครือ บริษัทเหล่านี้หลายแห่งได้เผยแพร่ข้อมูลเกี่ยวกับโมเดล AI ของตนแล้ว ซึ่งโดยปกติแล้วจะเป็นเอกสารทางวิชาการหรือบล็อกโพสต์ของบริษัท บางส่วนรวมถึง OpenAI และ Anthropic เผยแพร่เอกสารที่เรียกว่า “การ์ดระบบ” ซึ่งระบุขั้นตอนที่พวกเขาดำเนินการเพื่อทำให้โมเดลเหล่านั้นปลอดภัยยิ่งขึ้น
แต่พวกเขาก็ระงับข้อมูลในบางโอกาสโดยอ้างถึงปัญหาด้านความปลอดภัย เมื่อ OpenAI เปิดตัวโมเดล AI ล่าสุด GPT-4 ในปีนี้ หักกับศุลกากรอุตสาหกรรม และเลือกที่จะไม่เปิดเผยข้อมูลที่ได้รับการฝึกอบรมหรือขนาดของโมเดล (เมตริกที่เรียกว่า “พารามิเตอร์”) กล่าวว่าปฏิเสธที่จะเปิดเผยข้อมูลนี้เนื่องจากความกังวลเกี่ยวกับการแข่งขันและความปลอดภัย นอกจากนี้ยังเป็นข้อมูลประเภทหนึ่งที่บริษัทเทคโนโลยีต้องการหลีกเลี่ยงจากคู่แข่ง
ภายใต้ข้อผูกพันใหม่เหล่านี้ บริษัท AI จะถูกบังคับให้เปิดเผยข้อมูลดังกล่าวต่อสาธารณะหรือไม่? จะเกิดอะไรขึ้นหากการทำเช่นนั้นเสี่ยงต่อการเร่งการแข่งขันด้านอาวุธของ AI
ฉันสงสัยว่าเป้าหมายของทำเนียบขาวไม่ได้เกี่ยวกับการบังคับให้บริษัทต่างๆ เปิดเผยจำนวนพารามิเตอร์ของตน และอื่นๆ เกี่ยวกับการสนับสนุนให้พวกเขาแลกเปลี่ยนข้อมูลระหว่างกันเกี่ยวกับความเสี่ยงที่แบบจำลองของพวกเขาก่อขึ้น (หรือไม่)
แต่การแบ่งปันข้อมูลแบบนั้นก็อาจมีความเสี่ยงได้ หากทีม AI ของ Google ขัดขวางไม่ให้มีการใช้โมเดลใหม่เพื่อสร้างอาวุธชีวภาพที่มีอันตรายถึงชีวิตในระหว่างการทดสอบก่อนเผยแพร่จริง ทีมควรแชร์ข้อมูลดังกล่าวกับภายนอก Google หรือไม่ ความเสี่ยงนั้นจะทำให้นักแสดงที่ไม่ดีคิดว่าพวกเขาจะได้รับโมเดลที่ได้รับการปกป้องน้อยกว่าเพื่อทำงานเดียวกันได้อย่างไร?
คำมั่นสัญญาที่ 3: บริษัทต่างๆ ให้คำมั่นที่จะลงทุนในความปลอดภัยทางไซเบอร์และการป้องกันภัยคุกคามจากวงใน เพื่อปกป้องน้ำหนักแบบจำลองที่เป็นกรรมสิทธิ์และยังไม่ได้เผยแพร่
สิ่งนี้ค่อนข้างตรงไปตรงมาและไม่เป็นที่ถกเถียงในหมู่คนวงในของ AI ที่ฉันเคยคุยด้วย “น้ำหนักแบบจำลอง” เป็นคำศัพท์ทางเทคนิคสำหรับคำสั่งทางคณิตศาสตร์ที่ทำให้แบบจำลอง AI สามารถทำงานได้ Weights คือสิ่งที่คุณต้องการขโมยหากคุณเป็นตัวแทนของรัฐบาลต่างประเทศ (หรือบริษัทคู่แข่ง) ที่ต้องการสร้าง ChatGPT หรือผลิตภัณฑ์ AI อื่นในเวอร์ชันของคุณเอง และเป็นสิ่งที่บริษัท AI มีส่วนได้เสียในการควบคุมอย่างเข้มงวด
ได้มีการเผยแพร่ปัญหาเกี่ยวกับการรั่วไหลของน้ำหนักโมเดล น้ำหนักสำหรับโมเดลภาษา LLaMA ดั้งเดิมของ Meta เช่น รั่วไหลบน 4chan และเว็บไซต์อื่น ๆ เพียงไม่กี่วันหลังจากที่โมเดลเผยแพร่สู่สาธารณะ เมื่อพิจารณาถึงความเสี่ยงของการรั่วไหลมากขึ้น และความสนใจที่ประเทศอื่น ๆ อาจมีในการขโมยเทคโนโลยีนี้จากบริษัทของสหรัฐ การขอให้บริษัท AI ลงทุนเพิ่มในด้านความปลอดภัยของตนเองนั้นรู้สึกเหมือนไม่มีสมอง
พันธสัญญาที่ 4: บริษัทมุ่งมั่นที่จะอำนวยความสะดวกในการค้นพบบุคคลที่สามและการรายงานช่องโหว่ในระบบ AI ของตน
ฉันไม่แน่ใจจริงๆว่าหมายความว่าอย่างไร บริษัท AI ทุกแห่งค้นพบช่องโหว่ในโมเดลของตนหลังจากปล่อยช่องโหว่ดังกล่าว โดยปกติแล้วเป็นเพราะผู้ใช้พยายามทำสิ่งเลวร้ายกับโมเดลหรือหลีกเลี่ยงแนวป้องกัน (วิธีปฏิบัติที่เรียกว่า “การแหกคุก”) ในแบบที่บริษัทต่างๆ คาดไม่ถึง
ความมุ่งมั่นของทำเนียบขาวเรียกร้องให้บริษัทต่างๆ สร้าง “กลไกการรายงานที่มีประสิทธิภาพ” สำหรับช่องโหว่เหล่านี้ แต่ยังไม่ชัดเจนว่าอาจหมายถึงอะไร ปุ่มคำติชมในแอป คล้ายกับปุ่มที่ให้ผู้ใช้ Facebook และ Twitter รายงานโพสต์ที่ละเมิดกฎหรือไม่ โปรแกรมรางวัลบั๊กเช่นเดียวกับโปรแกรม OpenAI เริ่มต้นในปีนี้ เพื่อให้รางวัลแก่ผู้ใช้ที่พบข้อบกพร่องในระบบ? อื่น ๆ อีก? เราจะต้องรอรายละเอียดเพิ่มเติม
ความมุ่งมั่นที่ 5: บริษัทต่างๆ มุ่งมั่นที่จะพัฒนากลไกทางเทคนิคที่แข็งแกร่งเพื่อให้แน่ใจว่าผู้ใช้ทราบว่าเมื่อใดที่เนื้อหาถูกสร้างขึ้นโดย AI เช่น ระบบลายน้ำ
นี่เป็นแนวคิดที่น่าสนใจ แต่ยังมีช่องว่างให้ตีความอีกมาก จนถึงตอนนี้ บริษัทด้าน AI ได้พยายามคิดค้นเครื่องมือที่ช่วยให้ผู้คนสามารถบอกได้ว่าพวกเขากำลังดูเนื้อหาที่สร้างโดย AI หรือไม่ มีเหตุผลทางเทคนิคที่ดีสำหรับเรื่องนี้ แต่เป็นปัญหาจริงเมื่อผู้คนสามารถส่งต่องานที่สร้างโดย AI เป็นของตัวเองได้ (ถามครูโรงเรียนมัธยมใดก็ได้) และปัจจุบันมีเครื่องมือมากมายที่ได้รับการส่งเสริมว่าสามารถตรวจจับผลลัพธ์ของ AI ไม่สามารถทำได้จริง ๆ ด้วยความแม่นยำระดับใด
ฉันไม่ได้มองโลกในแง่ดีว่าปัญหานี้สามารถแก้ไขได้อย่างเต็มที่ แต่ฉันดีใจที่บริษัทต่างๆ
ข้อผูกพันที่ 6: บริษัทต่างๆ ให้คำมั่นที่จะรายงานความสามารถ ข้อจำกัด และพื้นที่การใช้งานที่เหมาะสมและไม่เหมาะสมของระบบ AI ต่อสาธารณะ
อีกหนึ่งคำมั่นสัญญาที่สมเหตุสมผลพร้อมห้องเลื้อยมากมาย บริษัทต่างๆ จะต้องรายงานเกี่ยวกับความสามารถและข้อจำกัดของระบบบ่อยแค่ไหน? ข้อมูลนั้นจะต้องละเอียดแค่ไหน? และเนื่องจากหลายบริษัทที่สร้างระบบ AI ต่างประหลาดใจกับความสามารถของระบบของตนเองหลังจากความจริงแล้ว พวกเขาคาดหวังให้อธิบายล่วงหน้าได้ดีเพียงใด
พันธสัญญาที่ 7: บริษัทต่างๆ ให้คำมั่นที่จะจัดลำดับความสำคัญของการวิจัยเกี่ยวกับความเสี่ยงทางสังคมที่ระบบ AI สามารถก่อได้ รวมถึงการหลีกเลี่ยงอคติที่เป็นอันตรายและการเลือกปฏิบัติ และการปกป้องความเป็นส่วนตัว
ความมุ่งมั่นในการ “จัดลำดับความสำคัญของการวิจัย” เป็นเรื่องที่คลุมเครือพอ ๆ กับความมุ่งมั่นที่ได้รับ ถึงกระนั้น ฉันแน่ใจว่าคำมั่นสัญญานี้จะได้รับการตอบรับอย่างดีจากกลุ่มคนจำนวนมากในจริยธรรมของ AI ซึ่งต้องการให้บริษัท AI ดำเนินการป้องกันอันตรายในระยะสั้น เช่น อคติและการเลือกปฏิบัติ ซึ่งมีความสำคัญมากกว่าการกังวลเกี่ยวกับสถานการณ์วันโลกาวินาศ เช่นเดียวกับที่เจ้าหน้าที่ด้านความปลอดภัยของ AI ทำ
หากคุณสับสนในความแตกต่างระหว่าง “จริยธรรมของ AI” และ “ความปลอดภัยของ AI” ให้รู้ว่ามีความขัดแย้งกัน 2 ฝ่ายในชุมชนการวิจัย AI ซึ่งแต่ละฝ่ายคิดว่าอีกฝ่ายมุ่งเน้นที่การป้องกันอันตรายประเภทที่ไม่ถูกต้อง
ความมุ่งมั่นที่ 8: บริษัทต่างๆ มุ่งมั่นที่จะพัฒนาและปรับใช้ระบบ AI ขั้นสูงเพื่อช่วยจัดการกับความท้าทายที่ยิ่งใหญ่ที่สุดของสังคม
ฉันไม่คิดว่าหลายคนจะโต้แย้งว่า AI ขั้นสูงควรทำ ไม่ ถูกนำมาใช้เพื่อช่วยจัดการกับความท้าทายที่ยิ่งใหญ่ที่สุดของสังคม ทำเนียบขาวระบุรายการ “การป้องกันมะเร็ง” และ “การบรรเทาการเปลี่ยนแปลงสภาพภูมิอากาศ” เป็นสองประเด็นที่อยากให้บริษัท AI ให้ความสำคัญกับความพยายามของพวกเขา และจะไม่ได้รับความขัดแย้งจากฉันที่นั่น
สิ่งที่ทำให้เป้าหมายนี้ค่อนข้างซับซ้อนก็คือ ในการวิจัยของ AI สิ่งที่เริ่มดูไม่สำคัญมักมีนัยยะที่ร้ายแรงกว่า เทคโนโลยีบางอย่างที่เข้าสู่ AlphaGo ของ DeepMind ซึ่งเป็นระบบ AI ที่ได้รับการฝึกฝนให้เล่นเกมกระดาน Go กลับกลายเป็นประโยชน์ในการทำนายโครงสร้างสามมิติของโปรตีน ซึ่งเป็นการค้นพบครั้งสำคัญที่ส่งเสริมการวิจัยทางวิทยาศาสตร์ขั้นพื้นฐาน
โดยรวมแล้ว ข้อตกลงของทำเนียบขาวกับบริษัท AI ดูเหมือนจะเป็นสัญลักษณ์มากกว่าสาระสำคัญ ไม่มีกลไกการบังคับใช้เพื่อให้แน่ใจว่าบริษัทต่างๆ ปฏิบัติตามพันธกรณีเหล่านี้ และหลายข้อสะท้อนถึงมาตรการป้องกันที่บริษัท AI กำลังดำเนินการอยู่แล้ว
ยังคงเป็นก้าวแรกที่สมเหตุสมผล และการยอมทำตามกฎเหล่านี้แสดงให้เห็นว่าบริษัท AI ได้เรียนรู้จากความล้มเหลวของบริษัทเทคโนโลยีรุ่นก่อน ๆ ซึ่งรอที่จะมีส่วนร่วมกับรัฐบาลจนกระทั่งพวกเขาประสบปัญหา ในวอชิงตัน อย่างน้อยที่สุดก็เกี่ยวข้องกับกฎระเบียบด้านเทคโนโลยี การปรากฏตัวก่อนเวลาก็ต้องจ่าย