ในช่วงปลายเดือนมีนาคม ผู้นำด้านเทคโนโลยี นักวิจัย และผู้เชี่ยวชาญด้านปัญญาประดิษฐ์มากกว่า 1,000 คนที่ทำงานเกี่ยวกับปัญญาประดิษฐ์และรอบด้านได้ลงนามในจดหมายเปิดผนึกเตือนว่าเทคโนโลยี AI นำเสนอ “ความเสี่ยงอย่างร้ายแรงต่อสังคมและมนุษยชาติ”
กลุ่มซึ่งรวมถึง Elon Musk ผู้บริหารระดับสูงของ Tesla และเจ้าของ Twitter เรียกร้องให้ห้องปฏิบัติการ AI หยุดการพัฒนาระบบที่ทรงพลังที่สุดเป็นเวลาหกเดือนเพื่อให้เข้าใจถึงอันตรายเบื้องหลังเทคโนโลยีได้ดีขึ้น
“ระบบ AI ที่ทรงพลังควรได้รับการพัฒนาก็ต่อเมื่อเรามั่นใจว่าผลกระทบของมันจะเป็นไปในเชิงบวก และความเสี่ยงของมันจะถูกจัดการได้” จดหมายระบุ
จดหมายซึ่งขณะนี้มีลายเซ็นมากกว่า 27,000 ฉบับนั้นสั้น ภาษาของมันกว้าง และบางชื่อที่อยู่เบื้องหลังจดหมายดูเหมือนจะมีความสัมพันธ์ที่ขัดแย้งกับ AI เช่น นาย Musk กำลังสร้างธุรกิจสตาร์ทอัพด้าน AI ของตัวเอง และเขาเป็นหนึ่งในผู้บริจาคหลักให้กับองค์กรที่เขียนจดหมายฉบับนี้
แต่จดหมายดังกล่าวแสดงถึงความกังวลที่เพิ่มขึ้นในหมู่ผู้เชี่ยวชาญด้าน AI ว่าระบบล่าสุด โดยเฉพาะ GPT-4 ซึ่งเป็นเทคโนโลยีที่เปิดตัวโดย OpenAI ในซานฟรานซิสโก อาจก่อให้เกิดอันตรายต่อสังคมได้ พวกเขาเชื่อว่าระบบในอนาคตจะอันตรายมากยิ่งขึ้น
ความเสี่ยงบางอย่างมาถึงแล้ว คนอื่นจะไม่เป็นเดือนหรือเป็นปี ส่วนอื่นๆ เป็นเพียงเรื่องสมมุติเท่านั้น
Yoshua Bengio ศาสตราจารย์และนักวิจัยด้าน AI จากมหาวิทยาลัยมอนทรีออล กล่าวว่า “ความสามารถของเราในการทำความเข้าใจสิ่งที่อาจผิดพลาดได้กับระบบ AI ที่ทรงพลังมากนั้นอ่อนแอมาก “ดังนั้นเราต้องระวังให้มาก”
ทำไมพวกเขาถึงกังวล?
ดร. Bengio อาจเป็นบุคคลที่สำคัญที่สุดในการลงนามในจดหมาย
ทำงานร่วมกับนักวิชาการอีกสองคน — Geoffrey Hinton จนกระทั่งเมื่อไม่นานมานี้เป็นนักวิจัยที่ Google และ Yann LeCun ซึ่งปัจจุบันเป็นหัวหน้านักวิทยาศาสตร์ AI ที่ Meta และเป็นเจ้าของ Facebook — Dr. Bengio ใช้เวลาสี่ทศวรรษที่ผ่านมาในการพัฒนาเทคโนโลยีที่ขับเคลื่อนระบบต่างๆ เช่น GPT-4 . ในปี 2018 นักวิจัยได้รับรางวัล Turing Award ซึ่งมักเรียกกันว่า “รางวัลโนเบลสาขาคอมพิวเตอร์” จากผลงานเกี่ยวกับโครงข่ายประสาทเทียม
โครงข่ายประสาทเทียมเป็นระบบทางคณิตศาสตร์ที่เรียนรู้ทักษะโดยการวิเคราะห์ข้อมูล ประมาณห้าปีที่แล้ว บริษัทต่างๆ เช่น Google, Microsoft และ OpenAI เริ่มสร้างโครงข่ายประสาทเทียมที่เรียนรู้จากข้อความดิจิทัลจำนวนมากที่เรียกว่า โมเดลภาษาขนาดใหญ่ หรือ LLM
ด้วยการระบุรูปแบบในข้อความนั้น LLMs เรียนรู้ที่จะสร้างข้อความด้วยตนเอง รวมถึงบล็อกโพสต์ บทกวี และโปรแกรมคอมพิวเตอร์ พวกเขายังสามารถสนทนาต่อไปได้
เทคโนโลยีนี้สามารถช่วยให้ผู้เขียนโปรแกรมคอมพิวเตอร์ นักเขียน และผู้ปฏิบัติงานคนอื่นๆ สร้างแนวคิดและทำสิ่งต่างๆ ได้รวดเร็วยิ่งขึ้น แต่ดร. Bengio และผู้เชี่ยวชาญคนอื่น ๆ ยังเตือนว่า LLM สามารถเรียนรู้พฤติกรรมที่ไม่พึงประสงค์และไม่คาดคิดได้
ระบบเหล่านี้สามารถสร้างข้อมูลที่ไม่เป็นความจริง มีอคติและเป็นพิษได้ ระบบเช่น GPT-4 ให้ข้อมูลผิดๆ และสร้างปรากฏการณ์ที่เรียกว่า “ภาพหลอน”
บริษัทต่างๆ กำลังแก้ไขปัญหาเหล่านี้อยู่ แต่ผู้เชี่ยวชาญอย่าง Dr. Bengio กังวลว่าเมื่อนักวิจัยทำให้ระบบเหล่านี้มีประสิทธิภาพมากขึ้น พวกเขาจะนำเสนอความเสี่ยงใหม่ๆ
ความเสี่ยงระยะสั้น: การบิดเบือนข้อมูล
เนื่องจากระบบเหล่านี้ให้ข้อมูลที่ดูเหมือนมีความมั่นใจเต็มเปี่ยม จึงอาจเป็นเรื่องยากที่จะแยกความจริงออกจากเรื่องแต่งเมื่อใช้งาน ผู้เชี่ยวชาญกังวลว่าผู้คนจะพึ่งพาระบบเหล่านี้สำหรับคำแนะนำทางการแพทย์ การสนับสนุนทางอารมณ์ และข้อมูลดิบที่พวกเขาใช้ในการตัดสินใจ
Subbarao Kambhampati ศาสตราจารย์ด้านวิทยาการคอมพิวเตอร์แห่ง Arizona State University กล่าวว่า “ไม่มีการรับประกันว่าระบบเหล่านี้จะถูกต้องในทุกงานที่คุณมอบให้”
ผู้เชี่ยวชาญยังกังวลว่าผู้คนจะใช้ระบบเหล่านี้ในทางที่ผิดเพื่อเผยแพร่ข้อมูลที่ผิด เนื่องจากพวกเขาสามารถสนทนาในลักษณะที่เหมือนมนุษย์ได้ จึงสามารถโน้มน้าวใจได้อย่างน่าประหลาดใจ
“ตอนนี้เรามีระบบที่สามารถโต้ตอบกับเราผ่านภาษาธรรมชาติ และเราไม่สามารถแยกแยะของจริงออกจากของปลอมได้” ดร. เบงจิโอกล่าว
ความเสี่ยงระยะกลาง: การสูญเสียงาน
ผู้เชี่ยวชาญกังวลว่า AI ใหม่อาจเป็นตัวทำลายงาน ปัจจุบัน เทคโนโลยีอย่าง GPT-4 มีแนวโน้มที่จะช่วยเสริมการทำงานของมนุษย์ แต่ OpenAI ยอมรับว่าพวกเขาสามารถแทนที่พนักงานบางคนได้ รวมถึงคนที่ดูแลเนื้อหาบนอินเทอร์เน็ต
พวกเขายังไม่สามารถลอกเลียนแบบงานของนักกฎหมาย นักบัญชี หรือแพทย์ได้ แต่พวกเขาสามารถแทนที่นักกฎหมายชุมชน ผู้ช่วยส่วนตัว และนักแปลได้
บทความที่เขียนโดยนักวิจัย OpenAI ประมาณว่าร้อยละ 80 ของแรงงานในสหรัฐอาจมีงานอย่างน้อยร้อยละ 10 ที่ได้รับผลกระทบจาก LLM และพนักงานร้อยละ 19 อาจเห็นว่างานของตนได้รับผลกระทบอย่างน้อยร้อยละ 50
Oren Etzioni ประธานเจ้าหน้าที่บริหารผู้ก่อตั้งสถาบัน Allen Institute for AI ซึ่งเป็นห้องปฏิบัติการวิจัยในซีแอตเทิลกล่าวว่า “มีข้อบ่งชี้ว่างานเดิมๆ จะหายไป”
ความเสี่ยงระยะยาว: การสูญเสียการควบคุม
บางคนที่ลงนามในจดหมายยังเชื่อว่าปัญญาประดิษฐ์สามารถเล็ดลอดออกไปนอกเหนือการควบคุมของเราหรือทำลายมนุษยชาติได้ แต่ผู้เชี่ยวชาญหลายคนบอกว่ามันมากเกินไป
จดหมายฉบับนี้เขียนโดยกลุ่มจาก Future of Life Institute ซึ่งเป็นองค์กรที่อุทิศตนเพื่อสำรวจความเสี่ยงที่มีอยู่ต่อมนุษยชาติ พวกเขาเตือนว่าเนื่องจากระบบ AI มักจะเรียนรู้พฤติกรรมที่ไม่คาดคิดจากข้อมูลจำนวนมหาศาลที่พวกเขาวิเคราะห์ จึงอาจทำให้เกิดปัญหาร้ายแรงที่คาดไม่ถึงได้
พวกเขากังวลว่าเมื่อบริษัทต่างๆ เสียบ LLM เข้ากับบริการอินเทอร์เน็ตอื่นๆ ระบบเหล่านี้อาจได้รับพลังที่คาดไม่ถึง เพราะพวกเขาสามารถเขียนรหัสคอมพิวเตอร์ของตนเองได้ พวกเขากล่าวว่านักพัฒนาจะสร้างความเสี่ยงใหม่หากพวกเขาอนุญาตให้ระบบ AI ที่ทรงพลังเรียกใช้โค้ดของตนเอง
Anthony Aguirre นักทฤษฎีจักรวาลวิทยาและนักฟิสิกส์แห่งมหาวิทยาลัยแคลิฟอร์เนีย เมืองซานตาครูซ และผู้ร่วมก่อตั้ง The Future of กล่าวว่า “ถ้าคุณดูการคาดคะเนอย่างตรงไปตรงมาว่าตอนนี้เราอยู่ที่ไหนถึง 3 ปีนับจากนี้ สิ่งต่างๆ ค่อนข้างแปลก” สถาบันชีวิต.
“ถ้าคุณใช้สถานการณ์ที่มีความเป็นไปได้น้อย — ที่ซึ่งสิ่งต่าง ๆ ดำเนินไปจริง ๆ ที่ซึ่งไม่มีธรรมาภิบาลจริง ๆ ที่ซึ่งระบบเหล่านี้มีประสิทธิภาพมากกว่าที่เราคิดว่าจะเป็น — เมื่อนั้นสิ่งต่าง ๆ ก็จะบ้าจริง ๆ” เขากล่าว
ดร. Etzioni กล่าวว่าการพูดถึงความเสี่ยงที่มีอยู่เป็นเรื่องสมมุติ แต่เขากล่าวว่าความเสี่ยงอื่น ๆ – โดยเฉพาะอย่างยิ่งการบิดเบือนข้อมูล – ไม่ใช่การเก็งกำไรอีกต่อไป
“ตอนนี้เรามีปัญหาจริงๆ” เขากล่าว “พวกเขาซื่อสัตย์ พวกเขาต้องการปฏิกิริยาที่มีความรับผิดชอบ พวกเขาอาจต้องการกฎระเบียบและกฎหมาย”