Home » อะไรทำให้ Chatbots ‘ประสาทหลอน’ หรือพูดในสิ่งที่ผิด

อะไรทำให้ Chatbots ‘ประสาทหลอน’ หรือพูดในสิ่งที่ผิด

โดย admin
0 ความคิดเห็น

ในจดหมายข่าว AI ของวันนี้ ตอนที่สามของซีรีส์ห้าตอนฉันพูดถึงบางวิธีที่แชทบอทสามารถทำงานผิดพลาดได้

ไม่กี่ชั่วโมงหลังจากจดหมายข่าวเมื่อวานนี้ออกไป กลุ่มผู้เชี่ยวชาญด้านปัญญาประดิษฐ์และผู้นำด้านเทคโนโลยี ซึ่งรวมถึง Elon Musk ได้เรียกร้องให้ห้องปฏิบัติการ AI หยุดการทำงานในระบบที่ทันสมัยที่สุดของตนชั่วคราว โดยเตือนว่าพวกเขานำเสนอ “ความเสี่ยงอย่างร้ายแรงต่อสังคมและมนุษยชาติ”

กลุ่มเรียกร้องให้หยุดระบบชั่วคราวหกเดือนที่ทรงพลังกว่า GPT-4 ซึ่งเปิดตัวในเดือนนี้โดย OpenAI ซึ่ง Mr. Musk เป็นผู้ร่วมก่อตั้ง การหยุดชั่วคราวจะทำให้มีเวลาที่จะใช้ “โปรโตคอลความปลอดภัยที่ใช้ร่วมกัน” กลุ่มกล่าวในจดหมายเปิดผนึก “หากไม่สามารถประกาศใช้การหยุดชั่วคราวได้เร็ว รัฐบาลควรเข้ามาดำเนินการและประกาศเลื่อนการชำระหนี้”

ผู้เชี่ยวชาญหลายคนไม่เห็นด้วยเกี่ยวกับความรุนแรงของความเสี่ยงที่อ้างถึงในจดหมาย และเราจะสำรวจบางส่วนในสัปดาห์นี้ แต่ความผิดพลาดของ AI จำนวนหนึ่งได้เกิดขึ้นแล้ว ฉันจะใช้จดหมายข่าวของวันนี้เพื่ออธิบายว่าเกิดขึ้นได้อย่างไร

ในช่วงต้นเดือนกุมภาพันธ์ Google ได้เปิดตัว Chatbot ใหม่ Bard ซึ่งตอบคำถามเกี่ยวกับกล้องโทรทรรศน์อวกาศ James Webb มีปัญหาเพียงอย่างเดียว: หนึ่งในคำกล่าวอ้างของบอทที่ว่ากล้องโทรทรรศน์จับภาพดาวเคราะห์นอกระบบสุริยะได้เป็นครั้งแรกนั้นไม่เป็นความจริงเลย

บอทเช่น Bard และ ChatGPT ของ OpenAI ส่งข้อมูลด้วยความคล่องแคล่วจนน่าตกใจ แต่พวกเขายังพูดเรื่องเท็จที่น่าเชื่อถือ หรือทำสิ่งที่น่าขนลุกอย่างมาก เช่น ยืนกรานว่าพวกเขาหลงรักนักข่าวของ New York Times

เป็นไปได้อย่างไร?

ในอดีต บริษัทเทคโนโลยีได้กำหนดลักษณะการทำงานของซอฟต์แวร์อย่างระมัดระวัง โดยเขียนโค้ดทีละบรรทัด ขณะนี้ พวกเขากำลังออกแบบแชทบอทและเทคโนโลยีอื่นๆ ที่เรียนรู้ทักษะด้วยตนเอง โดยการระบุรูปแบบทางสถิติในข้อมูลจำนวนมหาศาล

ข้อมูลส่วนใหญ่มาจากเว็บไซต์อย่าง Wikipedia และ Reddit อินเทอร์เน็ตเต็มไปด้วยข้อมูลที่เป็นประโยชน์ ตั้งแต่ข้อเท็จจริงทางประวัติศาสตร์ไปจนถึงคำแนะนำทางการแพทย์ แต่ก็ยังเต็มไปด้วยความไม่จริง คำพูดแสดงความเกลียดชัง และขยะอื่นๆ Chatbots ดูดซับทุกอย่าง ทั้งแบบชัดแจ้งและโดยนัย อคติ จากข้อความที่พวกเขาดูดซับ

และเนื่องจากวิธีที่น่าแปลกใจที่พวกเขาผสมและจับคู่สิ่งที่ได้เรียนรู้เพื่อสร้างข้อความใหม่ทั้งหมด พวกเขาจึงมักสร้างภาษาที่น่าเชื่อถือซึ่งผิดเพี้ยนไปโดยสิ้นเชิง หรือไม่มีอยู่ในข้อมูลการฝึกอบรม นักวิจัย AI เรียกแนวโน้มนี้ว่า “ภาพหลอน” ซึ่งอาจรวมถึงคำตอบที่ไม่เกี่ยวข้อง ไร้สาระ หรือไม่ถูกต้องตามข้อเท็จจริง

เราเห็นผลจริงของการหลอนด้วย AI แล้ว Stack Overflow ไซต์คำถามและคำตอบสำหรับโปรแกรมเมอร์ ห้ามผู้ใช้ชั่วคราวไม่ให้ส่งคำตอบที่สร้างขึ้นด้วย ChatGPTเนื่องจากแชทบอททำให้มันง่ายเกินไปที่จะส่งคำตอบที่น่าเชื่อถือแต่ไม่ถูกต้อง

“ระบบเหล่านี้อยู่ในโลกของภาษา” Melanie Mitchell นักวิจัย AI แห่งสถาบันซานตาเฟกล่าว “โลกนั้นให้เงื่อนงำบางอย่างแก่พวกเขาว่าอะไรจริงอะไรไม่จริง แต่ภาษาที่พวกเขาเรียนรู้นั้นไม่ได้มาจากความเป็นจริง พวกเขาไม่จำเป็นต้องรู้ว่าสิ่งที่พวกเขาสร้างขึ้นนั้นจริงหรือเท็จ”

(เมื่อเราถาม Bing เกี่ยวกับตัวอย่างของแชทบอทที่ทำให้ประสาทหลอน คำตอบนั้นทำให้ประสาทหลอนจริงๆ)

คิดว่าแชทบอทเป็นนักดนตรีแจ๊ส พวกเขาสามารถแยกแยะข้อมูลจำนวนมหาศาลได้ เช่น เพลงทุกเพลงที่เคยเขียนขึ้น จากนั้นจึงวิเคราะห์ผลลัพธ์ พวกเขามีความสามารถในการต่อความคิดเข้าด้วยกันในรูปแบบที่สร้างสรรค์และน่าประหลาดใจ แต่พวกเขายังเล่นโน้ตผิดด้วยความมั่นใจอย่างแท้จริง

บางครั้งไวด์การ์ดไม่ใช่ซอฟต์แวร์ มันคือพวกมนุษย์

เรามักจะเห็นรูปแบบที่ไม่ได้มีอยู่จริงและ สมมติลักษณะและอารมณ์ที่เหมือนมนุษย์ในหน่วยงานที่ไม่ใช่มนุษย์. สิ่งนี้เรียกว่า มานุษยวิทยา. เมื่อสุนัขสบตาเรา เรามักจะคิดว่ามันฉลาดกว่าที่เป็นจริง นั่นเป็นเพียงวิธีการทำงานของจิตใจของเรา

และเมื่อคอมพิวเตอร์เริ่มรวมคำเข้าด้วยกันเหมือนที่เราทำ เราจะเข้าใจผิดว่าคอมพิวเตอร์สามารถให้เหตุผล เข้าใจ และแสดงอารมณ์ได้ เรายังสามารถประพฤติตนในทางที่คาดเดาไม่ได้อีกด้วย (ปีที่แล้ว Google ให้วิศวกรลางานโดยได้รับค่าจ้างหลังจากปฏิเสธคำกล่าวอ้างที่ว่า AI ของตนมีความรู้สึก และต่อมาเขาถูกไล่ออก)

ยิ่งการสนทนาดำเนินไปนานเท่าใด คุณก็ยิ่งมีอิทธิพลต่อสิ่งที่แบบจำลองภาษาขนาดใหญ่กำลังพูดมากขึ้นเท่านั้น การสนทนาที่น่าอับอายของเควินกับ Bing เป็นตัวอย่างที่ดีโดยเฉพาะ หลังจากนั้นไม่นาน แชทบอทสามารถเริ่มสะท้อนความคิดและเป้าหมายของคุณได้ ตามที่นักวิจัยอย่าง Terry Sejnowski ผู้บุกเบิกด้าน AI กล่าว หากคุณกระตุ้นให้มันน่าขนลุก มันก็น่าขนลุก

เขาเปรียบเทียบเทคโนโลยีกับ กระจกแห่งเอริเซดสิ่งประดิษฐ์ลึกลับในนวนิยายและภาพยนตร์แฮร์รี่ พอตเตอร์ “มันให้ทุกสิ่งที่คุณกำลังมองหา ไม่ว่าคุณต้องการหรือคาดหวังหรือปรารถนา” ดร. Sejnowski กล่าว “เนื่องจากทั้งมนุษย์และ LLM ต่างสะท้อนภาพซึ่งกันและกัน เมื่อเวลาผ่านไป พวกเขาจะมีแนวโน้มที่จะมีแนวคิดเดียวกัน”

บริษัทต่างๆ เช่น Google, Microsoft และ OpenAI กำลังทำงานเพื่อแก้ปัญหาเหล่านี้

OpenAI ทำงานเพื่อปรับแต่งแชทบอทโดยใช้ คำติชมจากผู้ทดสอบมนุษย์. การใช้เทคนิคที่เรียกว่าการเรียนรู้แบบเสริมแรง ทำให้ระบบมีความเข้าใจที่ดีขึ้นว่าอะไรควรและไม่ควรทำ

ในส่วนของ Microsoft ได้จำกัดความยาวของการสนทนาด้วย Bing chatbot นอกจากนี้ยังเป็น การแก้ไขช่องโหว่ ที่ผู้ใช้ผู้กล้าหาญได้ระบุ แต่การแก้ไขอาการสะอึกทุกครั้งเป็นเรื่องยากหากไม่สามารถทำได้

ใช่ ถ้าคุณฉลาด คุณน่าจะเกลี้ยกล่อมให้ระบบเหล่านี้ทำสิ่งที่น่ารังเกียจหรือน่าขนลุกได้ นักแสดงที่ไม่ดีก็เช่นกัน: ความกังวลในหมู่ผู้เชี่ยวชาญจำนวนมากคือบอทเหล่านี้จะทำให้นักต้มตุ๋นทางอินเทอร์เน็ต นักการตลาดที่ไร้ยางอาย และรัฐชาติที่เป็นศัตรูสามารถเผยแพร่ข้อมูลที่บิดเบือนและก่อให้เกิดปัญหาประเภทอื่นๆ ได้

ขณะที่คุณใช้แชทบอทเหล่านี้ จงอย่าสงสัย ลองดูที่พวกเขาสำหรับสิ่งที่พวกเขาเป็นจริง

พวกเขาไม่มีความรู้สึกหรือมีสติสัมปชัญญะ พวกเขามีความฉลาดในบางอย่าง แต่ก็โง่เขลาในบางอย่าง จำไว้ว่าพวกเขาสามารถทำอะไรผิดพลาดได้ จำไว้ว่าพวกเขาสามารถสร้างสิ่งต่าง ๆ ได้

แต่ในแง่ดี ยังมีสิ่งอื่นๆ อีกมากมายที่ระบบเหล่านี้ดีมาก เควินจะมีมากขึ้นในวันพรุ่งนี้

ถาม ChatGPT หรือ บิง เพื่ออธิบายบางสิ่งที่คุณรู้มากแล้ว คำตอบนั้นถูกต้องหรือไม่?

หากคุณได้รับคำตอบที่น่าสนใจ ถูกหรือผิด คุณสามารถแบ่งปันได้ในความคิดเห็น


คำถามที่ 1 จาก 3

เริ่มแบบทดสอบโดยเลือกคำตอบของคุณ


ภาพหลอน: ปรากฏการณ์ที่รู้จักกันดีในโมเดลภาษาขนาดใหญ่ ซึ่งระบบให้คำตอบที่ไม่ถูกต้อง ไม่เกี่ยวข้อง หรือไร้สาระ เนื่องจากข้อจำกัดในข้อมูลการฝึกอบรมและสถาปัตยกรรม

อคติ: ประเภทของข้อผิดพลาดที่สามารถเกิดขึ้นได้ในโมเดลภาษาขนาดใหญ่ หากเอาต์พุตคลาดเคลื่อนจากข้อมูลการฝึกของโมเดล ตัวอย่างเช่น นางแบบอาจเชื่อมโยงลักษณะหรืออาชีพเฉพาะกับเชื้อชาติหรือเพศบางอย่าง ซึ่งนำไปสู่การคาดคะเนที่ไม่ถูกต้องและการตอบสนองที่ไม่เหมาะสม

มานุษยวิทยา: แนวโน้มที่ผู้คนจะระบุคุณสมบัติหรือคุณลักษณะที่เหมือนมนุษย์ให้กับ AI chatbot ตัวอย่างเช่น คุณอาจคิดว่ามันใจดีหรือโหดร้ายจากคำตอบของมัน แม้ว่ามันจะไม่สามารถแสดงอารมณ์ได้ หรือคุณอาจเชื่อว่า AI มีอารมณ์เพราะมันเลียนแบบภาษามนุษย์ได้ดีมาก

คลิกที่นี่เพื่อดูคำศัพท์เพิ่มเติม

You may also like

ทิ้งข้อความไว้

Copyright ©️ All rights reserved. | Best of Thailand