Home » เครื่องจักรสามารถรู้ได้ว่าเรารู้ในสิ่งที่มันรู้หรือไม่?

เครื่องจักรสามารถรู้ได้ว่าเรารู้ในสิ่งที่มันรู้หรือไม่?

โดย admin
0 ความคิดเห็น

การอ่านใจเป็นเรื่องปกติของมนุษย์เรา ไม่ใช่ในวิธีที่นักจิตวิทยาอ้างว่าทำได้ โดยการเข้าถึงกระแสแห่งจิตสำนึกอันอบอุ่นที่เติมเต็มประสบการณ์ของแต่ละคน หรือในวิธีที่นักจิตวิทยาอ้างว่าทำได้ โดยดึงความคิดออกจากหัวของคุณตามต้องการ การอ่านใจในชีวิตประจำวันนั้นละเอียดกว่า เราสังเกตใบหน้าและการเคลื่อนไหวของผู้คน ฟังคำพูดของพวกเขา แล้วตัดสินใจหรือหยั่งรู้ถึงสิ่งที่อาจเกิดขึ้นในหัวของพวกเขา

ในหมู่นักจิตวิทยา จิตวิทยาเชิงสัญชาตญาณดังกล่าว — ความสามารถในการระบุสภาพจิตใจของผู้อื่นที่แตกต่างจากของเรา — เรียกว่าทฤษฎีของจิตใจ และการไม่มีอยู่หรือความบกพร่องของมันเชื่อมโยงกับ ออทิสติก, โรคจิตเภท และอื่น ๆ ความผิดปกติของพัฒนาการ. ทฤษฎีความคิดช่วยให้เราสื่อสารและเข้าใจซึ่งกันและกัน มันช่วยให้เราเพลิดเพลินกับวรรณกรรมและภาพยนตร์ เล่นเกม และทำความเข้าใจกับสภาพแวดล้อมทางสังคมของเรา ในหลายๆ ด้าน ความสามารถเป็นส่วนสำคัญของการเป็นมนุษย์

จะเป็นอย่างไรถ้าเครื่องจักรสามารถอ่านใจได้เช่นกัน?

เมื่อเร็ว ๆ นี้ Michal Kosinski นักจิตวิทยาแห่ง Stanford Graduate School of Business ทำข้อโต้แย้งนั้น: โมเดลภาษาขนาดใหญ่ เช่น ChatGPT ของ OpenAI และ GPT-4 ซึ่งเป็นเครื่องทำนายคำถัดไปที่ได้รับการฝึกฝนจากข้อความจำนวนมหาศาลจากอินเทอร์เน็ต ได้พัฒนาทฤษฎีความคิด การศึกษาของเขาไม่ได้รับการทบทวนโดยเพื่อน แต่พวกเขากระตุ้นให้เกิดการตรวจสอบข้อเท็จจริงและการสนทนาในหมู่นักวิทยาศาสตร์ด้านความรู้ความเข้าใจ ซึ่งพยายามถามคำถามที่พบบ่อยในปัจจุบัน – ChatGPT ทำได้ไหม นี้? – และย้ายไปสู่ขอบเขตของการสืบสวนทางวิทยาศาสตร์ที่แข็งแกร่งยิ่งขึ้น โมเดลเหล่านี้มีความสามารถอะไรบ้าง และโมเดลเหล่านี้จะเปลี่ยนความเข้าใจของเราเกี่ยวกับความคิดของเราได้อย่างไร

Alison Gopnik นักจิตวิทยาแห่งมหาวิทยาลัยแคลิฟอร์เนีย เบิร์กลีย์ และอีกคนหนึ่งกล่าวว่า “นักจิตวิทยาจะไม่ยอมรับคำกล่าวอ้างใดๆ เกี่ยวกับความสามารถของเด็กเล็ก ของนักวิจัยกลุ่มแรกที่พิจารณาทฤษฎีของจิตใจในทศวรรษที่ 1980 “คุณต้องทำการทดสอบอย่างระมัดระวังและเข้มงวด”

การวิจัยก่อนหน้านี้ของ Dr. Kosinski แสดงให้เห็นว่าโครงข่ายประสาทเทียมที่ได้รับการฝึกฝนให้วิเคราะห์ลักษณะใบหน้า เช่น รูปร่างจมูก มุมศีรษะ และการแสดงออกทางอารมณ์สามารถทำนายลักษณะของผู้คนได้ มุมมองทางการเมือง และ รสนิยมทางเพศ ด้วยระดับความแม่นยำที่น่าตกใจ (ประมาณ 72 เปอร์เซ็นต์ในกรณีแรก และประมาณ 80 เปอร์เซ็นต์ในกรณีที่สอง) งานล่าสุดของเขาเกี่ยวกับแบบจำลองภาษาขนาดใหญ่ใช้ทฤษฎีการทดสอบจิตใจแบบคลาสสิกที่วัดความสามารถของเด็กในการระบุคุณลักษณะ ความเชื่อผิดๆ ให้กับคนอื่นๆ

ตัวอย่างที่มีชื่อเสียงคือ การทดสอบแซลลี่-แอนน์ซึ่งเด็กหญิงคนหนึ่ง แอนน์ ย้ายหินอ่อนจากตะกร้าไปยังกล่อง ในขณะที่เด็กหญิงอีกคน แซลลี่ ไม่ได้มอง หากต้องการทราบว่าแซลลี่จะมองหาหินอ่อนที่ไหน นักวิจัยอ้างว่า ผู้ชมจะต้องใช้ทฤษฎีความคิด เหตุผลเกี่ยวกับหลักฐานการรับรู้ของแซลลี่และการสร้างความเชื่อ: แซลลี่ไม่เห็นแอนน์ย้ายหินอ่อนไปที่กล่อง ดังนั้นเธอจึงยังคงเชื่อมัน เป็นที่สุดท้ายที่เธอทิ้งมันไว้ในตะกร้า

ดร. โคซินสกี้ได้นำเสนอแบบจำลองภาษาขนาดใหญ่ 10 แบบซึ่งมีรูปแบบที่แตกต่างกัน 40 แบบของทฤษฎีการทดสอบจิตใจเหล่านี้ — คำอธิบายของสถานการณ์ต่างๆ เช่น แบบทดสอบของแซลลี่-แอนน์ ซึ่งบุคคล (แซลลี่) สร้างความเชื่อผิดๆ จากนั้นเขาถามคำถามแบบจำลองเกี่ยวกับสถานการณ์เหล่านั้น กระตุ้นให้พวกเขาดูว่าพวกเขาจะเชื่อผิดๆ กับตัวละครที่เกี่ยวข้องหรือไม่ และทำนายพฤติกรรมของพวกเขาได้อย่างถูกต้องหรือไม่ เขาพบว่า GPT-3.5 ที่เปิดตัวในเดือนพฤศจิกายน 2022 ทำได้ 90 เปอร์เซ็นต์ของเวลาทั้งหมด และ GPT-4 ที่เปิดตัวในเดือนมีนาคม 2023 ทำได้ 95 เปอร์เซ็นต์ของเวลาทั้งหมด

ข้อสรุป? เครื่องจักรมีทฤษฎีของจิตใจ

แต่หลังจากผลลัพธ์เหล่านี้เผยแพร่ออกไปได้ไม่นาน Tomer Ullman นักจิตวิทยาแห่งมหาวิทยาลัยฮาร์วาร์ดก็ตอบโต้ด้วยการ ชุดการทดลองของเขาเองแสดงให้เห็นว่าการปรับเปลี่ยนเล็กๆ น้อยๆ ในข้อความแจ้งสามารถเปลี่ยนคำตอบที่สร้างโดยแม้แต่โมเดลภาษาขนาดใหญ่ที่ซับซ้อนที่สุดได้โดยสิ้นเชิง หากคอนเทนเนอร์ถูกอธิบายว่าโปร่งใส เครื่องจักรจะไม่สามารถอนุมานได้ว่ามีคนมองเห็นได้ เครื่องจักรมีปัญหาในการพิจารณาคำให้การของผู้คนในสถานการณ์เหล่านี้ และบางครั้งไม่สามารถแยกความแตกต่างระหว่างวัตถุที่อยู่ภายในคอนเทนเนอร์กับที่อยู่บนคอนเทนเนอร์

Maarten Sap นักวิทยาศาสตร์คอมพิวเตอร์แห่งมหาวิทยาลัย Carnegie Mellon รวบรวมการทดสอบจิตใจมากกว่า 1,000 ทฤษฎี ลงในโมเดลภาษาขนาดใหญ่ และพบว่าทรานส์ฟอร์มเมอร์ที่ทันสมัยที่สุด เช่น ChatGPT และ GPT-4 ส่งผ่านข้อมูลเพียง 70 เปอร์เซ็นต์ของเวลาทั้งหมด (กล่าวอีกนัยหนึ่งคือ พวกเขาประสบความสำเร็จ 70 เปอร์เซ็นต์ในการระบุความเชื่อผิดๆ ให้กับผู้คนที่อธิบายในสถานการณ์การทดสอบ) ความแตกต่างระหว่างข้อมูลของเขากับของ Dr. Kosinski อาจนำมาซึ่งความแตกต่างในการทดสอบ แต่ Dr. Sap กล่าวว่า แม้จะผ่าน 95 เปอร์เซ็นต์ของเวลาทั้งหมดจะไม่เป็นหลักฐานของทฤษฎีจิตใจที่แท้จริง เครื่องจักรมักจะล้มเหลวในรูปแบบที่ไม่สามารถมีส่วนร่วมในการให้เหตุผลเชิงนามธรรมและมักสร้าง “ความสัมพันธ์ที่หลอกลวง” เขากล่าว

ดร. Ullman ตั้งข้อสังเกตว่านักวิจัยด้านการเรียนรู้ของเครื่องได้พยายามดิ้นรนในช่วงสองสามทศวรรษที่ผ่านมาในการดึงเอาความรู้ของมนุษย์ที่มีความยืดหยุ่นมาใช้ในแบบจำลองคอมพิวเตอร์ ความยากลำบากนี้เป็น “การค้นหาเงา” เขากล่าวโดยอยู่เบื้องหลังนวัตกรรมที่น่าตื่นเต้นทุกอย่าง นักวิจัยได้แสดงให้เห็นว่ารูปแบบภาษามักจะให้คำตอบที่ผิดหรือไม่เกี่ยวข้อง เมื่อเตรียมข้อมูลที่ไม่จำเป็นก่อนที่จะถามคำถาม แชทบ็อตบางตัวถูกโยนทิ้งไปเพราะการอภิปรายเชิงสมมุติฐานเกี่ยวกับนกพูดได้ ซึ่งท้ายที่สุดแล้ว อ้างว่านกพูดได้. เนื่องจากเหตุผลของพวกเขาไวต่อการเปลี่ยนแปลงเล็กน้อยในอินพุต นักวิทยาศาสตร์จึงเรียกความรู้ของเครื่องจักรเหล่านี้ว่า “เปราะ

ดร. Gopnik เปรียบเทียบทฤษฎีความคิดของแบบจำลองภาษาขนาดใหญ่กับความเข้าใจของเธอเองเกี่ยวกับทฤษฎีสัมพัทธภาพทั่วไป “ฉันอ่านมากพอที่จะรู้ว่าคำนั้นคืออะไร” เธอกล่าว “แต่ถ้าคุณขอให้ฉันทำนายใหม่หรือบอกว่าทฤษฎีของไอน์สไตน์บอกอะไรเราเกี่ยวกับปรากฏการณ์ใหม่ ฉันคงอึ้งเพราะไม่มีทฤษฎีอยู่ในหัวเลย” ในทางตรงข้าม เธอกล่าวว่าทฤษฎีจิตใจของมนุษย์มีความเชื่อมโยงกับกลไกการให้เหตุผลด้วยสามัญสำนึกอื่นๆ มันยืนหยัดอย่างแข็งแกร่งเมื่อเผชิญกับการตรวจสอบข้อเท็จจริง

โดยทั่วไปแล้ว งานของ Dr. Kosinski และการตอบสนองนั้นเหมาะสมกับการถกเถียงว่าความสามารถของเครื่องจักรเหล่านี้สามารถเทียบได้กับความสามารถของมนุษย์หรือไม่ ซึ่งเป็นการถกเถียงกันว่า แบ่ง นักวิจัยที่ทำงานเกี่ยวกับการประมวลผลภาษาธรรมชาติ เครื่องจักรเหล่านี้เป็นนกแก้วสุ่มหรือหน่วยสืบราชการลับของมนุษย์ต่างดาวหรือนักเล่นกลฉ้อโกงหรือไม่? ก การสำรวจปี 2022 ในสาขานี้พบว่า จากนักวิจัย 480 คนที่ตอบแบบสอบถาม 51 เปอร์เซ็นต์เชื่อว่าโมเดลภาษาขนาดใหญ่สามารถ “เข้าใจภาษาธรรมชาติในความหมายที่ไม่สำคัญได้ในที่สุด” และ 49 เปอร์เซ็นต์เชื่อว่าไม่สามารถทำได้

ดร. Ullman ไม่ได้ลดความเป็นไปได้ของความเข้าใจของเครื่องจักรหรือทฤษฎีของจิตใจของเครื่องจักร แต่เขาระวังที่จะอ้างถึงความสามารถของมนุษย์กับสิ่งที่ไม่ใช่มนุษย์ เขาสังเกตเห็นคนดัง 2487 การศึกษา โดย Fritz Heider และ Marianne Simmel ซึ่งผู้เข้าร่วมได้แสดงภาพยนตร์แอนิเมชั่นของสามเหลี่ยมสองรูปและวงกลมที่โต้ตอบกัน เมื่ออาสาสมัครถูกขอให้เขียนสิ่งที่เกิดขึ้นในภาพยนตร์ เกือบทั้งหมดอธิบายว่ารูปร่างเป็นคน

“คู่รักในโลกสองมิติอย่างไม่ต้องสงสัย สามเหลี่ยมเล็ก ๆ หมายเลขสองและวงกลมแสนหวาน” ผู้เข้าร่วมคนหนึ่งเขียน “สามเหลี่ยมหนึ่ง (ต่อไปนี้จะเรียกว่าวายร้าย) สอดแนมความรักของหนุ่มสาว อา!”

เป็นเรื่องปกติและบ่อยครั้งที่สังคมจำเป็นต้องอธิบายพฤติกรรมของมนุษย์ด้วยการพูดถึงความเชื่อ ความปรารถนา ความตั้งใจ และความคิด แนวโน้มนี้เป็นศูนย์กลางของสิ่งที่เราเป็น — เป็นศูนย์กลางจนบางครั้งเราพยายามอ่านใจของสิ่งที่ไม่มีจิตใจ อย่างน้อยก็ไม่ใช่จิตใจที่เหมือนกับของเรา

You may also like

ทิ้งข้อความไว้

Copyright ©️ All rights reserved. | Best of Thailand