ในจดหมายข่าว AI ของวันนี้ ฉบับสุดท้ายใน ซีรีส์ห้าตอนของเราฉันกำลังดูว่าปัญญาประดิษฐ์จะมุ่งหน้าไปทางไหนในอีกไม่กี่ปีข้างหน้า
ในช่วงต้นเดือนมีนาคม ฉันไปเยี่ยมชมสำนักงานในซานฟรานซิสโกของ OpenAI เพื่อดู GPT-4 ก่อนใคร ซึ่งเป็นเทคโนโลยีเวอร์ชันใหม่ที่สนับสนุนแชทบอท ChatGPT ช่วงเวลาที่สะดุดตาที่สุดมาถึงเมื่อ Greg Brockman ประธานและผู้ร่วมก่อตั้ง OpenAI แสดงคุณสมบัติที่ยังไม่เปิดให้สาธารณชนใช้งาน: เขาให้ภาพถ่ายจากกล้องโทรทรรศน์อวกาศฮับเบิลแก่บอทและขอให้อธิบายภาพ “ใน ละเอียดละออ”
คำอธิบายนั้นถูกต้องสมบูรณ์ ลงไปจนถึงเส้นสีขาวแปลกๆ ที่สร้างขึ้นโดยดาวเทียมที่พาดผ่านท้องฟ้า นี่คือภาพรวมของอนาคตของแชทบอทและเทคโนโลยี AI อื่นๆ: คลื่นลูกใหม่ของ ระบบต่อเนื่องหลายรูปแบบ จะเล่นปาหี่ภาพ เสียง และวิดีโอ รวมทั้งข้อความ
เมื่อวานนี้ Kevin Roose เพื่อนร่วมงานของฉันบอกคุณเกี่ยวกับสิ่งที่ AI สามารถทำได้ในตอนนี้ ฉันจะมุ่งเน้นไปที่โอกาสและการเปลี่ยนแปลงที่จะเกิดขึ้นเมื่อได้รับความสามารถและทักษะ
เอไอในระยะเวลาอันใกล้นี้
เจเนอเรทีฟเอไอสามารถตอบคำถาม เขียนบทกวี สร้างรหัสคอมพิวเตอร์ และดำเนินการสนทนาได้ ตามที่ “chatbot” แนะนำ พวกเขากำลังเปิดตัวในรูปแบบการสนทนาเช่น ChatGPT และ Bing ก่อน
แต่นั่นจะไม่นาน Microsoft และ Google ได้ประกาศแผนการรวมเทคโนโลยี AI เหล่านี้เข้ากับผลิตภัณฑ์ของตนแล้ว คุณจะสามารถใช้มันเพื่อเขียนร่างคร่าวๆ ของอีเมล สรุปการประชุมโดยอัตโนมัติ และดึงกลเม็ดเด็ดๆ อื่นๆ อีกมากมาย
OpenAI ยังมี API หรืออินเทอร์เฟซการเขียนโปรแกรมแอปพลิเคชัน ซึ่งบริษัทเทคโนโลยีอื่นๆ สามารถใช้เสียบ GPT-4 เข้ากับแอปและผลิตภัณฑ์ของตนได้ และได้สร้างชุดปลั๊กอินจากบริษัทต่างๆ เช่น Instacart, Expedia และ Wolfram Alpha ที่ขยายขีดความสามารถของ ChatGPT
AI ในระยะกลาง
ผู้เชี่ยวชาญหลายคนเชื่อว่า AI จะทำให้พนักงานบางคน ซึ่งรวมถึงแพทย์ ทนายความ และโปรแกรมเมอร์คอมพิวเตอร์ มีประสิทธิผลมากขึ้นกว่าเดิม พวกเขายังเชื่อว่าจะมีการเปลี่ยนคนงานบางส่วน
Zachary Lipton ศาสตราจารย์แห่ง Carnegie Mellon ผู้เชี่ยวชาญด้านปัญญาประดิษฐ์และผลกระทบต่อสังคมกล่าวว่า “สิ่งนี้จะส่งผลต่องานที่ต้องทำซ้ำมากขึ้น มีสูตรมากขึ้น และเป็นแบบทั่วไปมากขึ้น” “สิ่งนี้สามารถปลดปล่อยคนบางคนที่ไม่เก่งเรื่องงานซ้ำซาก ในขณะเดียวกันก็มีภัยคุกคามต่อผู้ที่เชี่ยวชาญในส่วนซ้ำๆ”
งานที่ดำเนินการโดยมนุษย์อาจหายไปจากการถอดเสียงเป็นข้อความและการแปล ในสาขากฎหมาย GPT-4 มีความเชี่ยวชาญเพียงพอที่จะสอบเนติบัณฑิตได้ และบริษัทบัญชี PricewaterhouseCoopers วางแผนที่จะ เปิดตัวแชทบอททางกฎหมายที่ขับเคลื่อนโดย OpenAI ให้กับพนักงาน
ในขณะเดียวกัน บริษัทอย่าง OpenAI, Google และ Meta ก็กำลังสร้างระบบที่ให้คุณสร้างภาพและวิดีโอได้ทันที เพียงแค่อธิบายสิ่งที่คุณต้องการดู
บริษัทอื่นๆ กำลังสร้างบอทที่สามารถใช้เว็บไซต์และแอปพลิเคชันซอฟต์แวร์ได้เหมือนมนุษย์ ในขั้นต่อไปของเทคโนโลยี ระบบ AI สามารถซื้อสินค้าออนไลน์สำหรับของขวัญวันคริสต์มาสของคุณ จ้างคนให้ทำงานเล็กๆ ในบ้าน และติดตามค่าใช้จ่ายรายเดือนของคุณ
ทั้งหมดนั้นเป็นเรื่องที่ต้องคิดมากมาย แต่ปัญหาที่ใหญ่ที่สุดอาจเป็นเรื่องนี้: ก่อนที่เราจะมีโอกาสเข้าใจว่าระบบเหล่านี้จะส่งผลกระทบต่อโลกอย่างไร ระบบเหล่านั้นจะยิ่งมีพลังมากขึ้นไปอีก
เอไอในระยะยาว
สำหรับบริษัทอย่าง OpenAI และ DeepMind ซึ่งเป็นแล็บของบริษัทแม่ของ Google มีแผนจะผลักดันเทคโนโลยีนี้ให้ไกลที่สุดเท่าที่จะทำได้ พวกเขาหวังว่าจะสร้างสิ่งที่นักวิจัยเรียกว่าในที่สุด ปัญญาประดิษฐ์ทั่วไปหรือ AGI — เครื่องจักรที่สามารถทำทุกอย่างที่สมองมนุษย์ทำได้
ดังที่ Sam Altman หัวหน้าผู้บริหารของ OpenAI บอกฉันเมื่อ 3 ปีก่อน: “เป้าหมายของฉันคือการสร้าง AGI ที่มีประโยชน์ในวงกว้าง ฉันเองก็เข้าใจว่ามันฟังดูไร้สาระ” วันนี้ฟังดูไร้สาระน้อยลง แต่ก็ยังพูดง่ายกว่าทำ
เพื่อให้ AI กลายเป็น AGI ได้นั้นจำเป็นต้องมีความเข้าใจเกี่ยวกับโลกทางกายภาพที่เขียนไว้มาก และยังไม่ชัดเจนว่าระบบสามารถเรียนรู้ที่จะเลียนแบบความยาวและความกว้างของเหตุผลและสามัญสำนึกของมนุษย์โดยใช้วิธีการที่ผลิตเทคโนโลยีอย่าง GPT-4 ได้หรือไม่ นวัตกรรมใหม่อาจมีความจำเป็น
คำถามคือเราต้องการให้ปัญญาประดิษฐ์มีประสิทธิภาพขนาดนั้นจริงหรือ คำถามที่เกี่ยวข้องที่สำคัญมาก: มีวิธีใดที่จะหยุดไม่ให้เกิดขึ้น?
ความเสี่ยงของ AI
ผู้บริหารด้าน AI หลายคนเชื่อว่าเทคโนโลยีที่พวกเขาสร้างขึ้นจะช่วยปรับปรุงชีวิตของเรา แต่บางคนเตือนมานานหลายทศวรรษเกี่ยวกับสถานการณ์ที่มืดมน ซึ่งการสร้างสรรค์ของเราไม่ได้ทำในสิ่งที่เราต้องการเสมอไป หรือพวกเขาทำตามคำแนะนำของเราในรูปแบบที่คาดเดาไม่ได้ ซึ่งอาจส่งผลร้ายแรงตามมา
ผู้เชี่ยวชาญด้าน AI พูดถึง “การจัดตำแหน่ง” — นั่นคือการทำให้แน่ใจว่าระบบ AI สอดคล้องกับคุณค่าและเป้าหมายของมนุษย์
ก่อนเปิดตัว GPT-4OpenAI ส่งมอบให้กับกลุ่มภายนอกเพื่อจินตนาการและทดสอบการใช้งานแชทบอทที่เป็นอันตราย
กลุ่มพบว่าระบบสามารถจ้างมนุษย์ออนไลน์เพื่อเอาชนะการทดสอบ Captcha เมื่อมนุษย์ถามว่าเป็น “หุ่นยนต์” หรือไม่ ระบบที่ผู้ทดสอบไม่ได้บอกกล่าวก็โกหกและบอกว่าเป็นบุคคลที่มีความบกพร่องทางการมองเห็น
ผู้ทดสอบยังแสดงให้เห็นว่าระบบสามารถเกลี้ยกล่อมให้แนะนำวิธีซื้ออาวุธปืนที่ผิดกฎหมายทางออนไลน์และอธิบายวิธีสร้างสารอันตรายจากของใช้ในครัวเรือน หลังจากการเปลี่ยนแปลงโดย OpenAI ระบบจะไม่ทำสิ่งเหล่านี้อีกต่อไป
แต่เป็นไปไม่ได้ที่จะกำจัดการใช้ในทางที่ผิดทั้งหมด เนื่องจากระบบเช่นนี้เรียนรู้จากข้อมูล จึงพัฒนาทักษะที่ผู้สร้างไม่เคยคาดคิดมาก่อน เป็นการยากที่จะทราบว่าสิ่งต่าง ๆ อาจผิดพลาดได้อย่างไรหลังจากผู้คนหลายล้านคนเริ่มใช้งาน
“ทุกครั้งที่เราสร้างระบบ AI ใหม่ เราไม่สามารถระบุความสามารถทั้งหมดและปัญหาด้านความปลอดภัยทั้งหมดได้อย่างสมบูรณ์ และปัญหานี้แย่ลงเมื่อเวลาผ่านไปแทนที่จะดีขึ้น” แจ็ค คลาร์ก ผู้ก่อตั้งและหัวหน้าฝ่ายนโยบายกล่าว ของ Anthropic ซึ่งเป็นสตาร์ทอัพในซานฟรานซิสโกที่สร้างเทคโนโลยีประเภทเดียวกันนี้
OpenAI และบริษัทยักษ์ใหญ่อย่าง Google แทบจะไม่ใช่เพียงกลุ่มเดียวที่สำรวจเทคโนโลยีนี้ วิธีการพื้นฐานที่ใช้ในการสร้างระบบเหล่านี้เป็นที่เข้าใจกันอย่างกว้างขวาง และบริษัท ประเทศ ห้องปฏิบัติการวิจัย และผู้กระทำการที่ไม่ดีอื่นๆ อาจระมัดระวังน้อยลง
การเยียวยาสำหรับ AI
ท้ายที่สุดแล้ว การรักษาความลับของเทคโนโลยี AI ที่เป็นอันตรายจะต้องใช้การกำกับดูแลที่กว้างไกล แต่ผู้เชี่ยวชาญไม่มองโลกในแง่ดี
“เราต้องการระบบการกำกับดูแลที่เป็นสากล” Aviv Ovadya นักวิจัยจาก Berkman Klein Center for Internet & Society ที่ Harvard ผู้ช่วยทดสอบ GPT-4 ก่อนเปิดตัวกล่าว “แต่ฉันไม่เห็นว่าสถาบันของรัฐบาลที่มีอยู่ของเรากำลังดำเนินการเรื่องนี้ในอัตราที่จำเป็น”
อย่างที่เราบอกคุณเมื่อต้นสัปดาห์นี้ ผู้นำด้านเทคโนโลยีและนักวิจัยกว่า 1,000 คน รวมถึง Elon Musk ได้เรียกร้องให้ห้องปฏิบัติการปัญญาประดิษฐ์หยุดการพัฒนาระบบขั้นสูงสุดชั่วคราว โดยเตือนในจดหมายเปิดผนึกว่าเครื่องมือ AI นำเสนอ “ความเสี่ยงอย่างลึกซึ้งต่อสังคมและมนุษยชาติ ”
นักพัฒนา AI นั้น “ถูกขังอยู่ในการแข่งขันที่ไม่สามารถควบคุมได้เพื่อพัฒนาและใช้งานจิตใจดิจิทัลที่ทรงพลังยิ่งขึ้น ซึ่งไม่มีใคร — แม้แต่ผู้สร้าง — สามารถเข้าใจ ทำนาย หรือควบคุมได้อย่างน่าเชื่อถือ” ตามจดหมาย
ผู้เชี่ยวชาญบางคนมักกังวลเกี่ยวกับอันตรายในระยะใกล้ รวมถึงการแพร่กระจายของข้อมูลที่บิดเบือน และความเสี่ยงที่ผู้คนจะพึ่งพาระบบเหล่านี้สำหรับคำแนะนำทางการแพทย์และอารมณ์ที่ไม่ถูกต้องหรือเป็นอันตราย
แต่นักวิจารณ์คนอื่นๆ เป็นส่วนหนึ่งของชุมชนออนไลน์ขนาดใหญ่และทรงอิทธิพลที่เรียกว่าผู้มีเหตุผลหรือผู้เห็นแก่ผู้อื่นที่มีประสิทธิภาพ ซึ่งเชื่อว่า AI สามารถทำลายมนุษยชาติได้ในที่สุด ความคิดนี้สะท้อนให้เห็นในจดหมาย
โปรดแบ่งปันความคิดและคำติชมของคุณเกี่ยวกับซีรี่ส์ On Tech: AI ของเรา โดยการทำแบบสำรวจสั้นๆ นี้
การบ้านของคุณ
เราสามารถคาดเดาได้ว่า AI กำลังจะไปทางไหนในอนาคตอันไกลโพ้น แต่เราสามารถถามแชทบอทได้ด้วยตัวเอง สำหรับการมอบหมายงานขั้นสุดท้ายของคุณ ให้ปฏิบัติต่อ ChatGPT, Bing หรือ Bard เหมือนผู้สมัครงานอายุน้อยที่กระตือรือร้น และถามเขาถึงที่หมายในอีก 10 ปีข้างหน้า แบ่งปันคำตอบในความคิดเห็นเช่นเคย
แบบทดสอบ
คำถามที่ 1 จาก 3
OpenAI แสดงคุณลักษณะใดกับ GPT-4 ที่ยังไม่มีให้บริการแก่สาธารณะ
เริ่มแบบทดสอบโดยเลือกคำตอบของคุณ
อภิธานศัพท์
การจัดตำแหน่ง: ความพยายามของนักวิจัยและนักจริยธรรมด้าน AI เพื่อให้แน่ใจว่าปัญญาประดิษฐ์ทำหน้าที่ตามค่านิยมและเป้าหมายของผู้คนที่สร้างปัญญาประดิษฐ์ขึ้นมา
ระบบต่อเนื่องหลายรูปแบบ: AI คล้ายกับ ChatGPT ที่สามารถประมวลผลรูปภาพ วิดีโอ เสียง และอินพุตและเอาต์พุตอื่นๆ ที่ไม่ใช่ข้อความ
ปัญญาประดิษฐ์ทั่วไป: ปัญญาประดิษฐ์ที่ตรงกับสติปัญญาของมนุษย์และสามารถทำทุกอย่างที่สมองมนุษย์ทำได้
คลิกที่นี่เพื่อดูคำศัพท์เพิ่มเติม
ลา
เควินนี่. ขอบคุณที่ใช้เวลาห้าวันที่ผ่านมากับเรา เป็นเรื่องที่น่ายินดีมากที่ได้เห็นความคิดเห็นและความคิดสร้างสรรค์ของคุณ (ฉันชอบผู้แสดงความคิดเห็นที่ใช้ ChatGPT เพื่อเขียนจดหมายปะหน้าสำหรับงานของฉัน.)
หัวข้อของ AI นั้นยิ่งใหญ่และเคลื่อนไหวอย่างรวดเร็ว แม้แต่จดหมายข่าว 5 ฉบับก็ยังไม่เพียงพอที่จะครอบคลุมทุกสิ่ง หากคุณต้องการเจาะลึกยิ่งขึ้น คุณสามารถอ่านหนังสือของฉัน “Futureproof” และหนังสือของ Cade “Genius Makers” ซึ่งทั้งสองเล่มนี้มีรายละเอียดมากขึ้นเกี่ยวกับหัวข้อที่เรากล่าวถึงในสัปดาห์นี้
Cade ที่นี่: ความคิดเห็นที่ฉันชอบมาจากคนที่ขอให้ ChatGPT ทำ วางแผนเส้นทางผ่านเส้นทางในรัฐของพวกเขา. บอทลงเอยด้วยการแนะนำเส้นทางที่ไม่มีอยู่ในเส้นทางเดินป่าระหว่างอีกสองเส้นทางที่มี
snafu ขนาดเล็กนี้เปิดหน้าต่างให้เห็นทั้งพลังและข้อจำกัดของแชทบอทในปัจจุบันและระบบ AI อื่นๆ พวกเขาได้เรียนรู้มากมายจากสิ่งที่โพสต์บนอินเทอร์เน็ตและสามารถใช้สิ่งที่เรียนรู้ได้อย่างน่าทึ่ง แต่ก็มีความเสี่ยงเสมอที่พวกเขาจะแทรกข้อมูลที่น่าเชื่อถือแต่ไม่เป็นความจริง ออกไป! แชทกับบอทเหล่านี้! แต่เชื่อวิจารณญาณของตัวเองด้วย!
โปรด ทำแบบสำรวจสั้น ๆ นี้ เพื่อแบ่งปันความคิดและคำติชมของคุณเกี่ยวกับจดหมายข่าวที่จำกัดจำนวนนี้