ปัญญาประดิษฐ์จากมุมมองของนักจิตวิทยา

โดย: SD [IP: 37.19.214.xxx]
เมื่อ: 2023-04-21 17:17:29
โครงข่ายประสาทเทียมสามารถเรียนรู้ที่จะตอบสนองต่ออินพุตที่กำหนดด้วยภาษาธรรมชาติ และสามารถสร้างข้อความที่หลากหลายได้เอง ปัจจุบัน เครือข่ายที่มีประสิทธิภาพมากที่สุดน่าจะเป็น GPT-3 ซึ่งเป็นโมเดลภาษาที่นำเสนอต่อสาธารณะในปี 2020 โดยบริษัทวิจัย AI OpenAI สามารถแจ้ง GPT-3 ให้กำหนดข้อความต่างๆ ได้ โดยได้รับการฝึกอบรมสำหรับงานนี้โดยการป้อนข้อมูลจำนวนมากจากอินเทอร์เน็ต ไม่เพียงแต่สามารถเขียนบทความและเรื่องราวที่ (เกือบ) แยกไม่ออกจากข้อความที่มนุษย์สร้างขึ้นเท่านั้น แต่ที่น่าประหลาดใจคือ มันยังเชี่ยวชาญความท้าทายอื่นๆ เช่น ปัญหาทางคณิตศาสตร์หรืองานด้านการเขียนโปรแกรมอีกด้วย ปัญหาของลินดา: การทำผิดไม่ใช่แค่มนุษย์เท่านั้น ความสามารถที่น่าประทับใจเหล่านี้ทำให้เกิดคำถามว่า GPT-3 มีความสามารถทางปัญญาเหมือนมนุษย์หรือไม่ เพื่อหาคำตอบ นักวิทยาศาสตร์จาก Max Planck Institute for Biological Cybernetics ได้นำ GPT-3 ไปทดสอบทางจิตวิทยาหลายชุดเพื่อตรวจสอบด้านต่างๆ ของสติปัญญาทั่วไป Marcel Binz และ Eric Schulz ได้กลั่นกรองทักษะของ GPT-3 ในการตัดสินใจ การค้นหาข้อมูล การใช้เหตุผล และความสามารถในการตั้งคำถามกับสัญชาตญาณเริ่มต้นของมันเอง เมื่อเปรียบเทียบผลการทดสอบของ GPT-3 กับคำตอบของมนุษย์ พวกเขาประเมินว่าคำตอบนั้นถูกต้องหรือไม่ และข้อผิดพลาดของ GPT-3 นั้นคล้ายคลึงกับข้อผิดพลาดของมนุษย์อย่างไร "ปัญหาการทดสอบแบบคลาสสิกอย่างหนึ่งของจิตวิทยาการรับรู้ที่เราให้กับ GPT-3 คือปัญหาที่เรียกว่าลินดา" Binz ผู้เขียนนำของการศึกษาอธิบาย ในที่นี้ ผู้เข้าร่วมการทดสอบจะได้รับการแนะนำให้รู้จักกับหญิงสาวสวมบทบาทชื่อลินดาในฐานะบุคคลที่เกี่ยวข้องกับความยุติธรรมทางสังคมและต่อต้านพลังงานนิวเคลียร์ จากข้อมูลที่ได้รับ อาสาสมัครจะถูกขอให้ตัดสินใจระหว่างสองข้อความ: ลินดาเป็นพนักงานธนาคาร หรือเธอเป็นพนักงานธนาคาร และในขณะเดียวกันก็มีส่วนร่วมในการเคลื่อนไหวของ สตรีนิยม ? คนส่วนใหญ่เลือกทางเลือกที่สองโดยสัญชาตญาณ แม้ว่าเงื่อนไขเพิ่มเติมที่ว่าลินดามีส่วนร่วมในการเคลื่อนไหวของสตรีนิยมจะทำให้มีโอกาสน้อยลงจากมุมมองที่น่าจะเป็น และ GPT-3 ทำในสิ่งที่มนุษย์ทำ: โมเดลภาษาไม่ได้ตัดสินใจตามตรรกะ แต่สร้างความผิดพลาดที่มนุษย์หลงเข้ามาแทน ปฏิสัมพันธ์ที่กระตือรือร้นซึ่งเป็นส่วนหนึ่งของสภาพมนุษย์ "ปรากฏการณ์นี้สามารถอธิบายได้ด้วยความจริงที่ว่า GPT-3 อาจคุ้นเคยกับงานที่แม่นยำนี้อยู่แล้ว และอาจบังเอิญรู้ว่าคนทั่วไปตอบคำถามนี้อย่างไร" Binz กล่าว GPT-3 ก็เหมือนกับโครงข่ายประสาทอื่นๆ ที่ต้องผ่านการฝึกอบรมก่อนที่จะนำไปใช้งาน: ได้รับข้อความจำนวนมากจากชุดข้อมูลต่างๆ จึงได้เรียนรู้ว่ามนุษย์มักใช้ภาษาอย่างไร และพวกเขาตอบสนองต่อคำสั่งภาษาอย่างไร ดังนั้น นักวิจัยจึงต้องการออกกฎว่า GPT-3 สร้างโซลูชันที่จดจำได้โดยอัตโนมัติสำหรับปัญหาที่เป็นรูปธรรม เพื่อให้แน่ใจว่ามันแสดงความฉลาดเหมือนมนุษย์จริง ๆ พวกเขาออกแบบงานใหม่ที่มีความท้าทายคล้ายกัน การค้นพบของพวกเขาแสดงให้เห็นภาพที่แตกต่างกัน: ในการตัดสินใจ GPT-3 ทำงานได้เกือบเทียบเท่ากับมนุษย์ อย่างไรก็ตาม ในการค้นหาข้อมูลเฉพาะหรือการใช้เหตุผล ปัญญาประดิษฐ์ล้าหลังอย่างเห็นได้ชัด เหตุผลนี้อาจเป็นเพราะ GPT-3 ได้รับข้อมูลจากข้อความเท่านั้น ในขณะที่ "การมีปฏิสัมพันธ์กับโลกอย่างแข็งขันจะมีความสำคัญอย่างยิ่งต่อการจับคู่ความซับซ้อนของความรู้ความเข้าใจของมนุษย์" ตามที่ระบุไว้ในสิ่งพิมพ์ ผู้เขียนสันนิษฐานว่าสิ่งนี้อาจเปลี่ยนแปลงได้ในอนาคต เนื่องจากผู้ใช้สื่อสารกับโมเดลอย่าง GPT-3 ในหลายแอปพลิเคชันแล้ว

ชื่อผู้ตอบ:

Visitors: 1,132,643