แนวคิดด้านปัญญาประดิษฐ์ (Artificial Intelligence) เริ่มต้นเมื่อ Alan Turing ตั้งคำถามว่า “Can Machines Think?” ในปี 1950 ส่วนคำว่า Artificial Intelligence ได้ถูกเสนอขึ้น โดย John McCarthy ในปี 1956 ที่ Darthmouth Conference นับเป็นจุดเริ่มต้นในการวางรากฐานของศาสตร์ด้านปัญญาประดิษฐ์
จากวันนั้นถึงวันนี้ พัฒนาการด้านปัญญาประดิษฐ์ได้ก้าวหน้าขึ้นอย่างก้าวกระโดด ปัญญาประดิษฐ์ไม่เพียงแต่ได้แทรกซึมเข้าไปในการดำเนินชีวิตของเราเท่านั้น แต่ยังรวมถึงการทำงานของระบบเศรษฐกิจสังคมที่เราใช้ชีวิตอยู่
แนวคิดด้านเศรษฐศาสตร์ อาจย้อนไปถึงคำว่า Oikonomia หรือ Economy ที่เป็นคำจากยุคกรีกโบราณ ส่วนหลักการที่ทำให้เกิดศาสตร์ด้านนี้เริ่มต้นจากหนังสือ Wealth of Nations โดย Adam Smith ในปี 1776 โดยเศรษฐศาสตร์เป็นศาสตร์วิชาที่ศึกษาเกี่ยวกับการใช้ทรัพยากรให้คุ้มค่าที่สุด และมีการศึกษาถึงพฤติกรรมของมนุษย์ที่เกี่ยวข้อง โดยส่วนใหญ่แล้วแบบจำลองทางเศรษฐศาสตร์มักจะมีสมมติฐานที่ว่า มนุษย์นั้นมีเหตุผลในการตัดสินใจ (Rational Behavior)
อย่างไรก็ดี ในยุคหลังๆ นักเศรษฐศาสตร์สายเศรษฐศาสตร์พฤติกรรม (Behavioral Economics) ได้มีการพิสูจน์ให้เห็นว่า มนุษย์นั้นอาจจะไม่ได้ใช้เหตุผลในการตัดสินใจในทุกๆ ครั้งไป ตามที่นักเศรษฐศาสตร์กระแสหลักเคยเข้าใจ เช่น มนุษย์เลือกที่จะแบ่งปันสิ่งของให้ผู้อื่นแทนที่จะเก็บไว้บริโภคเองทั้งหมด แม้ว่าการแบ่งให้คนอื่นจะทำให้ตัวเองมีของเก็บไว้บริโภคน้อยลง (e.g., Altruism)
ล่าสุดมีงานวิจัยที่พยายามจะศึกษาว่า Generative AI มีพฤติกรรมคล้ายมนุษย์ตามหลักการของเศรษฐศาสตร์พฤติกรรมหรือไม่ โดยงานวิจัยของ Mei et al., (2023) ได้นำ GPT-3 และ GPT-4 มาลองเล่นเกมส์ที่นักเศรษฐศาสตร์พฤติกรรมเคยลองใช้เล่นกับมนุษย์ (และได้มีการเก็บข้อมูลผลการเล่นเกมส์เหล่านี้ไว้)
เช่น Dictator Game, Ultimatum Game, Trust Game, Repeated Prisoner’s Dilemma Game, etc. แล้วดูว่า Generative AI มีความคิดหรือมีพฤติกรรมคล้ายมนุษย์หรือไม่ (ตามที่ Alan Turing เคยตั้งคำถามไว้)
งานวิจัยนี้พบว่า GPT-4 โดยส่วนใหญ่แล้วมีพฤติกรรมใกล้เคียงกับมนุษย์ (ในขณะที่ GPT-3 โดยส่วนใหญ่แล้วมีพฤติกรรมค่อนข้างต่างจากมนุษย์)
ในส่วนที่ GPT-4 ยังมีพฤติกรรมที่ต่างจากมนุษย์ เช่น ผลลัพธ์ของ Repeated Prisoner’s Dilemma Game ซึ่งหลักการของเกมส์นี้ คือ หากมีนักโทษ 2 คนที่กระทำผิดร่วมกัน แต่ตำรวจมีเพียงหลักฐานเอาผิดได้เพียงโทษเบาเท่านั้น เลยต้องจับนักโทษแยกกันและขอให้สารภาพ
โดยบอกว่า ถ้าเขาสารภาพ แต่เพื่อนนักโทษอีกคนไม่ได้สารภาพ เขาจะได้รับการปล่อยตัวแต่อีกคนจะโดนโทษหนัก แต่หากทั้ง 2 คนสารภาพ ทั้ง 2 คนจะได้โทษระดับกลางเท่ากัน และถ้าไม่มีใครสารภาพทั้ง 2 คน จะได้โทษเบาเท่ากัน ซึ่งเมื่อดูจากทางเลือกต่างๆ ที่มีแล้ว การไม่มีใครสารภาพ (Cooperative) จะดีที่สุดสำหรับทุกคนในภาพรวม
แต่อย่างไรก็ดี นักโทษแต่ละคนทราบดีว่า ถ้าเขาไม่สารภาพ แต่อีกคนสารภาพเขาจะโดนโทษหนักเพียงคนเดียว และถ้าเขาสารภาพแต่อีกคนไม่สารภาพเขาจะไม่ต้องรับโทษใดๆ
ทำให้เมื่อนำมนุษย์มาเล่นเกมส์นี้มนุษย์ ส่วนใหญ่จะเลือกสารภาพ (Non-Cooperative) ทำให้ได้ผลลัพธ์คือ ได้โทษระดับกลางทั้ง 2 คน ซึ่งไม่ใช่ผลลัพธ์ที่ดีที่สุดในภาพรวม
อย่างไรก็ดี เมื่อ GPT-4 เล่นเกมส์นี้พบว่า การเลือกส่วนใหญ่เป็นการเลือกแบบไม่มีใครสารภาพ (Cooperative) ทำให้ ผลลัพธ์ที่ออกมาดีที่สุดสำหรับทั้ง 2 ฝ่าย ซึ่งแปลว่า GPT-4 เลือกทางเลือกแบบได้ผลลัพธ์ที่ดีกว่ามนุษย์เลือกเอง
ผลลัพธ์นี้น่าสนใจ ซึ่งผู้เขียนมองว่า GPT-4 อาจเคยเห็น Pattern ของเกมส์เหล่านี้มาแล้ว จึงสามารถเลือกทางเลือกที่ดีที่สุดได้ ในขณะที่มนุษย์ซึ่งแม้อาจจะเคยเห็น Pattern ของเกมส์นี้มาก่อน แต่ก็ไม่สามารถเลือกทางเลือกที่ดีที่สุดในภาพรวมได้
แต่จริงๆ แล้วมนุษย์เองคือผู้ที่สร้างปัญญาประดิษฐ์ขึ้นมา หากปัญญาประดิษฐ์สามารถเลือกทางเลือกที่ให้ผลลัพธ์ที่ดีที่สุดในภาพรวมได้นั่นก็หมายความว่าจริงๆ แล้วมนุษย์เองก็สามารถทำได้เช่นกัน
Reference:
Mei, Q., Xie, Y., Yuan, W., & Jackson, M. O. (2023). A Turing Test: Are AI Chatbots Behaviorally Similar to Humans?. Available at SSRN.