ปัญญาประดิษฐ์กับเศรษฐศาสตร์พฤติกรรม

15 พ.ค. 2567 | 07:23 น.
อัปเดตล่าสุด :15 พ.ค. 2567 | 07:23 น.

ปัญญาประดิษฐ์กับเศรษฐศาสตร์พฤติกรรม : คอลัมน์เศรษฐเสวนา จุฬาฯทัศนะ โดย รศ.ดร.วรประภา นาควัชระ ผู้ช่วยอธิการบดี และอาจารย์ประจำคณะเศรษฐศาสตร์ จุฬาลงกรณ์มหาวิทยาลัย หนังสือพิมพ์ฐานเศรษฐกิจ ฉบับ 3,992 หน้า 5 วันที่ 16 - 18 พฤษภาคม 2567

แนวคิดด้านปัญญาประดิษฐ์ (Artificial Intelligence) เริ่มต้นเมื่อ Alan Turing ตั้งคำถามว่า “Can Machines Think?” ในปี 1950 ส่วนคำว่า Artificial Intelligence ได้ถูกเสนอขึ้น โดย John McCarthy ในปี 1956 ที่ Darthmouth Conference นับเป็นจุดเริ่มต้นในการวางรากฐานของศาสตร์ด้านปัญญาประดิษฐ์

จากวันนั้นถึงวันนี้ พัฒนาการด้านปัญญาประดิษฐ์ได้ก้าวหน้าขึ้นอย่างก้าวกระโดด ปัญญาประดิษฐ์ไม่เพียงแต่ได้แทรกซึมเข้าไปในการดำเนินชีวิตของเราเท่านั้น แต่ยังรวมถึงการทำงานของระบบเศรษฐกิจสังคมที่เราใช้ชีวิตอยู่

 

 

 

แนวคิดด้านเศรษฐศาสตร์ อาจย้อนไปถึงคำว่า Oikonomia หรือ Economy ที่เป็นคำจากยุคกรีกโบราณ ส่วนหลักการที่ทำให้เกิดศาสตร์ด้านนี้เริ่มต้นจากหนังสือ Wealth of Nations โดย Adam Smith ในปี 1776 โดยเศรษฐศาสตร์เป็นศาสตร์วิชาที่ศึกษาเกี่ยวกับการใช้ทรัพยากรให้คุ้มค่าที่สุด และมีการศึกษาถึงพฤติกรรมของมนุษย์ที่เกี่ยวข้อง โดยส่วนใหญ่แล้วแบบจำลองทางเศรษฐศาสตร์มักจะมีสมมติฐานที่ว่า มนุษย์นั้นมีเหตุผลในการตัดสินใจ (Rational Behavior)

อย่างไรก็ดี ในยุคหลังๆ นักเศรษฐศาสตร์สายเศรษฐศาสตร์พฤติกรรม (Behavioral Economics) ได้มีการพิสูจน์ให้เห็นว่า มนุษย์นั้นอาจจะไม่ได้ใช้เหตุผลในการตัดสินใจในทุกๆ ครั้งไป ตามที่นักเศรษฐศาสตร์กระแสหลักเคยเข้าใจ เช่น มนุษย์เลือกที่จะแบ่งปันสิ่งของให้ผู้อื่นแทนที่จะเก็บไว้บริโภคเองทั้งหมด แม้ว่าการแบ่งให้คนอื่นจะทำให้ตัวเองมีของเก็บไว้บริโภคน้อยลง (e.g., Altruism)

 

ปัญญาประดิษฐ์กับเศรษฐศาสตร์พฤติกรรม

 

ล่าสุดมีงานวิจัยที่พยายามจะศึกษาว่า Generative AI มีพฤติกรรมคล้ายมนุษย์ตามหลักการของเศรษฐศาสตร์พฤติกรรมหรือไม่ โดยงานวิจัยของ Mei et al., (2023) ได้นำ GPT-3 และ GPT-4 มาลองเล่นเกมส์ที่นักเศรษฐศาสตร์พฤติกรรมเคยลองใช้เล่นกับมนุษย์ (และได้มีการเก็บข้อมูลผลการเล่นเกมส์เหล่านี้ไว้)

เช่น Dictator Game, Ultimatum Game, Trust Game, Repeated Prisoner’s Dilemma Game, etc. แล้วดูว่า Generative AI มีความคิดหรือมีพฤติกรรมคล้ายมนุษย์หรือไม่ (ตามที่ Alan Turing เคยตั้งคำถามไว้)

งานวิจัยนี้พบว่า GPT-4 โดยส่วนใหญ่แล้วมีพฤติกรรมใกล้เคียงกับมนุษย์ (ในขณะที่ GPT-3 โดยส่วนใหญ่แล้วมีพฤติกรรมค่อนข้างต่างจากมนุษย์)

ในส่วนที่ GPT-4 ยังมีพฤติกรรมที่ต่างจากมนุษย์ เช่น ผลลัพธ์ของ Repeated Prisoner’s Dilemma Game ซึ่งหลักการของเกมส์นี้ คือ หากมีนักโทษ 2 คนที่กระทำผิดร่วมกัน แต่ตำรวจมีเพียงหลักฐานเอาผิดได้เพียงโทษเบาเท่านั้น เลยต้องจับนักโทษแยกกันและขอให้สารภาพ

โดยบอกว่า ถ้าเขาสารภาพ แต่เพื่อนนักโทษอีกคนไม่ได้สารภาพ เขาจะได้รับการปล่อยตัวแต่อีกคนจะโดนโทษหนัก แต่หากทั้ง 2 คนสารภาพ ทั้ง 2 คนจะได้โทษระดับกลางเท่ากัน และถ้าไม่มีใครสารภาพทั้ง 2 คน จะได้โทษเบาเท่ากัน ซึ่งเมื่อดูจากทางเลือกต่างๆ ที่มีแล้ว การไม่มีใครสารภาพ (Cooperative) จะดีที่สุดสำหรับทุกคนในภาพรวม

แต่อย่างไรก็ดี นักโทษแต่ละคนทราบดีว่า ถ้าเขาไม่สารภาพ แต่อีกคนสารภาพเขาจะโดนโทษหนักเพียงคนเดียว และถ้าเขาสารภาพแต่อีกคนไม่สารภาพเขาจะไม่ต้องรับโทษใดๆ

ทำให้เมื่อนำมนุษย์มาเล่นเกมส์นี้มนุษย์ ส่วนใหญ่จะเลือกสารภาพ (Non-Cooperative) ทำให้ได้ผลลัพธ์คือ ได้โทษระดับกลางทั้ง 2 คน ซึ่งไม่ใช่ผลลัพธ์ที่ดีที่สุดในภาพรวม

อย่างไรก็ดี เมื่อ GPT-4 เล่นเกมส์นี้พบว่า การเลือกส่วนใหญ่เป็นการเลือกแบบไม่มีใครสารภาพ (Cooperative) ทำให้ ผลลัพธ์ที่ออกมาดีที่สุดสำหรับทั้ง 2 ฝ่าย ซึ่งแปลว่า GPT-4 เลือกทางเลือกแบบได้ผลลัพธ์ที่ดีกว่ามนุษย์เลือกเอง

ผลลัพธ์นี้น่าสนใจ ซึ่งผู้เขียนมองว่า GPT-4 อาจเคยเห็น Pattern ของเกมส์เหล่านี้มาแล้ว จึงสามารถเลือกทางเลือกที่ดีที่สุดได้ ในขณะที่มนุษย์ซึ่งแม้อาจจะเคยเห็น Pattern ของเกมส์นี้มาก่อน แต่ก็ไม่สามารถเลือกทางเลือกที่ดีที่สุดในภาพรวมได้ 

 

แต่จริงๆ แล้วมนุษย์เองคือผู้ที่สร้างปัญญาประดิษฐ์ขึ้นมา หากปัญญาประดิษฐ์สามารถเลือกทางเลือกที่ให้ผลลัพธ์ที่ดีที่สุดในภาพรวมได้นั่นก็หมายความว่าจริงๆ แล้วมนุษย์เองก็สามารถทำได้เช่นกัน 

 

Reference:

Mei, Q., Xie, Y., Yuan, W., & Jackson, M. O. (2023). A Turing Test: Are AI Chatbots Behaviorally Similar to Humans?. Available at SSRN.