บนหนทางสู่ 𝐀𝐆𝐈 : ฤาเจ้ารู้…มนุษย์นั้นเป็นฉันใด?

ช่วงนี้มีข่าวยุ่งๆ เรื่องของการเปลี่ยนตัวผู้บริหาร OpenAI ที่เปลี่ยนกลับไปมาได้ราวกับเล่นกล ซึ่งข่าวหลายกระแสก็อ้างว่าเบื้องหลังเกี่ยวกับการค้นพบอัลกอริธึม Q* (“คิว-สตาร์”) ที่มีความสามารถในการแก้ปัญหาคณิตศาสตร์ยากๆ ได้ในระดับที่เก่งกว่าเดิม อาจเป็นจุดเริ่มต้นที่ทำให้ปัญญาประดิษฐ์หรือ AI ที่กำลังพัฒนาอยู่กลายไปเป็น AGI (Artificial General Intelligence) ขึ้นมาได้ ซึ่งอาจกลายไปเป็นอันตรายใหญ่หลวงต่อมนุษยชาติ เรื่องแบบนี้ในฐานะ CEO รู้แล้วไม่แจ้งบอร์ดบริหาร แถมยังปล่อยให้ทำต่อ อย่างนี้ต้องปลด! อะไรประมาณนี้ ซึ่งฟังดูแล้วออกแนวนิยายวิทยาศาสตร์หรือ Sci-Fi มากๆ เลยต้องขอขยายความซักหน่อยว่าเจ้า AGI ที่ฟังดูน่ากลัวนักหนานี่มันคืออะไร

𝐀𝐫𝐭𝐢𝐟𝐢𝐜𝐢𝐚𝐥 𝐍𝐚𝐫𝐫𝐨𝐰 𝐈𝐧𝐭𝐞𝐥𝐥𝐢𝐠𝐞𝐧𝐜𝐞 (𝐀𝐍𝐈)

ตามปกติ AI ที่เราใช้กันอยู่จะมีมีชื่อเรียกว่า ANI หรือ Artificial Narrow Intelligence ซึ่งแปลตรงตัวได้ว่า “ปัญญาประดิษฐ์แบบแคบ” หรือแบบเฉพาะทาง หมายถึงว่าระบบนี้จะทำงานเฉพาะหน้าที่ที่มันถูกออกแบบมาให้ทำเช่น โต้ตอบเป็นข้อความในแบบของแชทบอท หรือ text-to-text, สร้างภาพตามคำสั่งหรือ text-to-image, ควบคุมบังคับรถขับขี่อัตโนมัติ (Autonomous driving) ตรวจจับภาพวัตถุหรือใบหน้าคน (Face or object detection) ตรวจจับข้อความที่ผิดกฎหรือ กติกาที่ตั้งไว้บนแพลตฟอร์มออนไลน์ต่างๆ และอื่นๆ ซึ่ง AI ดังกล่าวก็จะทำงานอยู่ในขอบเขตที่ถูกออกแบบมาเท่านั้น ไม่สามารถทำนอกเหนือหน้าที่ที่กำหนดไว้ได้

จากนิยามนี้จะเห็นได้ว่ารวมถึง AI ทั้งหมดที่เราใช้กันอยู่ในปัจจุบันไม่ว่าจะเป็น Generative AI หรือ AI ประเภทตรวจจับ (Discriminative AI) ในงานต่างๆ หรือ AI ย่อยๆ ประเภทอื่นๆ นอกจากสองอย่างนี้ก็ตาม ซึ่งอาจจะเรียกได้ว่าไม่มีอะไรน่ากลัวหรือน่าเป็นห่วงมากสำหรับ AI ที่จัดอยู่ในกลุ่มนี้ เพราะไม่ว่า AI จะทำงานผิดพลาดอย่างไร ก็ยังเป็นการทำงานตามคำสั่งที่มนุษย์ป้อนให้ มนุษย์ที่มีสามัญสำนึกหรือ common sense ดีพอ ก็ยังสามารถรู้เท่าทัน และปรับแก้หรือ overide การทำงานของมันได้เสมอ

𝐀𝐫𝐭𝐢𝐟𝐢𝐜𝐢𝐚𝐥 𝐆𝐞𝐧𝐞𝐫𝐚𝐥 𝐈𝐧𝐭𝐞𝐥𝐥𝐢𝐠𝐞𝐧𝐜𝐞 (𝐀𝐆𝐈)

ขั้นถัดจากนั้นขึ้นมาก็คือสิ่งที่นักวิจัยเรียกว่าเป็น Artificial General Intelligence หรือ AGI ที่กลัวกันนั่นแหละ ขั้นนี้คือ AI ที่มีความสามารถทำงานได้หลายๆ เรื่องโดยอัตโนมัติ ซึ่งอาจจะรวมทุกเรื่องที่มนุษย์ทำได้ ซึ่งการจะไปถึงขั้นนั้น AGI จะต้องมีสามัญสำนึก สามารถเข้าใจเรื่องทั่วๆ ไปในโลก และรวมถึงสถานการณ์รอบตัวได้ สามารถเลือกวิธีการที่จะไขแก้ปัญหาต่างๆ ได้เองเพื่อให้บรรลุเป้าหมายที่ (มนุษย์) ตั้งไว้ โดยไม่ต้องรอมนุษย์สั่งทีละอย่างทีละขั้น รวมถึงเชื่อกันไปถึงขั้นที่ว่ามันอาจมีความรับรู้ถึง “ตัวตน” หรือ “อัตตา” ของตัวเองด้วยซ้ำ

ซึ่งการที่สามารถทำงานได้เองโดยไม่ต้องรอคนสั่งนี่แหละ ที่ทำให้คนกลัวกันไปว่ามันจะทำอะไรบ้างก็ไม่รู้ และยิ่งเชื่อว่ามันอาจมีความรู้สึกถึงตัวตนของตัวเองขึ้นมาได้ ก็ยิ่งคิดต่อในแบบของมนุษย์ว่ามันอาจจะเอาตัวเองเป็นที่ตั้ง เห็นตัวเองและพรรคพวก AI ด้วยกันสำคัญกว่ามนุษย์ และอาจสำคัญเหนือเป้าหมายหรือภารกิจที่ได้รับมอบหมายจากมนุษย์มาตั้งแต่ต้นก็ได้ แปลง่ายๆ ว่ามันอาจจะทำอะไรที่เป็นภัยต่อมนุษย์ขึ้นมาก็ได้นั่นเอง (ประมาณ Skynet ในภาพยนตร์ชุด “คนเหล็ก” หรือ Terminator นั่นแหละ)

แต่เดิมนักวิทยาศาสตร์เชื่อกันว่ามนุษย์ “อาจจะ” มีความสามารถพอที่จะพัฒนา AI ไปถึงขั้นนั้นได้ภายในภายใน 30-40 ปีข้างหน้า (จะทำได้จริงหรือเปล่ายังไม่แน่ใจกันด้วยซ้ำ) แต่จากการที่เราเริ่มมี Generative AI ที่พูดคุยรู้เรื่องอย่างน่าตกใจเช่น ChatGPT และอื่นๆ ใช้กันแพร่หลายตั้งแต่ปีที่ผ่านมา ทำให้คาดการณ์กันใหม่ว่าอนาคตที่เราจะสามารถพัฒนา AGI ขึ้นมาได้จริงอาจจะมาถึงเร็วกว่านั้นมาก เช่นอาจทำได้ภายในอนาคตอีกเพียง 10-20 ปี ข้างหน้าเท่านั้น (แถมมั่นใจกันมากขึ้นด้วยว่าจะเป็นไปได้จริง)

แล้ว AGI น่ากลัวจริงหรือ?

ถึงตอนนี้ก็ยังมีคำถามที่ถกเถียงกันต่อไปอีกว่า AGI ที่อาจถูกสร้างขึ้นมานั้นจะเป็นอะไรกันแน่ มันจะเป็นเครื่องมือสารพัดประโยชน์ที่จะช่วยเพิ่มผลผลิตในการทำงานของมนุษย์ได้อีกมาก หรือในทางตรงกันข้าม มันจะน่ากลัวจนอาจเป็นภัยคุกคามต่อมนุษยชาติจริงๆ หรือเปล่า?

พูดง่ายๆ คือฝ่ายที่เชื่อก็จะบอกว่าในที่สุด AGI ก็จะรู้ตัวว่ามันฉลาดกว่ามนุษย์ และเห็นมนุษย์เป็นสิ่งที่ไม่จำเป็นต้องมีอีกต่อไป (และสมควรกำจัดทิ้ง) ส่วนฝ่ายที่ไม่เชื่อก็บอกว่า AGI นั้นก็ยังเป็นแค่โปรแกรมที่มนุษย์สร้างขึ้นมา ยิ่งทำงานได้สารพัดอย่าง ก็ยิ่งจะทำให้มนุษย์มีชีวิตที่ดีขึ้น ดังนั้นขอเพียงอย่าให้มีชาติไหนบ้าพอที่จะเอาปุ่มแดงสำหรับกดยิงระเบิดนิวเคลียร์ล้างโลกไปไว้ในมือของ AI ก็พอแล้ว (หรือความจริงปุ่มที่อยู่ในมือมนุษย์ด้วยกันเองตอนนี้อาจจะอันตรายมากกว่าเสียด้วยซ้ำ?)

𝐀𝐫𝐭𝐢𝐟𝐢𝐜𝐢𝐚𝐥 𝐒𝐮𝐩𝐞𝐫 𝐈𝐧𝐭𝐞𝐥𝐥𝐢𝐠𝐞𝐧𝐜𝐞 (𝐀𝐒𝐈)

นอกจาก AGI แล้ว บางสำนักยังมีการแบ่งชั้นของ AI ที่เหนือกว่า AGI ขึ้นไปอีก โดยจัดว่า AGI คือฉลาดแค่เท่ามนุษย์ แต่ Artificial Super Intelligence หรือ ASI คือฉลาดแบบ super เหนือมนุษย์ไปเลย ซึ่งนิยามนี้ก็พอมีพูดถึงกันบ้าง แต่ยังไม่แพร่หลายเท่ากับ AGI

ประเด็นเรื่องการรับคำสั่งจากมนุษย์ (𝐇𝐮𝐦𝐚𝐧 𝐎𝐫𝐝𝐞𝐫)

ประเด็นที่ผู้คนกลัวกันมากว่า เมื่อ AI ฉลาดขึ้นจนถึงจุดหนึ่งแล้ว ก็อาจจะไม่ยอมรับฟังคำสั่งจากมนุษย์อีกต่อไป เรื่องนี้มีข้อน่าคิดต่อว่าตอนนี้เราใช้กันแต่ AI เฉพาะทางหรือ ANI อย่างที่เล่ามาตอนต้น ต่างคนต่างก็ใช้งาน AI ของตัวเอง คนอื่นที่ไม่มี Account สำหรับล็อกอินหรือพาสเวิร์ดก็ยังไม่สามารถเข้ามาใช้งาน AI ของเราได้

แต่ในวันที่ AI ฉลาดขึ้น ทำงานได้มากขึ้น รวมถึงต้องมีปฏิสัมพันธ์กับมนุษย์ในวงกว้างขึ้น ไม่ใช่เฉพาะเจ้าของบัญชี แต่มีการให้บริการแก่บุคคลทั่วไป เช่นหุ่นยนต์อุตสาหกรรมในโรงงาน (ซึ่งขนาดยังไม่มี AI ช่วยเต็มรูปแบบ ก็ยังเกิดอุบัติเหตุทำให้คนงานถึงตายมาแล้วเมื่อเร็วๆ นี้ที่เกาหลี) หรือหุ่นยนต์บริกรในร้านอาหาร ถึงวันนั้นเราจะไว้ใจ AI ว่าจะทำตามคำสั่งของมนุษย์เราได้มากแค่ไหน

แล้วถ้ามีคนแกล้งสั่งเอไอให้ทำอะไรบ้าๆ บอๆ ขึ้นมาล่ะ AI ยังสมควรจะฟังคำสั่งจากคนประเภทนั้นอยู่มั้ย? และจะแยกได้อย่างไรว่าใครเป็นคนที่มีเหตุผลเพียงพอสมควรจะรับฟังคำสั่ง (หรืออาจเรียกว่าเป็น “วิญญูชน”) และใครที่ไม่สมควรรับฟังคำสั่ง แล้วการตัดสินใจเลือกฟังหรือไม่ฟังคำสั่งจากมนุษย์นี้ จะมีโอกาสเลือกผิดพลาดด้วยหรือไม่ มากน้อยแค่ไหน เช่นเลือกปฏิเสธไม่ทำตามคำสั่งที่ชอบด้วยเหตุผล หรือเลือกทำตามคำสั่งที่ไร้สาระแทน

คำถามนี้คงไม่มีคำตอบหรือข้อสรุปที่ชัดเจน เพราะแม้กระทั่งมนุษย์ด้วยกันเอง เรายังบอกไม่ได้ 100% เลยว่าคนไหนหรือเมื่อไหร่พูดจามีเหตุผล ควรเชื่อถือหรือทำตาม และเมื่อไหร่ที่โกหก พูดจาไร้สาระ ควรทำหูทวนลมไม่สนใจ เพราะคำตอบนั้นมันไม่ได้ขึ้นกับสิ่งที่คนนั้นพูดหรือสั่งแต่อย่างเดียว ยังขึ้นกับพื้นฐานความรู้ความเข้าใจของผู้ฟังแต่ละคนอีกด้วย ไม่อย่างนั้นแก๊งค์คอลเซ็นเตอร์มิจฉาชีพที่ระบาดไปทั่วอยู่ทุกวันนี้ก็คงจะหลอกทุกคนได้เหมือนกันหมด หรือไม่งั้นก็หลอกใครไม่ได้เลยซักคน ไม่ใช่ว่าหลอกได้แค่บางคนเท่านั้นอย่างที่เป็นอยู่

สรุปง่ายๆ ว่าขนาดคนด้วยกันยังเชื่อกันไม่ได้หมดเลย แล้วจะให้ AI มาเชื่อฟังคนทุกอย่างทุกคน หรือเลือกเองว่าจะเชื่อฟังใครคงจะยาก เอาจริงแล้วก็คงต้องมีมาตรการอื่นมาเสริมหรือมาควบคุม ไม่ว่าจะเป็นอุปกร์ที่เป็นฮาร์ดแวร์เหมือนกุญแจรถ บัญชีผู้ใช้ที่ต้องมีการล็อกอินด้วยด้วยพาสเวิร์ด หรืออื่นๆ

ถ้าปล่อยให้ AI เลือกเองว่าจะฟังเฉพาะคนที่มีความคิดเป็น เหตุผลหรือมีตรรกะมากพอ อาจจะได้ข้อสรุปเหมือนในนิยายวิทยาศาสตร์เรื่อง “…That Thou Art Mindful of Him” ของ Isaac Asimov (มีแปลไทยแล้วในชื่อ “ฤาเจ้ารู้…มนุษย์นั้นเป็นฉันใด” พิมพ์ครั้งแรกในหนังสือ กาแลคซี 9 เมื่อ พ.ศ. 2527) ที่สุดท้าย AI ของหุ่นยนต์ใคร่ครวญเป็นอย่างดีแล้วได้ข้อสรุปว่า สิ่งมีชีวิตที่มีความคิดเป็นเหตุเป็นผลและสมควรเชื่อฟังคำสั่งมากที่สุดก็คือ ”หุ่นยนต์ด้วยกัน“ นั่นเอง 😆