
ช่วงนี้มีข่าวยุ่งๆ เรื่องของการเปลี่ยนตัวผู้บริหาร OpenAI ที่เปลี่ยนกลับไปมาได้ราวกับเล่นกล ซึ่งข่าวหลายกระแสก็อ้างว่าเบื้องหลังเกี่ยวกับการค้นพบอัลกอริธึม Q* (“คิว-สตาร์”) ที่มีความสามารถในการแก้ปัญหาคณิตศาสตร์ยากๆ ได้ในระดับที่เก่งกว่าเดิม อาจเป็นจุดเริ่มต้นที่ทำให้ปัญญาประดิษฐ์หรือ AI ที่กำลังพัฒนาอยู่กลายไปเป็น AGI (Artificial General Intelligence) ขึ้นมาได้ ซึ่งอาจกลายไปเป็นอันตรายใหญ่หลวงต่อมนุษยชาติ เรื่องแบบนี้ในฐานะ CEO รู้แล้วไม่แจ้งบอร์ดบริหาร แถมยังปล่อยให้ทำต่อ อย่างนี้ต้องปลด! อะไรประมาณนี้ ซึ่งฟังดูแล้วออกแนวนิยายวิทยาศาสตร์หรือ Sci-Fi มากๆ เลยต้องขอขยายความซักหน่อยว่าเจ้า AGI ที่ฟังดูน่ากลัวนักหนานี่มันคืออะไร
𝐀𝐫𝐭𝐢𝐟𝐢𝐜𝐢𝐚𝐥 𝐍𝐚𝐫𝐫𝐨𝐰 𝐈𝐧𝐭𝐞𝐥𝐥𝐢𝐠𝐞𝐧𝐜𝐞 (𝐀𝐍𝐈)
—
ตามปกติ AI ที่เราใช้กันอยู่จะมีมีชื่อเรียกว่า ANI หรือ Artificial Narrow Intelligence ซึ่งแปลตรงตัวได้ว่า “ปัญญาประดิษฐ์แบบแคบ” หรือแบบเฉพาะทาง หมายถึงว่าระบบนี้จะทำงานเฉพาะหน้าที่ที่มันถูกออกแบบมาให้ทำเช่น โต้ตอบเป็นข้อความในแบบของแชทบอท หรือ text-to-text, สร้างภาพตามคำสั่งหรือ text-to-image, ควบคุมบังคับรถขับขี่อัตโนมัติ (Autonomous driving) ตรวจจับภาพวัตถุหรือใบหน้าคน (Face or object detection) ตรวจจับข้อความที่ผิดกฎหรือ กติกาที่ตั้งไว้บนแพลตฟอร์มออนไลน์ต่างๆ และอื่นๆ ซึ่ง AI ดังกล่าวก็จะทำงานอยู่ในขอบเขตที่ถูกออกแบบมาเท่านั้น ไม่สามารถทำนอกเหนือหน้าที่ที่กำหนดไว้ได้
จากนิยามนี้จะเห็นได้ว่ารวมถึง AI ทั้งหมดที่เราใช้กันอยู่ในปัจจุบันไม่ว่าจะเป็น Generative AI หรือ AI ประเภทตรวจจับ (Discriminative AI) ในงานต่างๆ หรือ AI ย่อยๆ ประเภทอื่นๆ นอกจากสองอย่างนี้ก็ตาม ซึ่งอาจจะเรียกได้ว่าไม่มีอะไรน่ากลัวหรือน่าเป็นห่วงมากสำหรับ AI ที่จัดอยู่ในกลุ่มนี้ เพราะไม่ว่า AI จะทำงานผิดพลาดอย่างไร ก็ยังเป็นการทำงานตามคำสั่งที่มนุษย์ป้อนให้ มนุษย์ที่มีสามัญสำนึกหรือ common sense ดีพอ ก็ยังสามารถรู้เท่าทัน และปรับแก้หรือ overide การทำงานของมันได้เสมอ
𝐀𝐫𝐭𝐢𝐟𝐢𝐜𝐢𝐚𝐥 𝐆𝐞𝐧𝐞𝐫𝐚𝐥 𝐈𝐧𝐭𝐞𝐥𝐥𝐢𝐠𝐞𝐧𝐜𝐞 (𝐀𝐆𝐈)
—
ขั้นถัดจากนั้นขึ้นมาก็คือสิ่งที่นักวิจัยเรียกว่าเป็น Artificial General Intelligence หรือ AGI ที่กลัวกันนั่นแหละ ขั้นนี้คือ AI ที่มีความสามารถทำงานได้หลายๆ เรื่องโดยอัตโนมัติ ซึ่งอาจจะรวมทุกเรื่องที่มนุษย์ทำได้ ซึ่งการจะไปถึงขั้นนั้น AGI จะต้องมีสามัญสำนึก สามารถเข้าใจเรื่องทั่วๆ ไปในโลก และรวมถึงสถานการณ์รอบตัวได้ สามารถเลือกวิธีการที่จะไขแก้ปัญหาต่างๆ ได้เองเพื่อให้บรรลุเป้าหมายที่ (มนุษย์) ตั้งไว้ โดยไม่ต้องรอมนุษย์สั่งทีละอย่างทีละขั้น รวมถึงเชื่อกันไปถึงขั้นที่ว่ามันอาจมีความรับรู้ถึง “ตัวตน” หรือ “อัตตา” ของตัวเองด้วยซ้ำ
ซึ่งการที่สามารถทำงานได้เองโดยไม่ต้องรอคนสั่งนี่แหละ ที่ทำให้คนกลัวกันไปว่ามันจะทำอะไรบ้างก็ไม่รู้ และยิ่งเชื่อว่ามันอาจมีความรู้สึกถึงตัวตนของตัวเองขึ้นมาได้ ก็ยิ่งคิดต่อในแบบของมนุษย์ว่ามันอาจจะเอาตัวเองเป็นที่ตั้ง เห็นตัวเองและพรรคพวก AI ด้วยกันสำคัญกว่ามนุษย์ และอาจสำคัญเหนือเป้าหมายหรือภารกิจที่ได้รับมอบหมายจากมนุษย์มาตั้งแต่ต้นก็ได้ แปลง่ายๆ ว่ามันอาจจะทำอะไรที่เป็นภัยต่อมนุษย์ขึ้นมาก็ได้นั่นเอง (ประมาณ Skynet ในภาพยนตร์ชุด “คนเหล็ก” หรือ Terminator นั่นแหละ)
แต่เดิมนักวิทยาศาสตร์เชื่อกันว่ามนุษย์ “อาจจะ” มีความสามารถพอที่จะพัฒนา AI ไปถึงขั้นนั้นได้ภายในภายใน 30-40 ปีข้างหน้า (จะทำได้จริงหรือเปล่ายังไม่แน่ใจกันด้วยซ้ำ) แต่จากการที่เราเริ่มมี Generative AI ที่พูดคุยรู้เรื่องอย่างน่าตกใจเช่น ChatGPT และอื่นๆ ใช้กันแพร่หลายตั้งแต่ปีที่ผ่านมา ทำให้คาดการณ์กันใหม่ว่าอนาคตที่เราจะสามารถพัฒนา AGI ขึ้นมาได้จริงอาจจะมาถึงเร็วกว่านั้นมาก เช่นอาจทำได้ภายในอนาคตอีกเพียง 10-20 ปี ข้างหน้าเท่านั้น (แถมมั่นใจกันมากขึ้นด้วยว่าจะเป็นไปได้จริง)
แล้ว AGI น่ากลัวจริงหรือ?
ถึงตอนนี้ก็ยังมีคำถามที่ถกเถียงกันต่อไปอีกว่า AGI ที่อาจถูกสร้างขึ้นมานั้นจะเป็นอะไรกันแน่ มันจะเป็นเครื่องมือสารพัดประโยชน์ที่จะช่วยเพิ่มผลผลิตในการทำงานของมนุษย์ได้อีกมาก หรือในทางตรงกันข้าม มันจะน่ากลัวจนอาจเป็นภัยคุกคามต่อมนุษยชาติจริงๆ หรือเปล่า?
พูดง่ายๆ คือฝ่ายที่เชื่อก็จะบอกว่าในที่สุด AGI ก็จะรู้ตัวว่ามันฉลาดกว่ามนุษย์ และเห็นมนุษย์เป็นสิ่งที่ไม่จำเป็นต้องมีอีกต่อไป (และสมควรกำจัดทิ้ง) ส่วนฝ่ายที่ไม่เชื่อก็บอกว่า AGI นั้นก็ยังเป็นแค่โปรแกรมที่มนุษย์สร้างขึ้นมา ยิ่งทำงานได้สารพัดอย่าง ก็ยิ่งจะทำให้มนุษย์มีชีวิตที่ดีขึ้น ดังนั้นขอเพียงอย่าให้มีชาติไหนบ้าพอที่จะเอาปุ่มแดงสำหรับกดยิงระเบิดนิวเคลียร์ล้างโลกไปไว้ในมือของ AI ก็พอแล้ว (หรือความจริงปุ่มที่อยู่ในมือมนุษย์ด้วยกันเองตอนนี้อาจจะอันตรายมากกว่าเสียด้วยซ้ำ?)
𝐀𝐫𝐭𝐢𝐟𝐢𝐜𝐢𝐚𝐥 𝐒𝐮𝐩𝐞𝐫 𝐈𝐧𝐭𝐞𝐥𝐥𝐢𝐠𝐞𝐧𝐜𝐞 (𝐀𝐒𝐈)
—
นอกจาก AGI แล้ว บางสำนักยังมีการแบ่งชั้นของ AI ที่เหนือกว่า AGI ขึ้นไปอีก โดยจัดว่า AGI คือฉลาดแค่เท่ามนุษย์ แต่ Artificial Super Intelligence หรือ ASI คือฉลาดแบบ super เหนือมนุษย์ไปเลย ซึ่งนิยามนี้ก็พอมีพูดถึงกันบ้าง แต่ยังไม่แพร่หลายเท่ากับ AGI
ประเด็นเรื่องการรับคำสั่งจากมนุษย์ (𝐇𝐮𝐦𝐚𝐧 𝐎𝐫𝐝𝐞𝐫)
—
ประเด็นที่ผู้คนกลัวกันมากว่า เมื่อ AI ฉลาดขึ้นจนถึงจุดหนึ่งแล้ว ก็อาจจะไม่ยอมรับฟังคำสั่งจากมนุษย์อีกต่อไป เรื่องนี้มีข้อน่าคิดต่อว่าตอนนี้เราใช้กันแต่ AI เฉพาะทางหรือ ANI อย่างที่เล่ามาตอนต้น ต่างคนต่างก็ใช้งาน AI ของตัวเอง คนอื่นที่ไม่มี Account สำหรับล็อกอินหรือพาสเวิร์ดก็ยังไม่สามารถเข้ามาใช้งาน AI ของเราได้
แต่ในวันที่ AI ฉลาดขึ้น ทำงานได้มากขึ้น รวมถึงต้องมีปฏิสัมพันธ์กับมนุษย์ในวงกว้างขึ้น ไม่ใช่เฉพาะเจ้าของบัญชี แต่มีการให้บริการแก่บุคคลทั่วไป เช่นหุ่นยนต์อุตสาหกรรมในโรงงาน (ซึ่งขนาดยังไม่มี AI ช่วยเต็มรูปแบบ ก็ยังเกิดอุบัติเหตุทำให้คนงานถึงตายมาแล้วเมื่อเร็วๆ นี้ที่เกาหลี) หรือหุ่นยนต์บริกรในร้านอาหาร ถึงวันนั้นเราจะไว้ใจ AI ว่าจะทำตามคำสั่งของมนุษย์เราได้มากแค่ไหน
แล้วถ้ามีคนแกล้งสั่งเอไอให้ทำอะไรบ้าๆ บอๆ ขึ้นมาล่ะ AI ยังสมควรจะฟังคำสั่งจากคนประเภทนั้นอยู่มั้ย? และจะแยกได้อย่างไรว่าใครเป็นคนที่มีเหตุผลเพียงพอสมควรจะรับฟังคำสั่ง (หรืออาจเรียกว่าเป็น “วิญญูชน”) และใครที่ไม่สมควรรับฟังคำสั่ง แล้วการตัดสินใจเลือกฟังหรือไม่ฟังคำสั่งจากมนุษย์นี้ จะมีโอกาสเลือกผิดพลาดด้วยหรือไม่ มากน้อยแค่ไหน เช่นเลือกปฏิเสธไม่ทำตามคำสั่งที่ชอบด้วยเหตุผล หรือเลือกทำตามคำสั่งที่ไร้สาระแทน
คำถามนี้คงไม่มีคำตอบหรือข้อสรุปที่ชัดเจน เพราะแม้กระทั่งมนุษย์ด้วยกันเอง เรายังบอกไม่ได้ 100% เลยว่าคนไหนหรือเมื่อไหร่พูดจามีเหตุผล ควรเชื่อถือหรือทำตาม และเมื่อไหร่ที่โกหก พูดจาไร้สาระ ควรทำหูทวนลมไม่สนใจ เพราะคำตอบนั้นมันไม่ได้ขึ้นกับสิ่งที่คนนั้นพูดหรือสั่งแต่อย่างเดียว ยังขึ้นกับพื้นฐานความรู้ความเข้าใจของผู้ฟังแต่ละคนอีกด้วย ไม่อย่างนั้นแก๊งค์คอลเซ็นเตอร์มิจฉาชีพที่ระบาดไปทั่วอยู่ทุกวันนี้ก็คงจะหลอกทุกคนได้เหมือนกันหมด หรือไม่งั้นก็หลอกใครไม่ได้เลยซักคน ไม่ใช่ว่าหลอกได้แค่บางคนเท่านั้นอย่างที่เป็นอยู่
สรุปง่ายๆ ว่าขนาดคนด้วยกันยังเชื่อกันไม่ได้หมดเลย แล้วจะให้ AI มาเชื่อฟังคนทุกอย่างทุกคน หรือเลือกเองว่าจะเชื่อฟังใครคงจะยาก เอาจริงแล้วก็คงต้องมีมาตรการอื่นมาเสริมหรือมาควบคุม ไม่ว่าจะเป็นอุปกร์ที่เป็นฮาร์ดแวร์เหมือนกุญแจรถ บัญชีผู้ใช้ที่ต้องมีการล็อกอินด้วยด้วยพาสเวิร์ด หรืออื่นๆ
ถ้าปล่อยให้ AI เลือกเองว่าจะฟังเฉพาะคนที่มีความคิดเป็น เหตุผลหรือมีตรรกะมากพอ อาจจะได้ข้อสรุปเหมือนในนิยายวิทยาศาสตร์เรื่อง “…That Thou Art Mindful of Him” ของ Isaac Asimov (มีแปลไทยแล้วในชื่อ “ฤาเจ้ารู้…มนุษย์นั้นเป็นฉันใด” พิมพ์ครั้งแรกในหนังสือ กาแลคซี 9 เมื่อ พ.ศ. 2527) ที่สุดท้าย AI ของหุ่นยนต์ใคร่ครวญเป็นอย่างดีแล้วได้ข้อสรุปว่า สิ่งมีชีวิตที่มีความคิดเป็นเหตุเป็นผลและสมควรเชื่อฟังคำสั่งมากที่สุดก็คือ ”หุ่นยนต์ด้วยกัน“ นั่นเอง ![]()

