ถ้ามีประเด็นหนึ่งที่ถูกย้ำซ้ำในคำเตือนเกี่ยวกับ AI และความเสี่ยงระดับ AGI นั่นคือ “เรื่องอำนาจ” ไม่ใช่แค่ “เรื่องเทคโนโลยี” คนจำนวนมากมองว่า AI เป็นนวัตกรรมที่ต้องคอยปรับตัว แต่กรอบคิดที่จริงจังกว่านั้นชี้ว่าอุตสาหกรรมถูกออกแบบให้ผู้สร้างและผู้ลงทุนเป็นผู้ตัดสินใจแทนคนทั้งโลก และคนส่วนใหญ่ไม่มีช่องทางกำกับทิศทางเหล่านั้นได้เลย
ด้านล่างนี้คือการเรียบเรียงประเด็นสำคัญทั้งหมดแบบเป็นบทความที่อ่านจบได้ในตัวเอง โดยรักษาน้ำเสียงเชิงวิพากษ์แบบนักวิจัยและผู้ให้ข้อมูลด้านความเสี่ยง พร้อมทั้งเสนอข้อคิดเชิงนโยบายว่า “ควรทำอะไร” เพื่อรับมือความเสี่ยงที่อาจทวีขึ้นในช่วงหลายปีข้างหน้า โดยเฉพาะในบริบทที่หลายคนเริ่มพูดถึง “ปี 2026” อย่างจริงจัง
1) ทำไม AI จึงไม่ใช่แค่ “เครื่องมือ” แต่เป็น “ระบบอำนาจ”
คำเตือนชิ้นสำคัญไม่ได้เริ่มจากคำถามว่าโมเดลฉลาดแค่ไหน แต่เริ่มจากคำถามว่า “ใครเป็นคนตัดสินใจ” เมื่อ AI ถูกทำให้มีอิทธิพลต่อชีวิตคนหลายพันล้านคน
แนวคิดหลักคืออุตสาหกรรมถูกสร้างเป็นระบบที่เอื้อให้บริษัทและผู้บริหารสามารถกำหนดทิศทางเทคโนโลยีได้ ขณะที่ผู้ได้รับผลกระทบจำนวนมหาศาลแทบไม่มีสิทธิ์มีเสียงในการกำกับว่าเทคโนโลยีควรไปทางไหน เมื่อไหร่ และด้วยเงื่อนไขใด
ในเชิงการวิเคราะห์ นี่สะท้อนรูปแบบที่อาจเรียกว่า “ความไม่สมดุลเชิงอำนาจ” ระหว่าง:
- ผู้พัฒนา (บริษัท, นักวิจัยที่ถูกทุนสนับสนุน, กลุ่มผู้มีทรัพยากร)
- สาธารณะ (ประชาชน, ผู้กำลังจะได้รับผลกระทบทางเศรษฐกิจและสังคม)
2) “อาณาจักรของ AI” และแรงจูงใจแบบจักรวรรดิ (imperial agenda)
หนึ่งในคำอธิบายที่แรงที่สุดคือการเปรียบอุตสาหกรรม AI กับ “อาณาจักร” โดยให้เหตุผลว่าแรงจูงใจและการดำเนินงานมีมิติแบบจักรวรรดิ ทั้งในเชิงทรัพยากร แรงงาน และความรู้
2.1 การแย่งทรัพยากรที่ไม่ได้เป็นของตนเอง
ประเด็นแรกคือการ “lay claim” กับทรัพยากรที่เป็นของคนอื่น เช่น
- ข้อมูลของบุคคล
- ทรัพย์สินทางปัญญา ของศิลปิน นักเขียน และผู้สร้างสรรค์
- ที่ดินและโครงสร้างพื้นฐาน สำหรับศูนย์ข้อมูลและการฝึกโมเดล
ข้อสังเกตสำคัญที่ตามมาคือการใช้สิ่งเหล่านี้เพื่อแข่งขันกันใน “เชื้อเพลิงของการเติบโต” ทำให้เกิดแรงผลักให้ต้องเดินหน้าต่อ แม้จะมีต้นทุนทางจริยธรรมก็ตาม
2.2 การใช้แรงงานอย่างมหาศาลและการกัดกร่อนสิทธิแรงงาน
ประเด็นที่สองคือการใช้แรงงานจากผู้รับจ้างจำนวนมากทั่วโลกเพื่อทำให้เทคโนโลยีเกิดขึ้นจริง นอกจากนั้นยังมีข้อโต้แย้งว่าบริษัทออกแบบเครื่องมือให้ “ทำงานแทนคน” ซึ่งส่งผลต่อสิทธิแรงงานเมื่อถูกนำไปใช้งานในโลกจริง
ในกรอบนี้ จึงไม่ใช่แค่ว่า AI ทำให้ประสิทธิภาพดีขึ้น แต่เป็นการยอมรับผลกระทบต่อแรงงานเป็นส่วนหนึ่งของ “ทางเลือกเชิงการเมือง” (political choice)
2.3 การผูกขาดการผลิตความรู้และการกำหนดวาระวิจัย
ประเด็นที่สามคือการครอบงำการผลิตความรู้ โดยอาจทำให้สาธารณะเชื่อว่า “มีเพียงบริษัทเท่านั้นที่เข้าใจเทคโนโลยีนี้” และเมื่อประชาชนไม่พอใจ ก็อาจถูกตีกรอบว่า “ไม่เข้าใจพอ”
ยิ่งไปกว่านั้น ยังมีข้อกล่าวว่าอุตสาหกรรมทุนใหญ่สามารถ “กำหนดวาระ” งานวิจัยเชิงจำกัด โดยเงินและทรัพยากรถูกจัดสรรให้สอดคล้องกับสิ่งที่บริษัทต้องการ ในขณะเดียวกันนักวิจัยที่พบผลลัพธ์ที่ไม่สอดคล้องกับเป้าหมายก็อาจถูกกดดันหรือถูกจำกัดเส้นทางการสื่อสาร
3) ตัวอย่างเชิงโครงสร้าง: การปิดกั้นงานวิจัยและการ “ทำให้ไม่สะดวก”
กรณีที่ถูกยกขึ้นเพื่อสะท้อนรูปแบบนี้คือประวัติของนักวิจัยด้านจริยธรรมคนหนึ่งที่ทำงานอยู่ภายใต้ร่มของบริษัทขนาดใหญ่ โดยถูกว่าจ้างให้ “วิพากษ์” ระบบที่บริษัทกำลังสร้าง แต่หลังจากร่วมเขียนงานวิจัยที่ชี้ให้เห็นอันตรายบางอย่างที่เกิดจากโมเดลภาษาขนาดใหญ่ บริษัทเลือกใช้มาตรการที่ทำให้การสื่อสารงานนั้นลำบาก เช่นการเลิกจ้าง
ข้ออ้างเชิงเปรียบเทียบที่ใช้ในบทสนทนาน่าสนใจมาก: ถ้านักวิจัยภูมิอากาศส่วนใหญ่ถูกทุนสนับสนุนโดยอุตสาหกรรมเชื้อเพลิงฟอสซิล ผลสรุปก็อาจเอียงได้ ในทำนองเดียวกัน ถ้าวงการ AI ถูกทุนสนับสนุนโดยบริษัทผู้มีส่วนได้เสียสูง ก็สามารถ “กำหนดสิ่งที่ถูกค้นพบและสิ่งที่ถูกปล่อยออกสู่สาธารณะ” ได้อย่างนุ่มนวล
4) การข่มขู่และการเรียกข้อมูล: เมื่อความโปร่งใสกลายเป็นความเสี่ยง
อีกตัวอย่างที่ชี้ให้เห็นว่าความเสี่ยงไม่ได้จำกัดอยู่แค่ในแบบจำลอง AI แต่เกี่ยวข้องกับระบบข้อมูลและการกำกับสังคม คือกรณีของกลุ่มเฝ้าระวัง/องค์กรภาคประชาสังคมที่พยายามตั้งคำถามเชิงตรวจสอบ
รูปแบบที่ถูกเล่าคือมีคนไปเคาะประตูและพยายามขอเอกสารหรือข้อมูลติดต่อเพื่อทำความเข้าใจเครือข่ายผู้วิจารณ์ จากนั้นจึงตามมาด้วยการยื่นเอกสารทางกฎหมายที่ขอให้ผู้ตรวจสอบต้อง “ทำซ้ำทุกชิ้นของการสื่อสาร” ที่อาจเชื่อมโยงกับบุคคลบางคน เพื่อดูเหมือนการค้นหาแหล่งทุนหรือการประสานงานกับฝ่ายอื่น
ประเด็นเชิงหลักไม่ใช่ผลทางคดีเพียงอย่างเดียว แต่เป็นนัยว่า การตรวจสอบที่พยายามเปิดพื้นที่สาธารณะอาจถูกใช้กระบวนการกดทับทางเอกสารและความไม่แน่นอนจนทำให้การตรวจสอบยากขึ้น
5) ถามว่า CEO “รู้ไหม” ว่ากำลังเสี่ยงโลกหรือไม่
คำถามที่ถูกถามตรงมาก คือ ผู้บริหารบริษัท AI เชื่อจริงหรือไม่ว่า “ผลลัพธ์อาจเลวร้ายมาก” หรือพวกเขาใช้ความกลัวเป็นส่วนหนึ่งของกลไกเพื่อให้ได้อำนาจในการพัฒนาโดยไม่ถูกควบคุม
คำตอบที่เสนอคือแนวคิดเรื่อง “ตำนานคู่ขนาน” (two sides of the same coin) ซึ่งถูกใช้เพื่อสร้างความชอบธรรมให้กับการควบคุมแบบเข้มข้น
5.1 ตำนานด้านหนึ่ง: “ถ้าไม่เราทำ ทุกอย่างจะเละ”
มีการสื่อสารในแนวว่า หากปล่อยให้คนอื่นหรือประเทศอื่นทำ พื้นที่อันตรายจะสูงขึ้น จึงต้องมี “ผู้รับผิดชอบเดียว”
5.2 อีกด้านหนึ่ง: “ถ้าคุมเราได้ ทุกอย่างจะดีและพาความรุ่งเรืองมา”
ควบคู่กับความหวังเรื่องประโยชน์ใหญ่ เช่น การแก้โรคหรือแก้ปัญหาสภาพภูมิอากาศ แต่จุดยืนคือความหวังนั้นต้องแลกมากับ “การให้บริษัทควบคุมได้มากพอ”
ดังนั้นคำเตือนที่สำคัญคือ อย่าอ่านคำพูดเกี่ยวกับความเสี่ยงเป็น “การพยากรณ์อนาคต” แบบวิทยาศาสตร์ แต่ควรเห็นว่าเป็น “การสื่อสารเพื่อให้ผู้คนยอมให้โอนอำนาจ” ให้กับผู้พัฒนา
อีกประโยคที่ฝังแนวคิดคือการตั้งข้อสังเกตว่า อุตสาหกรรมสร้างความรู้สึกว่า “การเรียกอสูรกาย” (summoning the demon) เป็นเหตุผลให้ต้องให้บริษัทเป็นผู้ทำ เพราะหากปล่อยให้คนอื่นทำ ก็อันตรายเกินไป
6) ทำไมเรื่อง “การควบคุม” ถึงสำคัญกว่า “บุคลิกของ CEO คนไหน”
มีคำถามว่า CEO คนใดมีศีลธรรมมากกว่าคนอื่นหรือไม่ แต่คำตอบที่เน้นหนักคือ แม้จะเปลี่ยนตัวผู้นำทั้งหมด ความปัญหาเชิงโครงสร้างยังไม่หายไป
เหตุผลคือระบบที่ทำให้บริษัทตัดสินใจแทนสาธารณะ ยังเป็นแกนกลางของปัญหา ถ้าจะเปลี่ยนผลลัพธ์จริง ควรแก้ที่ “โครงสร้างอำนาจและการมีส่วนร่วม” มากกว่าแก้แค่ตัวบุคคล
7) ใครออกจาก OpenAI ทำไม และทำไม “คู่แข่ง” จึงเป็นวิธีรักษาอำนาจ
อีกประเด็นที่ถูกถามคือ ทำไมคนเก่งจำนวนมากออกจากบริษัทและเลือกไปตั้ง/ร่วมสร้างองค์กรอื่น แม้รายละเอียดเฉพาะในบทสนทนาจะมีการอธิบายเชิงบริบทมากกว่าการยืนยันทุกเหตุผลแบบเอกสาร แต่มีกรอบอธิบายที่ใช้เพื่อให้เข้าใจรูปแบบโดยรวม
แนวคิดหนึ่งคือ เมื่อคนในแวดวงรับรู้ “เป้าหมายปลายทาง” ของบริษัทมากขึ้น อาจไม่อยากอยู่ในภารกิจนั้นต่อ ถ้าภารกิจเกี่ยวข้องกับการไปให้ถึง AGI ในอนาคตอันใกล้และความวุ่นวายที่อาจเกิดจากมัน
7.1 ตำนานการเริ่มต้น และการแตกตัวเมื่อความขัดแย้งถึงจุดจบ
กรณีความสัมพันธ์ในช่วงเริ่มต้นถูกเล่าให้เห็นว่า “ความร่วมมือ” มักถูกแทนด้วย “การแตกตัวเป็นองค์กรใหม่” เมื่อเกิดความขัดแย้งกับผู้บริหารบางคนหรือแนวทางบางอย่าง
และสิ่งที่ถูกชี้คือ “ไม่ใช่เรื่องบังเอิญ” ที่มหาเศรษฐีด้านเทคเกือบทุกคนมีบริษัท AI ของตัวเอง
ผลลัพธ์ที่เกิดขึ้นคือ:
- เมื่อบุคคลหนึ่งออกไป ก็จะสร้างองค์กรของตน
- องค์กรใหม่แข่งขันเพื่อให้วิสัยทัศน์ของตัวเองมีพื้นที่
- การแข่งขันกลายเป็นกลไกเพื่อ “ยึดอำนาจในการกำหนดทิศ” ของเทคโนโลยี
มุมมองเชิงนัยคือการแข่งขันไม่ได้เป็นเพียงการแข่งขันเชิงสินค้า แต่เป็นการแข่งขันเชิงอำนาจและการนิยามความหมายของ “อนาคตที่เทคโนโลยีจะนำไป”
8) แล้ว “การประกาศ” เรื่องความเสี่ยงจะจริงแค่ไหน
อีกชั้นหนึ่งของการวิเคราะห์คือ อุตสาหกรรมมีความสามารถในการพูดถึงความเสี่ยงได้ แต่ในเวลาเดียวกันยังต้องหาเงินจำนวนมหาศาลเพื่อสร้างศูนย์ข้อมูลและฝึกโมเดล ดังนั้นในมุมหนึ่ง การสื่อสารความเสี่ยงอย่างรุนแรงอาจขัดกับแรงจูงใจทางธุรกิจในระยะสั้น
จึงเกิดคำถามเชิงระบบ: หากความเสี่ยงใหญ่จริง ทำไมการลงทุนและการระดมทุนยังเดินหน้าด้วยความเร็วสูง?
คำอธิบายเชิงจิตวิทยาที่ถูกพูดถึงคือภาวะที่คนอาจ “อยู่ร่วมกับความขัดแย้งในความเชื่อ” (cognitive dissonance) คือทั้งที่รู้ว่าอะไรอาจอันตราย แต่ยังตัดสินใจเดินต่อไปเพราะผลประโยชน์ ความทะเยอทะยาน และภาระของบทบาท
9) การ “เชื่อเรื่องตำนาน” กับการ “สร้างตำนาน”: ทำไมผู้บริหารจึงอาจหลุดเส้น
คำเตือนนี้มีมิติทางวัฒนธรรมและจิตวิทยามาก โดยใช้วรรณกรรมไซไฟเป็นกรอบเปรียบเทียบ
แนวเปรียบคือ เมื่อผู้คนต้อง “อยู่ในบท” ของตำนานเพื่อคุมฝูงชน พวกเขาอาจเริ่มสับสนว่าตำนานนั้นเป็นเรื่องเล่าเพื่อการควบคุมหรือเป็นความเชื่อจริงของตนเอง
ในบริบท AI จึงมีข้อเสนอว่า:
- ผู้บริหารอาจ “รู้ตัว” ว่ากำลังทำ mythmaking เพื่อชักจูงสาธารณะ
- แต่ในบางคน ระหว่างการต้องสวมบทบาทตลอดเวลา อาจทำให้เส้นระหว่าง “พูดเพื่อกลยุทธ์” กับ “เชื่อจริง” ค่อยๆ เบลอ
ข้อคิดนี้สำคัญเพราะถ้าเส้นเบลอเกิดขึ้น การตัดสินใจเชิงความเสี่ยงอาจไม่ถูกปรับด้วยข้อมูลและการถ่วงดุลอย่างที่สังคมต้องการ
10) ข้อเสนอเชิงนโยบาย: ถ้าไม่เริ่มควบคุมตอนนี้ จะเหลือทางเลือกอะไรในปี 2026?
คำเตือนเรื่องปี 2026 ในเชิงความรู้สึกและแรงกดดันสื่อสารว่า “สาธารณะอาจไม่พร้อม” แต่ในเชิงการกำกับนโยบาย สิ่งที่ควรทำไม่ใช่แค่เฝ้าระวังผลลัพธ์ของโมเดลเท่านั้น อย่างน้อยควรเริ่มจากการลดความเสี่ยงที่เกิดจากโครงสร้างอำนาจ
10.1 ทำให้การตัดสินใจเรื่อง AI เป็นเรื่องสาธารณะมากขึ้น
- เพิ่มช่องทางให้ผู้ได้รับผลกระทบมีส่วนร่วมในการกำหนดมาตรฐาน
- เปิดข้อมูลและเหตุผลการตัดสินใจให้ตรวจสอบได้
10.2 สร้างระบบตรวจสอบอิสระที่ไม่ขึ้นกับทุนของผู้พัฒนา
แนวคิดที่ถูกย้ำคือการที่ทุนและผลประโยชน์อาจทำให้วาระการวิจัยเอนเอียง ดังนั้นจึงควรมีโครงสร้างตรวจสอบที่ออกแบบเพื่อลดแรงจูงใจทับซ้อน
10.3 จัดการผลกระทบแรงงานและความไม่มั่นคงทางเศรษฐกิจก่อนจะสาย
ประเด็นหนึ่งที่ถูกพูดถึงคือความเสี่ยงด้านเศรษฐกิจขนาดใหญ่ เช่น การว่างงานจำนวนมาก และผลกระทบเชิงสังคมที่อาจตามมา การเตรียมระบบช่วยเหลือและแผนปรับตัวจึงควรเป็นส่วนหนึ่งของกรอบความเสี่ยง ไม่ใช่เรื่องปลายทาง
บทสรุปแบบเชิงปฏิบัติ: อนาคตอันตรายไม่ได้มาจาก AI อย่างเดียว แต่จาก “วิธีที่เราปล่อยให้ AI ถูกสร้าง”
คำเตือนในประเด็นนี้ไม่ได้เรียกร้องให้คนกลัวเทคโนโลยี แต่เรียกร้องให้คนเข้าใจว่า AI คือทั้งเครื่องมือและการเมืองในเวลาเดียวกัน
หากสังคมยังยอมให้บริษัทเป็นผู้ตัดสินใจเพียงฝ่ายเดียวในเรื่องที่กระทบคนทั้งโลก อันตรายไม่จำเป็นต้องรอให้ AGI มา “ถึงขั้นสุด” เสมอไป ความเสี่ยงเชิงสังคมและการกัดเซาะอำนาจของประชาชนสามารถเริ่มเกิดได้แล้ว
ดังนั้นข้อเสนอเชิงวิชาการที่ควรยึดไว้คือ การรับมือความเสี่ยงต้องเริ่มจากการออกแบบระบบกำกับที่ลดความเหลื่อมล้ำทางอำนาจ เปิดพื้นที่ตรวจสอบ และวางแผนผลกระทบทางเศรษฐกิจและสังคมให้ทันเวลา โดยเฉพาะในหน้าต่างช่วงหลายปีที่กำลังถูกพูดถึงอย่างเข้มข้น รวมถึงปี 2026