ข้อมูลบิดเบือนและจินตภาพ AI ในสงคราม

AI-generated pictures of the Israel-Hamas war being sold by Adobe ที่มาภาพ: https://www.cyberdaily.au/digital-transformation/9774-ai-generated-pictures-of-the-israel-hamas-war-being-sold-by-adobe

The farther back you can look, the farther forward you are likely to see. Winston Churchill

งครามอิสราเอลกับฮามาสที่ประทุขึ้นเมื่อ ตุลาคม 2023 หลังการโจมตีข้ามแดนของกลุ่มฮามาสจากฉนวนกาซาคร่าชีวิตผู้คนกว่า 1,200 คน (ส่วนใหญ่เป็นพลเรือน) และถูกจับเป็นตัวประกันกว่า 200 คน นายกรัฐมนตรีเบนจามิน เนทันยาฮูได้ส่งกองกำลังป้องกันอิสราเอล (IDF) บุกฉนวนกาซาเพื่อ “กำจัด” กลุ่มฮามาส ขณะที่การทิ้งระเบิดโจมตีทางอากาศของ IDF ทำให้ฝ่ายปาเลสไตน์เสียชีวิตกว่า 10,000 คน (ส่วนใหญ่เป็นเด็ก)        

ปฎิบัติการทางทหาร (ยุทธการ) และการรุกรานภาคพื้นดิน (ยุทธวิธี) ของอิสราเอลเกี่ยวข้องกับระเบิด ปืนและการสู้รบในเมือง (urban battle) ที่มีอันตรายถึงชีวิต ส่วนสงคราม (ยุทธศาสตร์) เป็นเรื่องการรับรู้ เล่าเรื่องราวว่าใครเป็นเหยื่อและใครคือผู้ก้าวร้าว หากการโหมโรงรุกรานฉนวนกาซาเป็นข้อบ่งชี้ใด ๆ ความเท็จ ความไม่ถูกต้อง (mistruth) และข้อมูลบิดเบือน (disinformation)[1] รวมทั้งจินตภาพ AI (AI powered imagery) จะมีบทบาทสำคัญในการสู้รบครั้งนี้[2]

ช่วงแรกของการเปิดศึกฉนวนกาซาเมื่อปี 2012 และปี 2014 การสนับสนุนปฏิบัติการทางทหารของอิสราเอลจางหายไป ขณะที่ความเห็นอกเห็นใจปาเลสไตน์เพิ่มขึ้นเนื่องจากการเสียชีวิตของพลเรือนจำนวนมากและการค้ำจุน (กระแส) ของฝ่ายสื่อสารกลุ่มฮามาส ซึ่งใช้ประโยชน์จากรูปภาพและวิดีโอความขัดแย้งได้อย่างมีประสิทธิภาพ ส่งผลให้เกิดการเปลี่ยนแปลงความคิดเห็นระหว่างประเทศ

เดิมพันสงครามครั้งนี้สูงขึ้นอย่างมากจากการกระทำอันโหดร้ายของกลุ่มฮามาส ซึ่งฉีกหน้าหน่วยข่าวกรองและกองทัพอิสราเอล เพื่อลดความเสี่ยงที่จะถูกโจมตีอีก อิสราเอลจึงกำหนดเป้าหมายที่จะทำลายล้างกลุ่มฮามาส ให้สิ้นซาก แต่ผู้เชี่ยวชาญเห็นว่าอิสราเอลคงไม่สามารถบรรลุเป้าหมายดังกล่าวได้

โอกาสเดียวของอิสราเอลคือ การบุกโจมตีอย่างรวดเร็วด้วยกำลังทหารและอาวุธยุทโธปกรณ์ที่เหนือกว่า ปฏิบัติการทางทหารในฉนวนกาซาขณะนี้ทำให้พลเรือนเสียชีวิตมากกว่าในอดีต บางคนประเมินว่าเลวร้ายกว่ามากส่วนกลุ่มฮามาสและชาวปาเลสไตน์มองว่าสงครามครั้งนี้เป็นการต่อสู้เพื่อการดำรงอยู่และตอบโต้สุดชีวิต

ในบริบทสงครามข่าวสาร การรับรู้ข้อมูลเกี่ยวกับการบาดเจ็บล้มตายของพลเรือนในฉนวนกาซา ซึ่งภาษาทหารเรียกว่าจุดศูนย์ดุล (center of gravity) ของความขัดแย้ง ยิ่งพลเรือนเสียชีวิตจำนวนมากอิสราเอลจะสูญเสียการสนับสนุนจากนานาชาติและมีความเสี่ยงที่จะถูกจำกัดภารกิจทำลายล้างกลุ่มฮามาส เรื่องนี้ทั้งสองฝ่ายต่างรู้ดีและพยายามกำหนดรูปแบบการรับรู้ด้วยวิธีการต่าง ๆ เท่าที่จำเป็น

แนวรบสงครามข่าวสารมีหลายด้าน ในฉนวนกาซาอิสราเอลและฮามาสจะปล่อยข่าวที่เป็นประโยชน์ต่อพวกตน โฆษก IDF จะเน้นย้ำว่ากลุ่มฮามาสใช้โล่ห์มนุษย์และอิสราเอลระมัดระวังในการโจมตีเป้าหมาย กลุ่มฮามาสเล่นเกมความสูญเสียของพลเรือน ทั้งสองฝ่ายจะปล่อยคลิปออกมาสนับสนุนคำกล่าวอ้างของตน นอกฉนวนกาซาผู้สนับสนุนทั้งสองฝ่ายทั่วโลกต่างส่งเสียงเชียร์อย่างกระตือรือร้นด้วยการสร้างกระแส กดไลค์และแบ่งปันเนื้อหา

ในโลกดิจิทัลที่เชื่อมโยงถึงกัน ข้อมูลบิดเบือน ข้อมูลที่ผิดและการดัดแปลงข้อมูลรูปแบบอื่น ๆ เป็นลักษณะเด่นของสงครามและความขัดแย้ง นักวิเคราะห์และผู้เชี่ยวชาญรวมทั้งผู้ปฏิบัติงานได้แจ้งเตือนเกี่ยวกับการแพร่ขยายข้อมูลเท็จหรือข้อมูลที่ทำให้เข้าใจผิดจำนวนมากบนแพลตฟอร์มออนไลน์ เช่น Telegram ซึ่งถูกแชร์และกระจายตัวอย่างรวดเร็วบนแพลตฟอร์มอื่น ๆ[3]

ผู้ใช้งานออนไลน์นำภาพและวิดีโอเก่าหรือล้าสมัยจากความขัดแย้งในพื้นที่ต่าง ๆ ของโลกรวมทั้งสงครามกลางเมืองในซีเรียกลับมาใช้ซ้ำ โดยนำเสนอเนื้อหาราวกับว่ามีต้นกำเนิดมาจากความขัดแย้งอิสราเอล-ฮามาส บัญชีผู้ใช้งาน X (เดิมชื่อ Twitter) ได้นำเสนอข้อมูลที่ดูเหมือนเชื่อมโยงกับสื่อดั้งเดิม เช่น BBC, Jerusalem Post และ Al-Jazeera เพื่อความถูกต้องตามกฎหมายและแพร่กระจายเนื้อหาปลอม

DMR บริษัทเทคโนโลยีปัญญาประดิษฐ์ (AI) ได้รวบรวมข้อความสั้นจำนวน ล้านโพสต์จาก Instagram, Twitter และ YouTube (ห้วง 23 ตุลาคม 2023) ซึ่งติดแฮชแท็ก (#) ที่มีคำศัพท์ภาษาอังกฤษระบุว่า สนับสนุนอิสราเอลและปาเลสไตน์หรืออย่างใดอย่างหนึ่งหรือการตอบกลับโพสต์ดังกล่าว จากนั้นได้สร้างตัวแบบ Machine Learning[4] เพื่อจัดประเภทโพสต์ที่สนับสนุนฝ่ายใดฝ่ายหนึ่งหรือไม่สนับสนุนเลย

ผลการประมวลข้อมูลปรากฎว่า ทัศนต่ออิสราเอลเปลี่ยนแปลงไปอย่างรวดเร็วเมื่อเวลาผ่านไป โดยเมื่อ ตุลาคม 2023 ทั้งสองฝ่ายมีส่วนแบ่งการสนับสนุนเท่ากัน จนถึง 19 ตุลาคม 2023 โพสต์สนับสนุนปาเลสไตน์มีจำนวนมากกว่าอิสราเอลถึง 3.9 เท่า สาเหตเนื่องจากการเอนเอียงของผู้ใช้สื่อสังคมออนไลน์วัยหนุ่มสาวที่สนับสนุนปาเลสไตน์อย่างผิดปกติ ทั้งนี้ DMR ไม่ได้รวมกลุ่มตัวอย่างผู้ใช้งาน Facebook ซึ่งมีวัยสูงกว่าและส่วนใหญ่อาจสนับสนุนอิสราเอล[5]

การใช้ประโยชน์จากรูปภาพและวิดีโอที่สร้างขึ้นด้วย AI เป็นเรื่องน่ากังวล โดยเฉพาะอย่างยิ่งรัฐและตัวแสดงที่ไม่ใช่รัฐ (state and non-state) พยายามควบคุมการเล่าเรื่องสงครามและสร้างเสริมประเด็นและลำดับความสำคัญทางภูมิศาสตร์การเมือง เมื่อกลางตุลาคม 2023 ภาพออนไลน์ของเด็กทารกคลานอยู่บนซากปรักหักพังในฉนวนกาซา ได้รับการยืนยันและวิเคราะห์ว่าจัดทำโดย AI เพราะมือข้างหนึ่งของเด็กดูเหมือนจะมีนิ้วมากเกินไป

 ข้อมูลอันเป็นเท็จหรือทำให้เข้าใจผิดมักจะมาพร้อมกับรูปภาพความรุนแรง บอบช้ำและวิดีโอที่มีเจตนาทำให้ผู้ชมสะเทือนใจตึงเครียดและแตกแยก บางครั้งก็เรียกร้องให้ก่อความรุนแรงมากขึ้น การแพร่กระจายอย่างรวดเร็วของข้อมูลบิดเบือนในสงครามอิสราเอล-ฮามาสอาจส่งผลกระทบความมั่นคงในวงกว้าง ยั่วยุให้ความขัดแย้งเพิ่มขึ้น ทำให้รัฐาลคำนวณผิดพลาดและกระตุ้นให้เกิดความไม่สงบหรือการกระทำรุนแรงในภูมิภาคและที่อื่น ๆ

การเพิ่มขึ้นอย่างน่าสังเกตุของข้อมูลบิดเบือนที่จัดทำด้วย AI คงเป็นเพราะสาธารณชนสามารถเข้าถึงเครื่องมือ AI ซึ่งเรียกว่า Large Language Model (LLM)[6] อย่างกว้างขวางในช่วงปลายปี 2022 ตัวแสดงที่มีเจตนาร้าย (malicious actors) ในโลกข้อมูลข่าวสารใช้ LLM สร้างอิทธิพลได้อย่างมีประสิทธิภาพโดยใช้ทรัพยากรน้อยลง

สงครามในยูเครนเกิดขึ้นพร้อมกับการโจมตีด้วย Deepfake[7] ที่พยายามทำให้ชาวยูเครนเกิดความย่อท้อในการต่อต้านการรุกรานของรัสเซียหรือสร้างความสับสนให้กับผู้ชมจากต่างประเทศเกี่ยวกับสถานการณ์ในยูเครน แนวร่วมพันธมิตรจีนเผยแพร่ Deepfake โดยหยิบฉวยความสัมพันธ์อันตึงเครียดระหว่างสหรัฐฯและจีนเพื่อสนับสนุนผลประโยชน์เชิงยุทธศาสตร์ของจีน

การรณรงค์ทางการเมืองในสหรัฐฯกำลังเปลี่ยนแปลงเนื่องจาก Generative AI (Gen-AI)[8] ที่มีความสามารถสร้างใหม่ ตัวอย่างเช่น คณะกรรมการแห่งชาติของพรรครีพับลิกันได้สร้าง Deepfake ที่แสดงฉากทัศน์วันสิ้นโลก หาก Joe Biden ได้รับเลือกตั้งเป็นประธานาธิบดีสมัยที่ 2

แล้วจะทำยังไงดี คำแนะนำที่ดีที่สุดสำหรับผู้สนับสนุนและคนดูข้างสนามคือ ระมัดระวังสิ่งที่คุณเชื่อและแบ่งปัน ค้นหาแหล่งข้อมูลที่เชื่อถือได้ ยืนยันข้อมูลที่คุณสามารถทำได้ ตั้งข้อสงสัยเกี่ยวกับเนื้อหาที่สร้างอารมณ์ความรู้สึกหรือพาดหัวข่าวที่ดราม่าจนเกินไปและหยุดคิดสักนิดก่อนที่จะกดปุ่มแชร์

การกล่าวหาที่เป็นเท็จและความไม่ถูกต้องจะทำลายมูลเหตุของการทำสงคราม “ความจริง” เป็น “เหยื่อ” รายแรกของสงครามและเป็นอาวุธที่ดีที่สุด ขณะที่ประชาคมระหว่างประเทศประเมินการสูญเสียชีวิตของพลเรือน สิ่งสำคัญคือการก้าวข้ามปลักตมความไม่ถูกต้องและสะสมความจริงที่โหดร้าย



[1] ข้อมูล (information) ที่ถูกบิดเบือนและบุคคลที่เผยแพร่ก็รู้แก่ใจว่าไม่เป็นความจริงเป็นการเจตนาโกหกและมีเป้าหมายคือ กลุ่มคนที่ถูกหลอกได้ง่ายโดยผู้ไม่ประสงค์ดี ดู การเสนอข่าวปลอมและข้อมูลบิดเบือน : คู่มือเพื่อการศึกษาและฝึกอบรมด้านวารสารศาสตร์ UNESCO Available at https://unesdoc.unesco.org/ark:/48223/pf0000372137

[2] Lies, Misinformation Play Key Role in Israel-Hamas Fight by Todd C. Helmus and William Marcellino COMMENTARY (United Press International) October 31, 2023 Available at: https://www.rand.org/pubs/commentary/2023/10/lies-misinformation-play-key-role-in-israel-hamas-fight.html

[3] AI-POWERED DISINFORMATION IN THE ISRAEL-HAMAS WAR AND BEYOND INTELBRIEF Thursday, October 26, 2023 Available at: https://mailchi.mp/thesoufancenter/ai-powered-disinformation-in-the-israel-hamas-war-and-beyond?e=c4a0dc064a

[4] การทำให้คอมพิวเตอร์สามารถเรียนรู้สิ่งต่าง ๆ และพัฒนาการทำงานให้ดีขึ้นด้วยตัวเองจากข้อมูลและสภาพแวดล้อมที่ได้รับจากการเรียนรู้ของระบบ โดยไม่ต้องมีมนุษย์คอยกำกับหรือเขียนโปรแกรมเพิ่มเติมและในอนาคตจะมีข้อมูลรูปแบบใหม่ ๆ เกิดขึ้น มนุษย์ก็ไม่จำเป็นที่จะต้องเขียนโปรแกรมใหม่เพราะคอมพิวเตอร์สามารถตีความและตอบสนองได้ด้วยตัวเอง

[5] Israel is more popular than social-media posts suggest The Economist Nov 2nd 2023 Available at: https://www.economist.com/international/2023/11/02/israel-is-more-popular-than-social-media-posts-suggest

[6] Large Language Model (LLM) คือ AI แบบหนึ่ง ซึ่งสามารถสร้างรูปแบบสนทนาและข้อมูลได้คล้ายกับการสรรสร้างภาษาของมนุษย์ โดย LLM ผ่านการฝึกฝน วิเคราะห์ข้อมูลเกี่ยวกับข้อความจำนวนมากและสามารถเรียนรู้การประมวลผล เชื่อมคำต่อคำได้คล้ายกับที่มนุษย์ประเมิน นอกจากนี้ LLM ยังสามารถตีความจากข้อความได้ แม้บางประโยคชัดเจน โดยอาศัยการคาดเดาและการวิเคราะห์รูปแบบประโยคทำให้การสื่อสารเป็นธรรมชาติเหมือนคนสนทนากัน ดูเพิ่ม: https://stepstraining.co/analytics/large-language-models

[7] DeepFake เกิดจากคำ 2 คำรวมกัน คือ Deep Learning และ Fake โดย Deep Learning คือการเรียกชุดตรรกะของระบบ AI ที่สามารถเรียนรู้จากสิ่งเล็ก ๆ เข้าใจง่ายไปจนถึงเรื่องซับซ้อนหรือยากที่จะเข้าใจ ส่วนคำว่า Fake แปลว่าปลอม เทคโนโลยี DeepFake เกิดขึ้นในปี 2017 โดยผู้ใช้งานบน Reddit ชื่อ DeepFake นำภาพใบหน้าของดาราดังระดับโลกหลายคนแทนที่ใบหน้าของดาราหนังโป๊รวมทั้งนำใบหน้าดาราดัง Nicolas Cage ไปใส่ในภาพของหนังหลายเรื่องที่เขาไม่ได้แสดง

[8] คือ AI ที่ถูกออกแบบมาโดยเฉพาะให้มีความสามารถ “สร้างใหม่” จากชุดข้อมูลที่มีอยู่ ด้วยอัลกอริทึมแบบ Generative Model เช่น Generative adversarial network: GANs, Variational autoencoders: VAEs, Autoregressive models โดยสามารถนำมาใช้งานหลากหลาย เช่น การสร้างภาพ การประมวลผล การสร้างเสียงดนตรี

Author Image

About Kim
Kim is a retired civil servant, specializing in intelligence analysis. He loves productivity hacks, minimalist workflows and CSI series.

No comments

Powered by Blogger.