แก้ไขปัญหา “ข่าวปลอม” ต้องทำให้ถูกวิธี

ที่มาภาพ: https://www.nytimes.com/2020/03/24/opinion/fake-news-social-media.html?utm_source=First+Draft+Subscribers&utm_campaign=eca85addf7-EMAIL_CAMPAIGN_2019_10_29_11_33_COPY_01&utm_medium=email&utm_term=0_2f24949eb0-eca85addf7-268158821&mc_cid=eca85addf7&mc_eid=7d49ad23ab

กล่าวอีกนัยหนึ่งระบบเตือนภัยที่ให้มาอย่างประปราย อาจมีประโยชน์น้อยกว่าระบบที่ไม่มีคำเตือน เนื่องจากระบบแรกอาจดูเหมือนจะบ่งบอกว่าสิ่งใดก็ตามที่ไม่มีคำเตือนถือว่าเป็นจริง

ริษัทผู้ประกอบธุรกิจสื่อสังคม (social media) ของสหรัฐฯถูกกดดันอย่างหนักให้ดำเนินการบางอย่างเกี่ยวกับการเผยแพร่ข้อมูลที่ผิด (misinformation)[1] บนแพลตฟอร์มของพวกเขา ตั้งแต่การเลือกตั้งประธานาธิบดีในปี 2016  บริษัท Facebook และ YouTube ตอบสนองด้วยการใช้กลยุทธ์ “ต่อต้านข่าวปลอม” ซึ่งดูเหมือนจะมีประสิทธิภาพพร้อมกับการเคลื่อนไหวประชาสัมพันธ์อย่างชาญฉลาด: ทั้งสองบริษัทแสดงให้เห็นว่าพวกเขาเต็มใจที่จะดำเนินการและนโยบายดังกล่าวมีความสมเหตุสมผลต่อสาธารณะ[2]
          กลยุทธ์ที่ฟังดูสมเหตุสมผลมิได้หมายความว่าจะใช้การได้ แม้แพลตฟอร์มต่าง ๆ กำลังมีความก้าวหน้าในการต่อสู้กับข้อมูลที่ผิด แต่การวิจัยเมื่อไม่นานมานี้โดยผู้เขียนทั้งสองและนักวิชาการคนอื่น ๆ แสดงให้เห็นว่า กลยุทธ์หลายอย่างของพวกเขาอาจไม่มีประสิทธิภาพ – และทำให้เรื่องราวเลวร้ายลง นำไปสู่ความสับสน ไม่ชัดเจนเกี่ยวกับความจริง (truth) บริษัทสื่อสังคมจำเป็นต้องตรวจสอบให้เป็นที่ประจักษ์ชัดเจนว่า ข้อกังวลที่เกิดขึ้นในการทดลองเหล่านี้ตรงประเด็นกับวิธีการที่ผู้ใช้ประมวลข่าวสารบนแพลตฟอร์มของพวกเขาหรือไม่
          แพลตฟอร์มต่าง ๆ ใช้กลยุทธ์ให้ข้อมูลข่าวสาร (information) เพิ่มเติมเกี่ยวกับแหล่งที่มาของข่าว (news’s source) โดย YouTube มีกล่องข้อความ (information panel) ปรากฎขึ้นเพื่อแจ้งผู้ใช้เมื่อมีการสืบค้นเนื้อหาที่ผลิตโดยองค์กรที่ได้รับทุนจากรัฐบาลหรือหัวข้อซึ่งก่อให้เกิดการโต้แย้ง ส่วน Facebook มีตัวเลือกบริบท (context) ที่ให้ข้อมูลภูมิหลังเกี่ยวกับแหล่งที่มาของบทความในแหล่งป้อนข่าว (news feed)[3]
กลยุทธ์หรือชั้นเชิงประเภทนี้เข้าใจได้ง่ายเพราะเป็นแหล่งข่าวจากสำนักพิมพ์กระแสหลัก ซึ่งได้รับการยอมรับเป็นอย่างดี แม้ยังไม่สมบูรณ์มากนัก แต่ก็มีมาตรฐานการบรรณาธิการ (แก้ไข) และการรายงานที่ดีกว่าเว็บไซต์ที่คลุมเครือ ซึ่งถักทอ (ผลิต) เนื้อหาโดยไม่เปิดเผยคุณลัษณะของผู้เขียน
          การวิจัยล่าสุดของผู้เขียนทั้งสองทำให้เกิดคำถามเกี่ยวกับประสิทธิผลของวิธีการประเภทนี้ ผู้เขียนทั้งสองได้ทำการทดลองกับชาวอเมริกันเกือบ 7,000 คน พบว่า การเน้นแหล่งที่มาของข่าวแทบไม่มีผลกระทบใด ๆ ต่อความเชื่อของบุคคคลต่อพาดหัวข่าวหรือการพิจารณา (ตัดสินใจ) แบ่งปันแต่อย่างใด
          กลุ่มคนที่ร่วมการทดลองเหล่านี้ได้เห็นหัวข้อข่าวที่หมุนเวียนอย่างกว้างขวางในสื่อสังคม โดยบางส่วนมาจากช่องทางหลักในการกระจายข่าวสาร เช่น NPR และบางส่วนมาจากช่องทางชายขอบที่ไม่น่าไว้วางใจ เช่น newsbreakshere.com ที่เลิกกิจการแล้ว ผู้เข้าร่วมการวิจัยบางคนไม่ได้รับข้อมูลเกี่ยวกับสำนักพิมพ์ แต่คนอื่น ๆ ได้รับข้อมูลโดเมนของเว็บไซต์สำนักพิมพ์และมีส่วนหนึ่งเห็นแบนเนอร์ขนาดใหญ่พร้อมโลโก้ของสำนักพิมพ์ บางทีการให้ข้อมูลเพิ่มเติมไม่ได้ทำให้โอกาสที่คนจะเชื่อข้อมูลที่ผิดน้อยลง
          การทดลองต่อมาแสดงให้เห็นว่า พาดหัวข่าวที่แพร่กระจายอย่างรวดเร็ว (viral) โดยผู้เผยแพร่ที่ไม่น่าไว้วางใจส่วนใหญ่เป็นข้อมูลเท็จอย่างเห็นได้ชัด (ตัวอย่างเช่น “WikiLeaks ยืนยันว่าฮิลลารีขายอาวุธให้กับ ISIS”) – แม้ไม่รู้แหล่งที่มาของข่าวก็ตาม การเพิ่มข้อมูลสำนักพิมพ์มีค่าน้อยกว่าสิ่งที่คุณสามารถกำหนดได้จากพาดหัวข่าว
          กลยุทธ์การต่อต้านข้อมูลที่ผิดแบบอื่น ๆ ของแพลตฟอร์มสื่อสังคมออนไลน์ เช่น การขอความช่วยเหลือจากมืออาชีพในการตรวจสอบข้อเท็จจริงเกี่ยวกับเนื้อหาอันเป็นเท็จ กลยุทธ์การต่อต้านข่าวปลอมของ Facebook ในช่วงแรกคือ การตั้งค่าสถานะหัวข้อข่าวเท็จด้วยคำเตือนว่าข่าวสาร “ถูกขัดขวาง (disrupt) โดยผู้ตรวจสอบข้อเท็จจริงของบุคคลที่สาม” ทั้งนี้ บันทึกข้อความล่าสุดที่รั่วไหลออกมาแสดงให้เห็นว่า Twitter กำลังพิจารณาแนวทางที่คล้ายกัน
          น่าเสียดายที่ตัวอย่างของวิธีการง่าย ๆ ที่เสนอแนะโดยการวิจัยอาจไม่ได้ผลตามคาด ผู้วิจัยและเพื่อนร่วมงานได้ทำการทดลองพบว่า แม้มีโอกาสน้อยที่คนจะเชื่อและแบ่งปันหัวข้อข่าวที่ถูกระบุว่าเป็นเท็จ - สามัญสำนึกเกี่ยวกับเรื่องนั้นถูกต้อง – แต่บางครั้งผู้คนเข้าใจผิดว่าการไม่มีป้ายเตือนหมายความว่า ข้อมูลได้รับการตรวจสอบข้อเท็จจริงแล้วโดยผู้ตรวจสอบข้อมูล (บุคคลที่สาม) นี่คือปัญหา เนื่องจากมีพาดหัวข่าวเท็จเพียงเล็กน้อยที่ได้รับการตรวจสอบและทำเครื่องหมาย: การตรวจสอบข้อเท็จจริง (fact checking) เป็นกระบวนการที่ต้องใช้เวลาและความอุตสาหะ ในขณะที่พวกเกรียนและ BOT[4] บนอินเทอร์เน็ตสามารถสร้างและกระจายข้อมูลที่ผิดด้วยความเร็วที่น่าตกใจ
          กล่าวอีกนัยหนึ่งระบบเตือนภัยที่ให้มาอย่างประปราย อาจมีประโยชน์น้อยกว่าระบบที่ไม่มีคำเตือนเนื่องจากระบบแรกอาจดูเหมือนจะบ่งบอกว่าสิ่งใดก็ตามที่ไม่มีคำเตือนถือว่าเป็นจริง
          กลยุทธ์แบบอื่น ๆ ที่คาดว่าจะประสบผลสำเร็จจะแจ้งเตือนเกี่ยวกับการมีอยู่ของข่าวปลอมและให้คำแนะนำเกี่ยวกับการระบุข้อมูลที่ผิด ในปี 2017 Facebook เริ่มรณรงค์ประชาสัมพันธ์ โดยใช้ป้ายโฆษณาและป้ายบอกทางรถไฟใต้ดินเพื่อแจ้งประชาชนว่า “ข่าวปลอมไม่ใช่เพื่อนของคุณ” จากการวิจัยแสดงให้เห็นว่ากลยุทธ์ดังกล่าวอาจได้ผลในทางตรงข้าม เนื่องจากผู้คนมักจะลดความเชื่อถือข่าวทั้งหมด โดยไม่คำนึงถึงความจริง (ซึ่งสิ่งที่เกิดขึ้นเป็นเป้าหมายของการรณรงค์ข้อมูลที่ผิดจำนวนมาก)
          บางครั้งความคิดที่ทำให้เข้าใจง่ายมักได้ผล ยกตัวอย่างเช่นการทำให้ผู้คนทำงานช้าลงและคิดอย่างมีวิจารณญาณยิ่งขึ้น ตัวอย่างเช่น ความเชื่อข่าวปลอมและการแบ่งปันลดลง
          ในทำนองเดียวกันบางครั้งความคิดที่ดูน่ากลัวกลับมีประสิทธิภาพ ในปี 2018 Facebook เสนอให้สอบถามผู้ใช้เกี่ยวกับความไว้วางใจแหล่งข่าวต่าง ๆ โดยนำข้อมูลที่ได้จากการสำรวจมาคัดเลือก นำเสนอส่งเสริมเนื้อหาเฉพาะที่ได้รับการจัดอันดับเชื่อถือได้ ข้อเสนอดังกล่าวถูกประณามและเยาะเย้ยอย่างกว้างขวาง แต่การทดสอบเชิงประจักษ์ของผู้เขียนทั้งสองบ่งชี้ว่า การระดมข้อมูลจากฝูงชน (crowdsourcing)[5] แบบนี้มีประสิทธิภาพสูงในการระบุแหล่งที่มาของข้อมูลที่ผิด
          ข้อสรุปชัดเจนจากหลักฐานทั้งหมดคือ บริษัทสื่อสังคมควรทดสอบความคิดของพวกเขาอย่างเข้มงวดในการต่อสู้กับข่าวปลอม ไม่เพียงวางใจสามัญสำนึกการหยั่งรู้โดยสัญชาตญาณว่าวิธีใดใช้ได้ผล เราตระหนักว่าวิธีการทางวิทยาศาสตร์และการหาหลักฐานต้องใช้เวลามากขึ้น แต่หากบริษัทเหล่านี้แสดงให้เห็นว่าพวกเขามีความมุ่งมั่นอย่างจริงจังต่อการวิจัย – มีความโปร่งใสในการประเมินใด ๆ ที่ดำเนินการภายในและร่วมมือกับนักวิจัยอิสระภายนอกที่จะเผยแพร่รายงานที่สาธารณชนเข้าถึงได้ – ส่วนสาธารณะชนก็ควรจะอดทนและไม่เรียกร้องหาผลลัพธ์ที่รวดเร็วทันใจ
          การกำกับดูแลที่เหมาะสมของบริษัทเหล่านี้ ไม่เพียงต้องใช้เวลาในการตอบสนองอย่างทันท่วงที แต่ยังต้องมีประสิทธิภาพด้วย



[1] ข้อมูลที่ผิด (misinformation) คือ ข้อมูลข่าวสารที่ปลอมขึ้นมาหรือเนื้อหาเป็นเท็จ แต่บุคคลที่เผยแพร่ (agent) เชื่อว่าเป็นจริง ข้อมูลประเภทนี้มักถูกเผยแพร่ด้วยความผิดพลาด
[2] สรุปบทความเรื่อง The Right Way to Fight Fake News By Gordon Pennycook and David Rand (Dr. Pennycook and Dr. Rand are cognitive psychologists.The New York Times March 24, 2020 Available at: https://www.nytimes.com/2020/03/24/opinion/fake-news-social-media.html?utm_source=First+Draft+Subscribers&utm_campaign=eca85addf7-EMAIL_CAMPAIGN_2019_10_29_11_33_COPY_01&utm_medium=email&utm_term=0_2f24949eb0-eca85addf7-268158821&mc_cid=eca85addf7&mc_eid=7d49ad23ab
[3] ระบบอัตโนมัติที่เราเห็นเมื่อแรกล็อกอินเข้า Facebook จะเห็น news feed ซึ่ง Facebook คิดว่ามีความสำคัญสำหรับเรา โดยดูจากจำนวนข้อคิดเห็นที่เพื่อนเราชอบ (กดไลค์) และ (เขียน) ความเห็นไว้ รวมทั้งปัจจัยอื่น เหตุการณ์ต่าง ๆ เช่น ใครโดนแท็กที่รูป ใครเป็นเพื่อนใคร ใครเป็นแฟนคลับของแบรนด์ใด ใครจะเข้าร่วมกิจกรรมไหนก็จะอยู่ในส่วนของ News Feed ด้วย สืบค้นได้ที่http://www.devtopics.com/facebook-news-feed-vs-live-feed/
[4] คำที่ย่อมาจากคำว่า “Robot” ซึ่งเป็นโปรแกรมอัตโนมัติที่ทำงานในลักษณะที่เรียกว่า Agent โดยจะรอคำสั่งจากเครื่องหรือโปรแกรมอื่นที่สั่งหรือปลุกให้เครื่องที่มี Bot ติดตั้งอยู่ทำงาน ถ้าเครื่อง ของเราถูก Bot ติดเข้าไป เครื่องของเราก็จะถูกโปรแกรมหรือบุคคลอื่น ๆ สั่งงานให้ทำงานอย่างใดอย่างหนึ่งตามเจ้านายหรือบุคคลสั่ง เช่น ให้ส่งข้อมูลส่วนตัวของผู้ใช้งาน ไม่ว่าจะเป็นชื่อ นามสกุล หรือข้อมูลบัตรเครดิต รวมไปถึงการเก็บข้อมูลจากการที่เรากดแป้นคีย์บอร์ด นอกจากนี้ยังจะบันทึก หรือส่งข้อมูลต่าง ๆ มาเก็บที่เครื่องคอมพิวเตอร์ที่ตกเป็นเหยื่ออีกด้วย http://www.iecm.co.th/cm_news/news_update/com_62.htm
[5] การกระจายปัญหาไปยังกลุ่มคนเพื่อค้นหาคำตอบและวิธีการในการแก้ปัญหาทางธุรกิจนั้น ๆ บริษัทสามารถ broadcast คำถามหรือปัญหาที่ต้องการคำตอบไปยังกลุ่มคนขนาดใหญ่เพื่อให้ได้มาซึ่งวิธีการใหม่ ๆ Crowd หรือ User ส่วนมากในการทำ Crowdsourcing เราจะหมายถึงกลุ่มชุมชน Online หรือในโลก Cyber นั่นเอง ดูรายละเอียดสืบค้นได้ที่ https://dip-sme-academy.com/knowleagehub/article/231-Crowdsourcing-คืออะไร

Author Image

About Kim
Kim is a retired civil servant, specializing in intelligence analysis. He loves productivity hacks, minimalist workflows and CSI series.

No comments

Powered by Blogger.