เรากลัว AI หรือกลัวความคิดตัวเองเสื่อม?
ในแต่ละยุคของการเปลี่ยนผ่าน มีเทคโนโลยีใดบ้างที่ไม่เคยถูกโจมตี?
ย้อนกลับไปยุค 1950s — โทรทัศน์เพิ่งเข้าบ้านหลังแรกในอเมริกา เสียงตำหนิจากนักวิชาการและนักจิตวิทยาดังขึ้นพร้อมกับแสงจอ พวกเขากลัวว่าเด็กจะเลิกอ่านหนังสือ หยุดคิด และกลายเป็นมนุษย์เชื่อง่ายที่ถูกป้อนภาพโดยไม่ตั้งคำถาม ยุค 1990s — โทรศัพท์มือถือเริ่มแพร่หลาย สังคมตะวันตกตีพิมพ์บทความหลายชิ้นเตือนว่า “มือถือทำลายการสนทนาอย่างแท้จริง” และทำให้มนุษย์หลงลืมการมองตา ปี 2000s ถึงต้น 2010s — อินเทอร์เน็ตและโซเชียลมีเดียเข้ามาเปลี่ยนโครงสร้างการสื่อสารแบบถอนราก จนเกิดปรากฏการณ์ fear-mongering ครั้งใหญ่ ว่าเรากำลังก้าวเข้าสู่ “ยุคแห่งความเหงา” ที่ทุกคนมีเพื่อนเป็นเพียงไอคอนในจอ
แล้ววันนี้ ปี 2025 — AI คือเป้าหมายใหม่ของความกลัว จากไวรัลโพสต์หลายชิ้นที่กล่าวหาว่า “ChatGPT ทำให้สมองฝ่อ ความจำเสื่อม ความคิดอ่อนแรง” แต่สำหรับเราคนรุ่นใหม่ที่ไม่ใช่เห็นปุ๊บเชื่อทันที เพราะเราตั้งคำถามกับมันว่า นี่คือบทเตือนจริง ๆ หรือแค่ภาพซ้ำของความกลัวเทคโนโลยีที่วนมาทุกเจเนอเรชัน? จากนั้นเราจึงตรวจสอบงานวิจัยต้นทางของ MIT อย่างละเอียด สิ่งที่พบอาจไม่ได้ “น่ากลัว” แต่ “น่าคิด” ยิ่งกว่า
ช่วงสัปดาห์ที่ผ่านมา หลายคนคงเห็นโพสต์ไวรัลที่อ้างว่า “MIT พบว่า ChatGPT ทำให้สมองฝ่อ ความจำเสื่อม งานเขียนไร้คุณภาพ” พร้อมกราฟิกสมองหลากสีที่ค่อย ๆ จางลงเหมือนอารมณ์ในหนังไซไฟ dystopia ฟังดูน่ากลัวดี — แต่พอเราย้อนกลับไปดูงานวิจัยต้นทางจริง ๆ
สิ่งที่เกิดขึ้นชัดเจนว่า: นี่คือกรณีศึกษาของ “ไวรัลที่บิดความจริงเพื่อให้ได้อารมณ์ มากกว่าความรู้” งานวิจัยมีจริง — แต่ไม่ได้พูดแบบนั้น ชื่อของงานวิจัยคือ “Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task” (“สมองของคุณเมื่อใช้ ChatGPT: การสะสมของ ‘หนี้ทางความคิด’ จากการใช้ผู้ช่วย AI ในการเขียนเรียงความ”) จัดทำโดย MIT Media Lab (เผยแพร่บน arXiv เมื่อเดือนมิถุนายน 2025) เนื้อหาโดยรวมคือการศึกษาผลกระทบของการใช้ ChatGPT ต่อสมองในขณะเขียนเรียงความ SAT
โดยผู้เข้าร่วมจะถูกแบ่งเป็น 3 กลุ่ม:
1. กลุ่มที่เขียนเอง
2. กลุ่มที่ใช้ Google
3. กลุ่มที่ใช้ ChatGPT เป็นผู้ช่วยเขียน
ผลลัพธ์ที่ทีมวิจัยพบ:
• กลุ่มที่ใช้ ChatGPT มี brain activity ต่ำที่สุด
• งานเขียนมีลักษณะซ้ำ ไม่มีโครงสร้างเฉพาะตัว
• ผู้เข้าร่วมจำไม่ได้ว่าตนเขียนอะไร และรู้สึกว่างานนั้นไม่ใช่ของตัวเอง
นักวิจัยจึงเรียกสิ่งนี้ว่า “cognitive debt” หรือ “หนี้ทางความคิด” ซึ่งอธิบายง่าย ๆ ว่า เมื่อเราพึ่งเครื่องมือคิดแทนมากไป สมองจะค่อย ๆ เลิกทำงานในแบบที่ควร ข้อเท็จจริง…การทดลองนี้ยังอยู่ในสถานะ “preprint” หรือ ยังไม่ผ่านการตรวจสอบโดยนักวิจัยอิสระ (peer-reviewed) และใช้ตัวอย่างขนาดเล็ก (n = 54 คน) คำพูดที่ดูเหมือน “เด็ดขาด”
ในไวรัลนั้น จึงเป็นเพียงการ ตีความจากสื่อกลางที่หวัง engagement มากกว่าความแม่นยำ ความเสี่ยงของไวรัลข้อมูลแบบนี้ นี่ไม่ใช่เพียงการ “แชร์ผิด” แต่คือปัญหาระดับโครงสร้างที่เกิดขึ้นจากหลายปัจจัยพร้อมกัน:
1. AI กลายเป็นวายร้ายที่ง่ายต่อการตีความแบบตื่นกลัว
2. ความเร็วของไวรัล > ความลึกของข้อมูล
3. ผู้คนใช้ Facebook/TikTok แทนการอ่านแหล่งข่าววิชาการ
4. สื่อขนาดใหญ่บางแห่งไม่ได้ทำ fact-check ละเอียด เพราะกลัวตกกระแส ผลลัพธ์คือ ความเข้าใจผิดในระดับมหาชน ซึ่งอาจกระทบต่อการออกแบบนโยบาย การศึกษา และวิธีใช้เทคโนโลยีในอนาคต
จุดสำคัญของงานนี้ก็ไม่ได้สรุปว่า AI ทำให้โง่ลง หรือ “หลอนสมอง” อย่างที่ไวรัลดังพยายามชี้นำ สิ่งที่ไวรัลเพจทำ: ตัด-ใส่คำ-ใส่อารมณ์ โพสต์ไวรัลดังกล่าว ตัดตอนจากรายงานวิจัยจริง แล้วเติมคำว่า “สมองฝ่อ”, “เสื่อมความจำ”, “ไร้ไอเดีย” และ “เสพติด AI” — ทั้งที่ต้นฉบับวิจัย ไม่เคยใช้คำเหล่านี้เลย จงใจหรือไม่ เราไม่รู้ แต่มันชัดเจนว่าเป็น “การเล่าเรื่องด้วยอารมณ์ มากกว่าเนื้อหา”
แล้วเราควรกลัวการใช้ ChatGPT หรือเปล่า? ไม่ใช่เลย — กลับกัน
งานวิจัยนี้กำลังบอกเราว่า ถ้าเราใช้ ChatGPT อย่างพึ่งพิงแบบไม่คิด มันก็จะทำหน้าที่แทนเราได้ดี แต่ในขณะเดียวกัน สมองเราก็จะหยุดทำงานในระดับที่เคยทำได้ สิ่งที่ควรกลัว ไม่ใช่ AI แต่คือ “การคิดน้อยลง” เพราะเชื่อว่าความคิดของเราสู้เครื่องไม่ได้
Puff. อยากให้เราตั้งคำถามมากกว่ากลัว เราอยู่ในโลกที่ข้อมูลถูกบิดได้ง่าย และถูกแชร์ไวกว่าเวลาที่ใช้คิด สิ่งที่บทเรียนนี้ชี้ให้เห็นคือ — แค่ชื่อ “MIT” ก็สามารถทำให้โพสต์ใด ๆ กลายเป็นความจริงในสายตาหลายคนได้ แม้เนื้อหาจะเกินจริงเกือบครึ่ง เวลาที่คุณใช้เทคโนโลยี เราต้องหมั่นถามตัวเองเสมอว่า “เราใช้เทคโนโลยีอยู่ หรือแค่ปล่อยให้มันใช้เรา?”
📌 เขียนโดย: puff-onlinemag.com
🔗 อ้างอิง: arxiv.org/abs/2506.08872