x

ช่องโหว่ LangGrinch กระทบ AI Agent ทั่วโลก

🚨 พบช่องโหว่ร้ายแรง “LangGrinch” ใน langchain-core เสี่ยงข้อมูลลับ AI รั่วไหล

บริษัทด้านความปลอดภัย AI อย่าง Cyata Security Ltd. เปิดเผยรายงานล่าสุดเกี่ยวกับช่องโหว่ระดับวิกฤตใน langchain-core ซึ่งเป็นไลบรารีหลักของระบบ LangChain-based AI Agent ที่ถูกใช้งานอย่างแพร่หลายในระบบ AI ระดับองค์กร 🤖⚠️

ช่องโหว่นี้ถูกระบุเป็น CVE-2025-68664 และตั้งชื่อว่า “LangGrinch” ได้รับคะแนนความรุนแรง CVSS 9.3 ซึ่งอาจเปิดทางให้ผู้โจมตีขโมยข้อมูลลับ (Secrets) ภายในระบบ และในบางกรณีอาจยกระดับไปสู่การรันโค้ดจากระยะไกล (Remote Code Execution) ได้

🔍 langchain-core กระทบวงกว้างกว่าที่คิด

langchain-core ถือเป็นหัวใจสำคัญของระบบ Agentic AI โดยมีสถิติการดาวน์โหลดรวมกว่า 847 ล้านครั้ง และยังถูกดาวน์โหลดอีกหลายสิบล้านครั้งภายใน 30 วันที่ผ่านมา 📊
ขณะที่แพ็กเกจ LangChain หลักมียอดดาวน์โหลดมากถึง 98 ล้านครั้งต่อเดือน สะท้อนว่าช่องโหว่นี้ส่งผลกระทบต่อระบบ AI จำนวนมากในระดับ Production

🧨 สาเหตุของช่องโหว่ LangGrinch

LangGrinch เกิดจากปัญหา Serialization / Deserialization Injection ในฟังก์ชันช่วยเหลือ (Helper Functions) ของ langchain-core

ผู้โจมตีสามารถใช้เทคนิค Prompt Injection บังคับให้ AI Agent สร้าง Structured Output ที่ฝัง Marker Key ภายในของ LangChain เข้าไป 🧩
เมื่อข้อมูลดังกล่าวถูกบันทึกหรือเรียกใช้งานซ้ำ ระบบจะตีความข้อมูลอันตรายนี้เป็น Object ที่เชื่อถือได้ แทนที่จะเป็น Input จากผู้ใช้

“จุดอันตรายคือช่องโหว่นี้อยู่ในขั้นตอน Serialization ไม่ใช่ Deserialization ทำให้พื้นที่โจมตีขยายกว้างจากเพียง Prompt เดียว”
— นักวิจัยจาก Cyata

🔑 ข้อมูลลับที่อาจรั่วไหล

หากถูกโจมตีสำเร็จ ระบบอาจถูกดึงข้อมูลสำคัญออกไปผ่าน HTTP Request เช่น 🔓

  • Credential ของ Cloud Provider

  • Connection String ของ Database / RAG

  • Secret ของ Vector Database

  • API Key ของระบบ LLM

Cyata พบเส้นทางการโจมตีที่เป็นไปได้มากถึง 12 รูปแบบ จากกระบวนการทำงานปกติของ AI Agent เช่น การบันทึกข้อมูล การสตรีม และการเรียกใช้งานซ้ำ

⚠️ อันตรายตรงที่ไม่พึ่ง Third-party

สิ่งที่น่ากังวลคือ ช่องโหว่นี้ อยู่ใน langchain-core โดยตรง ไม่ได้อาศัยปลั๊กอินหรือเครื่องมือเสริมใด ๆ ทำให้มันแฝงอยู่ใน “โครงสร้างพื้นฐาน” ของระบบ AI ที่ถูกใช้งานตลอดเวลา 🧠💥

🛠️ แนวทางรับมือสำหรับองค์กร

Cyata แนะนำให้องค์กรดำเนินการดังนี้ทันที:

  • ✅ อัปเดต langchain-core เป็นเวอร์ชัน 1.2.5 หรือ 0.3.81

  • 🔒 ตรวจสอบสิทธิ์และขอบเขตการทำงานของ AI Agent

  • 📉 ลด Blast Radius หากเกิดเหตุผิดพลาด

  • 👨‍💻 ให้องค์กรที่ขาดทีมเฉพาะทาง พิจารณาใช้ IT Outsource หรือ บริการดูแลระบบคอมพิวเตอร์ เพื่อช่วยดูแลความปลอดภัยของระบบ AI อย่างรอบด้าน

🏢 บทเรียนสำคัญสำหรับองค์กร

เมื่อ AI Agent ถูกนำมาใช้งานจริง ความเสี่ยงไม่ได้อยู่แค่ “โค้ดที่เขียน” แต่คือ สิทธิ์ที่ระบบได้รับโดยพฤตินัย
องค์กรควรมีมาตรการควบคุมที่รัดกุม และมีผู้เชี่ยวชาญคอยเฝ้าระวังอย่างต่อเนื่อง 🔐

การใช้ IT Outsource หรือ บริการดูแลระบบคอมพิวเตอร์ ที่เข้าใจทั้งระบบ AI, Cloud และ Cybersecurity จะช่วยลดความเสี่ยงและเสริมความมั่นคงให้ธุรกิจในระยะยาวได้อย่างมีประสิทธิภาพ 🚀

ที่มา – https://siliconangle.com/2025/12/25/critical-langgrinch-vulnerability-langchain-core-puts-ai-agent-secrets-risk/