x

ChatGPT Atlas เสี่ยงถูกโจมตีด้วย Prompt Injection

🚨 แฮกเกอร์ใช้เทคนิค Prompt Injection หลอกเปิดลิงก์อันตราย

มีรายงานจากนักวิจัยด้านความปลอดภัยว่า ChatGPT Atlas ซึ่งเป็นเบราว์เซอร์ AI ของ OpenAI ที่ผสานการทำงานของปัญญาประดิษฐ์เข้ากับการท่องเว็บ ถูกค้นพบช่องโหว่รูปแบบใหม่ที่อาจเปิดโอกาสให้แฮกเกอร์โจมตีผู้ใช้งานได้ โดยใช้เทคนิคที่เรียกว่า Prompt Injection เพื่อหลอกให้ AI ทำงานตามคำสั่งของผู้โจมตีแทนผู้ใช้จริง

ช่องโหว่นี้ถือเป็นความเสี่ยงสำคัญต่อผู้ใช้งานทั่วไปและองค์กร โดยเฉพาะองค์กรที่เริ่มนำ AI มาใช้ในงานประจำวัน หรือใช้ IT Outsource และ บริการดูแลระบบคอมพิวเตอร์ ในการบริหารจัดการระบบ IT

🔎 Prompt Injection คืออะไร และเกิดขึ้นได้อย่างไร

นักวิจัยจากบริษัทความปลอดภัยด้าน AI ชื่อ NeuralTrust เปิดเผยวิธีการโจมตีที่อาศัยการซ่อนคำสั่งอันตรายไว้ภายใน URL ที่ดูเหมือนเป็นลิงก์เว็บไซต์ปกติ เมื่อผู้ใช้นำ URL ดังกล่าวไปพิมพ์ในแถบที่อยู่ (omnibox) ของ ChatGPT Atlas ระบบ AI จะตีความข้อความที่ซ่อนอยู่เป็น Prompt และดำเนินการตามคำสั่งนั้นทันที

แทนที่เบราว์เซอร์จะพาไปยังเว็บไซต์ตาม URL จริง ผู้ใช้กลับถูกนำไปยังเว็บไซต์ปลายทางที่แฮกเกอร์ควบคุม ซึ่งอาจเป็นเว็บไซต์ Phishing หรือเว็บที่ฝังมัลแวร์ไว้

⚠️ ความเสี่ยงและผลกระทบที่อาจเกิดขึ้น

หากการโจมตีประสบความสำเร็จ ผู้ใช้งานอาจเผชิญกับความเสี่ยงหลายรูปแบบ เช่น

  • ถูกพาไปยังเว็บไซต์หลอกลวงเพื่อขโมยข้อมูล (Phishing)

  • AI เปิดคำสั่งที่ไม่ปลอดภัยโดยผู้ใช้ไม่รู้ตัว

  • ในระดับที่รุนแรง แฮกเกอร์อาจสั่งให้ AI ลบไฟล์จากบริการออนไลน์ เช่น Google Drive หรือเข้าถึงบัญชีสำคัญของผู้ใช้

ความเสี่ยงเหล่านี้ส่งผลกระทบโดยตรงต่อองค์กรที่มีข้อมูลสำคัญ และจำเป็นต้องมีระบบป้องกันที่เหมาะสม

⚠️ เทคนิคโจมตีเพิ่มเติม: AI Sidebar Spoofing

นอกจาก Prompt Injection แล้ว นักวิจัยจาก SquareX Labs ยังพบเทคนิคที่เรียกว่า AI Sidebar Spoofing ซึ่งเป็นการสร้าง Sidebar ปลอมผ่าน Extension ที่ฝัง JavaScript ในเบราว์เซอร์ เพื่อหลอกผู้ใช้ให้กรอกคำสั่ง จากนั้นส่ง Trigger Prompt ไปควบคุมการทำงานของ AI

การโจมตีรูปแบบนี้อาจนำไปสู่การ

  • เปิดเว็บไซต์ Phishing

  • ขอสิทธิ์เข้าถึงระบบหรือข้อมูลในเครื่อง

  • สั่งติดตั้งไฟล์อันตราย เช่น Reverse Shell เพื่อเจาะระบบผู้ใช้

💡 สรุปจุดเสี่ยงสำคัญที่ควรระวัง

  • Prompt Injection: ซ่อนคำสั่งอันตรายใน URL หรือเนื้อหาเว็บ

  • AI Jailbreak: ทำให้ AI ทำงานนอกขอบเขตความปลอดภัย

  • Sidebar Spoofing: ใช้ส่วนเสริมปลอมเจาะการทำงานของ AI

📢 แนวทางป้องกันสำหรับผู้ใช้และองค์กร

เพื่อหลีกเลี่ยงความเสี่ยงจากช่องโหว่ลักษณะนี้ ผู้ใช้งานและองค์กรควรปฏิบัติดังนี้

  • หลีกเลี่ยงการพิมพ์หรือเปิดลิงก์จากแหล่งที่ไม่น่าเชื่อถือในเบราว์เซอร์ AI

  • ไม่ให้สิทธิ์การเข้าถึงหรือรันคำสั่งอัตโนมัติที่ไม่จำเป็น

  • ใช้งานร่วมกับระบบป้องกัน Endpoint และ Antimalware ที่เชื่อถือได้

  • องค์กรควรมีทีมดูแลด้านความปลอดภัย หรือใช้ บริการดูแลระบบคอมพิวเตอร์ และ IT Outsource เพื่อบริหารความเสี่ยงด้าน AI และ Cybersecurity อย่างต่อเนื่อง

🧠 ผู้เชี่ยวชาญเตือน: การโจมตีผ่าน “ภาษา” ป้องกันยากกว่าที่คิด

ผู้เชี่ยวชาญด้านความปลอดภัยระบุว่า การโจมตีแบบ Prompt Injection เป็นการโจมตีผ่าน “ภาษา” ไม่ใช่โค้ดโดยตรง ทำให้ระบบป้องกันแบบเดิมตรวจจับได้ยาก ผู้ใช้งานจึงควรระมัดระวังการให้ AI ดำเนินการแทนในงานที่เกี่ยวข้องกับข้อมูลสำคัญ บัญชีส่วนตัว หรือบริการออนไลน์ต่าง ๆ

สรุป: ใช้ AI อย่างระมัดระวัง ควบคู่ความปลอดภัย

แม้เบราว์เซอร์ AI จะช่วยเพิ่มความสะดวกและประสิทธิภาพในการทำงาน แต่การใช้งานโดยขาดความระมัดระวังอาจเปิดช่องให้ภัยไซเบอร์รูปแบบใหม่เข้ามาโจมตีได้ การมีระบบป้องกันที่เหมาะสม และการใช้ IT Outsource หรือ บริการดูแลระบบคอมพิวเตอร์ ที่มีความเชี่ยวชาญ จะช่วยลดความเสี่ยงและทำให้การใช้งาน AI ปลอดภัยมากยิ่งขึ้น

ที่มา: Antivirus.in.th