ChatGPT Atlas เสี่ยงถูกโจมตีด้วย Prompt Injection
🚨 แฮกเกอร์ใช้เทคนิค Prompt Injection หลอกเปิดลิงก์อันตราย
มีรายงานจากนักวิจัยด้านความปลอดภัยว่า ChatGPT Atlas ซึ่งเป็นเบราว์เซอร์ AI ของ OpenAI ที่ผสานการทำงานของปัญญาประดิษฐ์เข้ากับการท่องเว็บ ถูกค้นพบช่องโหว่รูปแบบใหม่ที่อาจเปิดโอกาสให้แฮกเกอร์โจมตีผู้ใช้งานได้ โดยใช้เทคนิคที่เรียกว่า Prompt Injection เพื่อหลอกให้ AI ทำงานตามคำสั่งของผู้โจมตีแทนผู้ใช้จริง
ช่องโหว่นี้ถือเป็นความเสี่ยงสำคัญต่อผู้ใช้งานทั่วไปและองค์กร โดยเฉพาะองค์กรที่เริ่มนำ AI มาใช้ในงานประจำวัน หรือใช้ IT Outsource และ บริการดูแลระบบคอมพิวเตอร์ ในการบริหารจัดการระบบ IT
🔎 Prompt Injection คืออะไร และเกิดขึ้นได้อย่างไร
นักวิจัยจากบริษัทความปลอดภัยด้าน AI ชื่อ NeuralTrust เปิดเผยวิธีการโจมตีที่อาศัยการซ่อนคำสั่งอันตรายไว้ภายใน URL ที่ดูเหมือนเป็นลิงก์เว็บไซต์ปกติ เมื่อผู้ใช้นำ URL ดังกล่าวไปพิมพ์ในแถบที่อยู่ (omnibox) ของ ChatGPT Atlas ระบบ AI จะตีความข้อความที่ซ่อนอยู่เป็น Prompt และดำเนินการตามคำสั่งนั้นทันที
แทนที่เบราว์เซอร์จะพาไปยังเว็บไซต์ตาม URL จริง ผู้ใช้กลับถูกนำไปยังเว็บไซต์ปลายทางที่แฮกเกอร์ควบคุม ซึ่งอาจเป็นเว็บไซต์ Phishing หรือเว็บที่ฝังมัลแวร์ไว้
⚠️ ความเสี่ยงและผลกระทบที่อาจเกิดขึ้น
หากการโจมตีประสบความสำเร็จ ผู้ใช้งานอาจเผชิญกับความเสี่ยงหลายรูปแบบ เช่น
-
ถูกพาไปยังเว็บไซต์หลอกลวงเพื่อขโมยข้อมูล (Phishing)
-
AI เปิดคำสั่งที่ไม่ปลอดภัยโดยผู้ใช้ไม่รู้ตัว
-
ในระดับที่รุนแรง แฮกเกอร์อาจสั่งให้ AI ลบไฟล์จากบริการออนไลน์ เช่น Google Drive หรือเข้าถึงบัญชีสำคัญของผู้ใช้
ความเสี่ยงเหล่านี้ส่งผลกระทบโดยตรงต่อองค์กรที่มีข้อมูลสำคัญ และจำเป็นต้องมีระบบป้องกันที่เหมาะสม
⚠️ เทคนิคโจมตีเพิ่มเติม: AI Sidebar Spoofing
นอกจาก Prompt Injection แล้ว นักวิจัยจาก SquareX Labs ยังพบเทคนิคที่เรียกว่า AI Sidebar Spoofing ซึ่งเป็นการสร้าง Sidebar ปลอมผ่าน Extension ที่ฝัง JavaScript ในเบราว์เซอร์ เพื่อหลอกผู้ใช้ให้กรอกคำสั่ง จากนั้นส่ง Trigger Prompt ไปควบคุมการทำงานของ AI
การโจมตีรูปแบบนี้อาจนำไปสู่การ
-
เปิดเว็บไซต์ Phishing
-
ขอสิทธิ์เข้าถึงระบบหรือข้อมูลในเครื่อง
-
สั่งติดตั้งไฟล์อันตราย เช่น Reverse Shell เพื่อเจาะระบบผู้ใช้
💡 สรุปจุดเสี่ยงสำคัญที่ควรระวัง
-
Prompt Injection: ซ่อนคำสั่งอันตรายใน URL หรือเนื้อหาเว็บ
-
AI Jailbreak: ทำให้ AI ทำงานนอกขอบเขตความปลอดภัย
-
Sidebar Spoofing: ใช้ส่วนเสริมปลอมเจาะการทำงานของ AI
📢 แนวทางป้องกันสำหรับผู้ใช้และองค์กร
เพื่อหลีกเลี่ยงความเสี่ยงจากช่องโหว่ลักษณะนี้ ผู้ใช้งานและองค์กรควรปฏิบัติดังนี้
-
หลีกเลี่ยงการพิมพ์หรือเปิดลิงก์จากแหล่งที่ไม่น่าเชื่อถือในเบราว์เซอร์ AI
-
ไม่ให้สิทธิ์การเข้าถึงหรือรันคำสั่งอัตโนมัติที่ไม่จำเป็น
-
ใช้งานร่วมกับระบบป้องกัน Endpoint และ Antimalware ที่เชื่อถือได้
-
องค์กรควรมีทีมดูแลด้านความปลอดภัย หรือใช้ บริการดูแลระบบคอมพิวเตอร์ และ IT Outsource เพื่อบริหารความเสี่ยงด้าน AI และ Cybersecurity อย่างต่อเนื่อง
🧠 ผู้เชี่ยวชาญเตือน: การโจมตีผ่าน “ภาษา” ป้องกันยากกว่าที่คิด
ผู้เชี่ยวชาญด้านความปลอดภัยระบุว่า การโจมตีแบบ Prompt Injection เป็นการโจมตีผ่าน “ภาษา” ไม่ใช่โค้ดโดยตรง ทำให้ระบบป้องกันแบบเดิมตรวจจับได้ยาก ผู้ใช้งานจึงควรระมัดระวังการให้ AI ดำเนินการแทนในงานที่เกี่ยวข้องกับข้อมูลสำคัญ บัญชีส่วนตัว หรือบริการออนไลน์ต่าง ๆ
สรุป: ใช้ AI อย่างระมัดระวัง ควบคู่ความปลอดภัย
แม้เบราว์เซอร์ AI จะช่วยเพิ่มความสะดวกและประสิทธิภาพในการทำงาน แต่การใช้งานโดยขาดความระมัดระวังอาจเปิดช่องให้ภัยไซเบอร์รูปแบบใหม่เข้ามาโจมตีได้ การมีระบบป้องกันที่เหมาะสม และการใช้ IT Outsource หรือ บริการดูแลระบบคอมพิวเตอร์ ที่มีความเชี่ยวชาญ จะช่วยลดความเสี่ยงและทำให้การใช้งาน AI ปลอดภัยมากยิ่งขึ้น
ที่มา: Antivirus.in.th