AI กับกฎหมายไทย ช่องโหว่และสิ่งที่ต้องเตรียมรับมือ

AI กับกฎหมายไทย

AI กับกฎหมายไทย ช่องโหว่และสิ่งที่ต้องเตรียมรับมือในปี 2025

เมื่อ AI เข้ามาสู่ชีวิตประจำวัน

ในปี 2025 ปัญญาประดิษฐ์ (AI) ได้เข้ามามีบทบาทสำคัญในชีวิตประจำวันของคนไทย ไม่ว่าจะเป็นการใช้งานผ่านแอปมือถือ การวิเคราะห์ข้อมูลในองค์กร หรือระบบอัตโนมัติในภาครัฐและเอกชน แต่ในขณะเดียวกันก็ทำให้เกิดคำถามด้าน “กฎหมาย” และ “จริยธรรม” อย่างหลีกเลี่ยงไม่ได้ โดยเฉพาะเรื่องความรับผิดชอบ ข้อมูลส่วนบุคคล และการใช้ AI อย่างโปร่งใส

1. ช่องโหว่ของกฎหมายไทยในยุค AI

  • การนิยาม “ผู้ควบคุมข้อมูล” และ “ผู้ใช้ AI” ยังคลุมเครือ: พ.ร.บ.คุ้มครองข้อมูลส่วนบุคคล (PDPA) มุ่งเป้าไปที่การควบคุม “ข้อมูลส่วนบุคคล” แต่ยังไม่ครอบคลุมการใช้ AI ที่สร้างข้อมูลใหม่จากการวิเคราะห์ เช่น การสร้างโปรไฟล์บุคคล
  • ไม่มีการนิยาม “อัลกอริธึม” หรือ “โมเดล” ว่าเป็นผู้กระทำความผิดได้หรือไม่: ทำให้เกิดปัญหาว่า หาก AI ทำผิด ใครต้องรับผิดชอบ?
  • การนำเข้าและใช้ AI จากต่างประเทศ: ไม่มีเกณฑ์การตรวจสอบว่าระบบ AI ต่างประเทศที่ใช้ในไทยปลอดภัย โปร่งใส และปฏิบัติตามกฎหมายไทยหรือไม่

2. PDPA กับการใช้งาน AI

แม้ PDPA จะมีผลบังคับใช้เต็มรูปแบบตั้งแต่ปี 2565 แต่การนำไปใช้ในระบบ AI ยังคงเป็นความท้าทายหลัก:

  • Consent ไม่เหมาะกับ AI Learning: การให้ความยินยอมแบบทั่วไปอาจไม่ครอบคลุมการเรียนรู้แบบต่อเนื่องของ AI
  • AI ที่วิเคราะห์พฤติกรรม: PDPA ไม่ได้กำหนดชัดเจนว่าโมเดล AI ที่ "คาดการณ์" พฤติกรรมผู้ใช้เข้าข่ายละเมิดหรือไม่
  • ไม่มีข้อกำหนดเรื่อง “Explainability” หรือ “AI Transparency”: ผู้ใช้งานไม่มีสิทธิขอดูเหตุผลว่าระบบ AI ตัดสินใจอย่างไร

3. ตัวอย่างเหตุการณ์จริงที่ AI เกือบละเมิดกฎหมายไทย

มีหลายกรณีศึกษาที่ AI เข้าข่ายละเมิด PDPA หรือเกิดความเข้าใจผิด เช่น:

  1. บริษัทหนึ่งในไทยใช้ระบบ AI วิเคราะห์พฤติกรรมลูกค้าจากกล้อง CCTV โดยไม่ได้ขอความยินยอม → เข้าข่ายละเมิด PDPA
  2. การใช้ Chatbot ที่บันทึกบทสนทนาโดยอัตโนมัติโดยไม่มีการแจ้งเตือน
  3. การใช้ระบบ AI วิเคราะห์เรซูเม่โดยอคติจากข้อมูลเก่า ทำให้ละเมิดความเสมอภาค

4. สถานการณ์กฎหมายต่างประเทศกับ AI

ในปี 2024 สหภาพยุโรปได้ออกกฎหมาย EU AI Act ซึ่งแบ่ง AI เป็น 4 ประเภทตามความเสี่ยง พร้อมบังคับให้ต้องมีความโปร่งใส ตรวจสอบได้ และห้ามบางระบบที่มีความเสี่ยงสูง เช่น การทำ Social Scoring

หากไทยไม่ปรับตัว อาจเกิดปัญหา “การค้า” และ “การใช้งานเทคโนโลยีต่างประเทศ” ที่ไม่เข้ากฎหมายไทย

5. แนวทางการปฏิบัติ: ทำอย่างไรให้ใช้งาน AI อย่างมีจริยธรรมในไทย

  1. กำหนด Policy ขององค์กรให้ชัดเจน: AI ที่ใช้ต้องระบุว่าใช้กับใคร ใช้อย่างไร มีการปกป้องข้อมูลหรือไม่
  2. ใช้โมเดล AI ที่โปร่งใส: เช่น Open-Source AI ที่มีเอกสารชัดเจน
  3. อัปเดตความรู้ด้านกฎหมายสม่ำเสมอ: โดยเฉพาะ PDPA, กฎหมายไซเบอร์, พ.ร.บ.คอมพิวเตอร์, และพรบ.ธุรกรรมทางอิเล็กทรอนิกส์
  4. ตรวจสอบการทำ Profiling และอคติ (Bias): ด้วยเทคนิค Explainable AI และ Fairness Testing

6. ข้อเสนอแนะสำหรับภาครัฐและนโยบายระดับชาติ

  • จัดตั้ง “AI Governance Center” แบบเดียวกับสหภาพยุโรป เพื่อกำกับดูแลการใช้ AI ทุกภาคส่วน
  • แก้ไข/เพิ่มเติม พ.ร.บ.คุ้มครองข้อมูลส่วนบุคคล ให้ครอบคลุมโมเดล AI ที่ Generate/Infer ข้อมูลใหม่
  • สนับสนุน Sandbox และการวิจัย AI อย่างมีจริยธรรม

7. บทสรุป

AI ไม่ใช่เพียงเทคโนโลยีใหม่ แต่เป็น "ความเปลี่ยนแปลงเชิงระบบ" ที่ต้องมี “กฎหมาย” และ “จริยธรรม” เป็นเครื่องมือกำกับอย่างรอบด้าน บทความนี้หวังว่าจะเป็นแนวทางสำหรับหน่วยงาน ภาคธุรกิจ และประชาชนในการเตรียมพร้อมสู่อนาคตแห่ง AI อย่างมีความรับผิดชอบ

“AI ที่ไม่มีจริยธรรม ย่อมนำไปสู่สังคมที่ไร้หลักประกัน”