AI กับกฎหมายไทย ช่องโหว่และสิ่งที่ต้องเตรียมรับมือในปี 2025
เมื่อ AI เข้ามาสู่ชีวิตประจำวัน
ในปี 2025 ปัญญาประดิษฐ์ (AI) ได้เข้ามามีบทบาทสำคัญในชีวิตประจำวันของคนไทย ไม่ว่าจะเป็นการใช้งานผ่านแอปมือถือ การวิเคราะห์ข้อมูลในองค์กร หรือระบบอัตโนมัติในภาครัฐและเอกชน แต่ในขณะเดียวกันก็ทำให้เกิดคำถามด้าน “กฎหมาย” และ “จริยธรรม” อย่างหลีกเลี่ยงไม่ได้ โดยเฉพาะเรื่องความรับผิดชอบ ข้อมูลส่วนบุคคล และการใช้ AI อย่างโปร่งใส
1. ช่องโหว่ของกฎหมายไทยในยุค AI
- การนิยาม “ผู้ควบคุมข้อมูล” และ “ผู้ใช้ AI” ยังคลุมเครือ: พ.ร.บ.คุ้มครองข้อมูลส่วนบุคคล (PDPA) มุ่งเป้าไปที่การควบคุม “ข้อมูลส่วนบุคคล” แต่ยังไม่ครอบคลุมการใช้ AI ที่สร้างข้อมูลใหม่จากการวิเคราะห์ เช่น การสร้างโปรไฟล์บุคคล
- ไม่มีการนิยาม “อัลกอริธึม” หรือ “โมเดล” ว่าเป็นผู้กระทำความผิดได้หรือไม่: ทำให้เกิดปัญหาว่า หาก AI ทำผิด ใครต้องรับผิดชอบ?
- การนำเข้าและใช้ AI จากต่างประเทศ: ไม่มีเกณฑ์การตรวจสอบว่าระบบ AI ต่างประเทศที่ใช้ในไทยปลอดภัย โปร่งใส และปฏิบัติตามกฎหมายไทยหรือไม่
2. PDPA กับการใช้งาน AI
แม้ PDPA จะมีผลบังคับใช้เต็มรูปแบบตั้งแต่ปี 2565 แต่การนำไปใช้ในระบบ AI ยังคงเป็นความท้าทายหลัก:
- Consent ไม่เหมาะกับ AI Learning: การให้ความยินยอมแบบทั่วไปอาจไม่ครอบคลุมการเรียนรู้แบบต่อเนื่องของ AI
- AI ที่วิเคราะห์พฤติกรรม: PDPA ไม่ได้กำหนดชัดเจนว่าโมเดล AI ที่ "คาดการณ์" พฤติกรรมผู้ใช้เข้าข่ายละเมิดหรือไม่
- ไม่มีข้อกำหนดเรื่อง “Explainability” หรือ “AI Transparency”: ผู้ใช้งานไม่มีสิทธิขอดูเหตุผลว่าระบบ AI ตัดสินใจอย่างไร
3. ตัวอย่างเหตุการณ์จริงที่ AI เกือบละเมิดกฎหมายไทย
มีหลายกรณีศึกษาที่ AI เข้าข่ายละเมิด PDPA หรือเกิดความเข้าใจผิด เช่น:
- บริษัทหนึ่งในไทยใช้ระบบ AI วิเคราะห์พฤติกรรมลูกค้าจากกล้อง CCTV โดยไม่ได้ขอความยินยอม → เข้าข่ายละเมิด PDPA
- การใช้ Chatbot ที่บันทึกบทสนทนาโดยอัตโนมัติโดยไม่มีการแจ้งเตือน
- การใช้ระบบ AI วิเคราะห์เรซูเม่โดยอคติจากข้อมูลเก่า ทำให้ละเมิดความเสมอภาค
4. สถานการณ์กฎหมายต่างประเทศกับ AI
ในปี 2024 สหภาพยุโรปได้ออกกฎหมาย EU AI Act ซึ่งแบ่ง AI เป็น 4 ประเภทตามความเสี่ยง พร้อมบังคับให้ต้องมีความโปร่งใส ตรวจสอบได้ และห้ามบางระบบที่มีความเสี่ยงสูง เช่น การทำ Social Scoring
หากไทยไม่ปรับตัว อาจเกิดปัญหา “การค้า” และ “การใช้งานเทคโนโลยีต่างประเทศ” ที่ไม่เข้ากฎหมายไทย
5. แนวทางการปฏิบัติ: ทำอย่างไรให้ใช้งาน AI อย่างมีจริยธรรมในไทย
- กำหนด Policy ขององค์กรให้ชัดเจน: AI ที่ใช้ต้องระบุว่าใช้กับใคร ใช้อย่างไร มีการปกป้องข้อมูลหรือไม่
- ใช้โมเดล AI ที่โปร่งใส: เช่น Open-Source AI ที่มีเอกสารชัดเจน
- อัปเดตความรู้ด้านกฎหมายสม่ำเสมอ: โดยเฉพาะ PDPA, กฎหมายไซเบอร์, พ.ร.บ.คอมพิวเตอร์, และพรบ.ธุรกรรมทางอิเล็กทรอนิกส์
- ตรวจสอบการทำ Profiling และอคติ (Bias): ด้วยเทคนิค Explainable AI และ Fairness Testing
6. ข้อเสนอแนะสำหรับภาครัฐและนโยบายระดับชาติ
- จัดตั้ง “AI Governance Center” แบบเดียวกับสหภาพยุโรป เพื่อกำกับดูแลการใช้ AI ทุกภาคส่วน
- แก้ไข/เพิ่มเติม พ.ร.บ.คุ้มครองข้อมูลส่วนบุคคล ให้ครอบคลุมโมเดล AI ที่ Generate/Infer ข้อมูลใหม่
- สนับสนุน Sandbox และการวิจัย AI อย่างมีจริยธรรม
7. บทสรุป
AI ไม่ใช่เพียงเทคโนโลยีใหม่ แต่เป็น "ความเปลี่ยนแปลงเชิงระบบ" ที่ต้องมี “กฎหมาย” และ “จริยธรรม” เป็นเครื่องมือกำกับอย่างรอบด้าน บทความนี้หวังว่าจะเป็นแนวทางสำหรับหน่วยงาน ภาคธุรกิจ และประชาชนในการเตรียมพร้อมสู่อนาคตแห่ง AI อย่างมีความรับผิดชอบ
“AI ที่ไม่มีจริยธรรม ย่อมนำไปสู่สังคมที่ไร้หลักประกัน”