ความเสี่ยงในการนำระบบปัญญาประดิษฐ์มาใช้ในสำนักงานกฎหมายในประเทศไทย
Main Article Content
บทคัดย่อ
บทความวิชาการนี้มีจุดประสงค์เพื่อศึกษาความเสี่ยงที่จะเกิดขึ้น หากนำระบบ AI มาใช้ในสำนักงานกฎหมายในประเทศไทย โดยระบุ, จำแนก และวิเคราะห์ความเสี่ยงหลักด้านการปฏิบัติการ กฎหมาย และจริยธรรม ที่จะเกิด ผลการศึกษาพบว่า การประยุกต์ใช้เทคโนโลยีดังกล่าว มีความเสี่ยงที่สำคัญ ได้แก่ 1. ความเสี่ยงในการใช้ระบบ AI ในสำนักงานกฎหมาย ประกอบด้วย 1.1 ความผิดพลาดอันเนื่องมาจากสถานการณ์ที่คาดไม่ถึง (Edge Cases) ซึ่งอาจนำไปสู่การประมาทเลินเล่อในวิชาชีพ (Professional Malpractice) 1.2 ความเสี่ยงด้านการละเมิดความมั่นคงปลอดภัยของข้อมูลและความเป็นส่วนตัวภายใต้ พระราชบัญญัติคุ้มครองข้อมูลส่วนบุคคล พ.ศ. 2562 (PDPA) โดยเฉพาะอย่างยิ่งกรณีการถ่ายโอนข้อมูลข้ามพรมแดน 1.3 ความเสี่ยงด้านจริยธรรมจากการเกิด อคติเชิงอัลกอริทึม (Algorithmic Bias) ที่อาจส่งผลกระทบต่อความเป็นธรรมในกระบวนการยุติธรรม 2. ความเสี่ยงจากความไม่แน่นอนของกรอบกฎหมายที่นำมากำกับดูแล AI ในประเทศไทย ประกอบด้วย 2.1 สถานะบุคคลตามกฎหมายของ AI 2.2 เขตอำนาจศาลที่ปกติจะยึดโยงกับภูมิลำเนาของคู่ความหรือสถานที่ที่มูลคดีเกิด 2.3 ข้อบังคับสภาทนายความว่าด้วยมรรยาททนายความอาจตีความได้ว่าการนำข้อมูลส่วนบุคคลไปให้ AI วิเคราะห์เป็นการเปิดเผยข้อมูลอันเป็นความลับของลูกความให้กับผู้ให้บริการ และอาจกลายเป็นการทำผิดต่อ พ.ร.บ. คุ้มครองข้อมูลส่วนบุคคล พ.ศ. 2562 (PDPA) ได้ ผู้วิจัยจึงทำการสรุปด้วยการนำเสนอแนวทางการบริหารจัดการความเสี่ยง โดยการประยุกต์ใช้หลักการของ กรอบการบริหารความเสี่ยงปัญญาประดิษฐ์ (AI RMF 1.0) ของ NIST เพื่อเป็นแนวทางปฏิบัติแก่ผู้ประกอบการสำนักงานกฎหมายไทย ในการพัฒนาธุรกิจ การบริการ และการควบคุมความเสี่ยงต่อไป
Article Details

อนุญาตภายใต้เงื่อนไข Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International License.
ทัศนะและความคิดเห็นที่ปรากฏในบทความในวารสารศิลปการจัดการ ถือเป็นความรับผิดชอบของผู้เขียนบทความนั้น และไม่ถือเป็นทัศนะและความรับผิดชอบของกองบรรณาธิการ ยินยอมว่าบทความเป็นลิขสิทธิ์ของวารสารศิลปการจัดการ
เอกสารอ้างอิง
Adadi, A., & Berrada, M. (2018). Peeking inside the Black-Box: A survey on explainable artificial intelligence (XAI). IEEE Access, 6, 52138-52160. https://doi.org/10.1109/ACCESS.2018.2870052
Armour, J., Parnham, R., & Sako, M. (2022). Augmented lawyering. University of Illinois Law Review, (1), 71–138.
Davenport, T. H., & Kirby, J. (2016). Only humans need apply: winners and losers in the age of smart machines. HarperBusiness.
Lacity, M. C., & Willcocks, L. P. (2018). Robotic process and cognitive automation - The next phase (12th ed.). SB Publishing.
Matthias, A. (2004). The responsibility gap: Ascribing responsibility for the actions of learning automata. Ethics Inf Technol, 6, 175–183 (2004). https://doi.org/10.1007/s10676-004-3422-1
National Artificial Intelligence Initiative Act of 2020, 15 U.S.C. § 9401(3).
National Institute of Standards and Technology. (2023). Artificial intelligence risk management framework (AI RMF 1.0) (NIST AI 100-1). U.S. Department of Commerce.
Noble, S. U. (2018). Algorithms of oppression: How search engines reinforce racism. University Press.
O’Neil, C. (2016). Weapons of math destruction: How big data increases inequality and threatens democracy. Crown Publishing.
Pasquale, F. (2015). The black box society: The secret algorithms that control money and ethics information. Harvard University Press.
Sadiku, M. N. O. (1989). Artificial intelligence. IEEE Potentials, 35-39.
Sako, M., Armour. J., & Parnham, R. (2020). Lawtech adoption and training: findings from a survey of solicitors in England and Wales. University of Oxford.
Susskind, R. E. (2017). Tomorrow’s lawyers: An introduction to your future. Oxford University Press.
Taddeo, M., McCutcheon, T., & Floridi, L. (2018). Ethics, Governance, and Policies in Artificial Intelligence. Springer. https://content.e-bookshelf.de/media/reading/L-16871700-5ce6df8467.pdf