เตรียมความพร้อมสำหรับการใช้งานเทคโนโลยีปัญญาประดิษฐ์ในโลกปัจจุบัน

Datafarm
2 min readJul 19, 2023

ปัจจุบันนี้เทคโนโลยีปัญญาประดิษฐ์ได้เข้ามามีบทบาทในดำเนินกิจกรรมต่าง ๆ ของเราเพิ่มมากขึ้น สิ่งต่าง ๆ ที่เราใช้งานกันในชีวิตประจำวัน อาทิ เทคโนโลยีผู้ช่วยอัจฉริยะบนสมาร์ทโฟน อย่าง Siri, Alexa และ Google Assistant เทคโนโลยีกึ่งอัตโนมัติในรถยนต์ Tesla หรือเป็น Social Media Feed บน Facebook และ Snapchat บริการเพลง หรือภาพยนต์บน YouTube และ Netflix ล้วนมีเทคโนโลยีปัญญาประดิษฐ์ทำงานอยู่เบื้องหลัง เพื่อคอยส่งข้อมูลและแจ้งเตือนผู้ใช้งาน โดยอาศัยข้อมูลพฤติกรรมการใช้งานของผู้ใช้งาน มาปรับการส่งข้อมูลให้เหมาะสมกับความต้องการ ไปจนถึงเทคโนโลยีการนำทางที่เราใช้กันเกือบทุกวันอย่าง Google Maps ก็ใช้เทคโนโลยีปัญญาประดิษฐ์ ในการประมวลผลข้อมูลจราจรแบบเรียลไทม์ lเพื่อหาเส้นทางที่ดีที่สุดในการไปถึงจุดหมายปลายทาง[1] ตลอดจนการใช้เทคโนโลยีปัญญาประดิษฐ์ chatbot อย่าง ChatGPT มาช่วยในการทำงาน เป็นต้น ซึ่งเห็นได้ชัดว่า เทคโนโลยีปัญญาประดิษฐ์นั้นเข้ามาเปลี่ยนชีวิตความเป็นอยู่ของคนในสังคมปัจจุบันเป็นอย่างมาก จึงเป็นเรื่องสำคัญที่เราจะต้องมาทำความรู้จักกับเทคโนโลยีปัญญาประดิษฐ์ หรือ (Artificial Intelligence : AI) ให้มากขึ้น

นอกจากนี้ ภาครัฐและ/หรือเอกชนควรมีการพัฒนามาตรฐาน หรือกฎเกณฑ์ทางศีลธรรม (Code of Ethics) เพื่อเป็นกรอบในการประยุกต์ใช้งานและควบคุมเทคโนโลยีปัญญาประดิษฐ์ให้เกิดความปลอดภัย และเหมาะสม เป็นที่ยอมรับในระดับสากล เพราะปัญญาประดิษฐ์นั้นไม่ได้มีเพียงส่วนประกอบที่เป็นอัลกอริทึมเท่านั้น แต่ยังรวมถึงข้อมูล (Data) ชุดข้อมูล (Database) ข้อมูลส่วนบุคคลที่นำมาใช้ร่วมกันในการประมวลผลด้วย ส่งผลให้เกิดปัญหาที่ตามคือ “ข้อมูลดังกล่าวควรเป็นของใคร?” เมื่อถูกนำไปใช้ในระบบประมวลผลและระบบอัตโนมัติสามารถเข้าถึง หรือนำไปใช้ได้มากน้อยแค่ไหน[2] รวมไปถึงการเกิดปัญหาที่ว่า “ผลงานจากปัญญาประดิษฐ์ควรเป็นของใคร และมีลิขสิทธิ์หรือไม่” และ “ข้อมูลส่วนบบุคคลที่ถูกนำไปประมวลผลนั้นปลอดภัยหรือไม่ ชอบด้วยกฎหมายหรือไม่ อย่างไร”

ดังนั้น ประเด็นเหล่านี้เป็นเรื่องที่ภาครัฐและ/หรือเอกชนต้องเร่งวางแผน เตรียมการและรับมือไว้

ปัญญาประดิษฐ์ (Artificial Intelligence) คืออะไร?

ปัญญาประดิษฐ์ (Artificial Intelligence : AI) เป็นเทคโนโลยีการสร้างความสามารถให้แก่เครื่องจักร และคอมพิวเตอร์ ด้วยอัลกอริทึมและกลุ่มเครื่องมือทางสถิติ เพื่อสร้างซอฟต์แวร์ทรงปัญญาที่สามารถ เลียนแบบความสามารถของมนุษย์ที่ซับซ้อนได้ เช่น จดจำ แยกแยะ ให้เหตุผล ตัดสินใจ คาดการณ์์ สื่อสารกับมนุษย์ เป็นต้น ในบางกรณีอาจไปถึงขั้นเรียนรู้ได้ด้วยตนเอง[3]

ปัญหา กฎหมาย ลิขสิทธิ์ กับ ปัญญาประดิษฐ์ (Artificial Intelligence)

จากการทำงานของปัญญาประดิษฐ์ที่ไม่ได้มีเพียงส่วนประกอบที่เป็นอัลกอริทึมและกลุ่มเครื่องมือทางสถิติเท่านั้น แต่ยังรวมถึงข้อมูล (Data) ชุดข้อมูล (Database) ข้อมูลส่วนบุคคลที่นำมาใช้ร่วมกันในการประมวลผลเพื่อสร้างซอฟต์แวร์ทรงปัญญานั้น ส่งผลให้เกิดปัญหาที่ตามคือ “ข้อมูลดังกล่าวควรเป็นของใคร?” หรือ “ใครควรเป็นเจ้าของลิขสิทธิ์” ในข้อมูลดังกล่าว ปัจจุบันยังเป็นที่ถกเถียงกันอยู่ และยังไม่ได้มีการออกกฎหมายควบคุมในเรื่องของการใช้ปัญญาประดิษฐ์

จากบทสัมภาษณ์ของท่านอาจารย์ ดร. ภูมิศิริ ดำรงวุฒิ[4] รายการ ดิจิทัลไทยแลนด์ กับ เอิ้น ปานระพี ตอน “ลิขสิทธิ์ และ กฎหมายกับ AI ” ออกอากาศวันเสาร์ที่ 9 กรกฎาคม 2566[5] ที่ผ่านมามีความน่าสนใจ ในคำถามที่ว่าผลงานจากปัญญาประดิษฐ์ เป็นของผู้สร้างทั้งหมด 100 เปอร์เซ็นต์หรือไม่

อาจารย์มีความเห็นว่า “ต้องมาดูเรื่องการคุ้มครองของด้วยกฎหมายลิขสิทธิ์ด้วย ซึ่งเราก็ต้องถามว่างานที่เราใช้ปัญญาประดิษฐ์สร้างขึ้นมามีการลอกเลียนแบบ หรือไปเอางานของคนอื่นมาเทรนปัญญาประดิษฐ์โดยที่เจ้าของไม่อนุญาตหรือไม่” ซึ่งก็อาจเป็นการยากกับผู้ใช้บริการปัญญาประดิษฐ์ที่จะต้องพิสูจน์หรือทราบได้ว่า ข้อมูลที่นำมาใช้ในการประมวลผลนั้นได้รับอนุญาตจากเจ้าของหรือไม่

นอกจากนี้ การออกกฎหมายควบคุมในเรื่องของการใช้ปัญญาประดิษฐ์ในประเทศไทยนั้น “เรามีไกด์ไลน์ต่างๆ อย่างไรก็ตาม ในส่วนของกฎหมายอาจต้องรอพิจารณาจากยุโรป คล้ายกับกรณีของ พระราชบัญญัติคุ้มครองข้อมูลส่วนบุคคล ที่ล้อตาม GDPR ของยุโรป ซึ่งการออกกฎหมายควรจะต้องเอาทุกภาคส่วนที่ได้รับผลกระทบมาคุยกัน ไม่ใช่แค่นักกฎหมายหรือนักบริหารที่เกี่ยวข้อง” ทั้งนี้ ปัจจุบันยุโรปเริ่มมีกฎหมายออกมาควบคุมบังคับเกี่ยวกับเรื่องปัญญาประดิษฐ์ ซึ่งยังอยู่ในช่วงของการร่างกฎหมาย โดยมีเจตนารมณ์สำคัญก็คือ ปัญญาประดิษฐ์ควรจะปลอดภัย เข้าถึงได้กับคนทุกกลุ่มอย่างเท่าเทียม แต่จะต้องไม่นำมาใช้งานโดยละเมิดค่านิยมของสหภาพยุโรปหรือละเมิดสิทธิมนุษยชน [6]

การพัฒนามาตรฐาน หรือกฎเกณฑ์ทางศีลธรรม (Code of Ethics) ในการควบคุมปัญญาประดิษฐ์

เมื่อวันที่ 9 กุมภาพันธ์ 2566 ETDA เองได้มีการหารือและพูดคุยเกี่ยวกับมาตรฐานของการประยุกต์ใช้ ปัญญาประดิษฐ์ โดยมีความเห็นว่ามาตรฐานจะต้องไม่จำกัดหรือเป็นอุปสรรคต่อการพัฒนาเทคโนโลยีปัญญาประดิษฐ์ของ Start up หรือ ผู้เล่นหน้าใหม่ แต่ต้องเอื้อและส่งเสริมให้พวกเขาไปต่อได้[7]

ทั้งนี้ ควรนำหลักการ 8 ประการสำคัญของเรื่องจริยธรรมและการกํากับดูแลระบบปัญญาประดิษฐ์มาปรับใช้ภายในองค์กร ดังนี้ [8]

(1) หลักความเป็นส่วนตัว (Privacy) : หลักการคุ้มครองข้อมูลส่วนบุคคลเป็นหลักการสำคัญที่ทำให้การใช้งานปัญญาประดิษฐ์เกิดขึ้นอย่างเป็นธรรม รวมถึงการมีฐานในการประมวลผลข้อมูลที่ถูกต้อง เจ้าของข้อมูลส่วนบุคคลเองมีสิทธิในการเข้าถึง แก้ไขเปลี่ยนแปลงข้อมูล และได้รับการคุ้มครองตามกฎหมาย รวมไปถึง การออกแบบและพัฒนาปัญญาประดิษฐ์ก็ควรเกิดขึ้นบนหลักการเคารพความเป็นส่วนตัว โดยยึดหลัก privacy by design หรือการออกแบบโดยคํานึงถึงผลกระทบต่อความเป็นส่วนตัวของผู้ใช้งานเป็นสำคัญ

(2) หลักความรับผิดชอบ (Accountability) : ในทางปฏิบัติแล้วความรับผิดชอบนั้นอาจเกิดขึ้นในหลากหลายขั้นตอน ตั้งแต่ขั้นตอนการออกแบบ การเฝ้าระวังตรวจสอบการใช้งาน ขั้นตอนการเยียวยาในกรณีที่เกิดความเสียหายขึ้นแล้ว

(3) หลักความปลอดภัยและการรักษาความมั่นคงปลอดภัยของระบบ (Safety and Security) : การดำเนินงานภายใต้ระบบปัญญาประดิษฐ์จะป้องกันอันตรายที่อาจจะเกิดขึ้นโดยไม่ตั้งใจ รวมถึงความถูกต้องในการปฏิบัติงานซึ่งจะต้องเกิดขึ้นตั้งแต่ในช่วงทดสอบระบบ

(4) หลักความโปร่งใสและการอธิบายได้ (Transparency and Explainability) : ความโปร่งใสจะต้องเกิดขึ้นตั้งแต่การออกแบบระบบให้ปัญญาประดิษฐ์ถูกตรวจสอบการดำเนินงานอยู่ตลอดเวลา ส่วนการอธิบายได้ หมายถึง การแปลงข้อมูลที่เป็นภาษาเทคโนโลยีให้เป็นภาษาที่คนสามารถทำความเข้าใจได้ เพื่อจะสามารถประเมินความเสี่ยงหรือเข้าใจเกี่ยวกับผลกระทบต่าง ๆ ได้

(5) หลักความเป็นธรรมและไม่เลือกปฏิบัติ (Fairness and Non-Discrimination) : การป้องกันอคติและการเลือกปฏิบัติต้องอาศัยตัวเลือกทางเทคนิคที่ถูกต้อง เพื่อป้องกันเหตุการณ์ที่ไม่คาดหมายไว้ประกอบกับวิสัยทัศน์ของผู้พัฒนาและผู้ใช้งาน ว่าปลายทางของการใช้งานปัญญาประดิษฐ์จะต้องนำไปสู่โลกที่ไม่มีใครถูกทิ้งไว้ข้างหลัง

(6) หลักการควบคุมเทคโนโลยีโดยมนุษย์ (Human Control of Technology) : จะต้องไม่ถูกระบบปัญญาประดิษฐ์เลือกให้โดยอัตโนมัติ ขาดการทบทวนจากคน หรือไม่เปิดทางเลือกให้คนถอนตัวออกจากการตัดสินใจนั้น ๆ

(7) หลักความรับผิดชอบของมืออาชีพ (Professional Responsibility) : การสร้างความตระหนักรู้ให้กับนักออกแบบเทคโนโลยีให้มีสำนึกความรับผิดชอบ

(8) หลักการส่งเสริมคุณค่าของมนุษย์ (Promotion of Human Values) : การสร้างระบบปัญญาประดิษฐ์ควรจะเป็นวัตถุประสงค์ที่ส่งเสริมคุณค่าของมนุษย์ ทำให้ชีวิตของมนุษย์นั้นเจริญงอกงาม คำนึงถึงการเข้าถึงเทคโนโลยีและเพื่อสร้างประโยชน์แก่สังคม ไม่ควรนำไปสู่สถานการณ์ที่เกิดความไม่เท่าเทียมกันในการเข้าถึงเทคโนโลยีอย่างกว้างขวาง จนกลายเป็นสภาวะช่องว่างหรือความเหลื่อมล้ำของสังคม

บทสรุป

ผู้เขียนเห็นว่า แม้ว่าปัจจุบันประเทศไทยเองก็ยังไม่มีกฎหมายหรือมาตรฐานใด ในการควบคุมปัญญาประดิษฐ์ที่แน่นอน แต่เพื่อการเตรียมความพร้อมขององค์กรและเพื่อให้การทำงานของเราควบคู่ไปกับการใช้งาน สร้าง หรือพัฒนาปัญญาประดิษฐ์ได้ในอนาคต เราสามารถเริ่มต้นจากการศึกษามาตรฐานการจัดการด้าน AI (Artificial Intelligence) Management System หรือ ISO/IEC 42001 เพื่อนำมาปรับใช้ในองค์กร เช่นเดียวกันกรณีที่หลาย ๆ องค์กรได้นำมาตรฐาน ISO/IEC 27001 และ 27701 มาปรับใช้ในองค์กรเพื่อให้สอดคล้องกับ PDPA หรือ พระราชบัญญัติคุ้มครองข้อมูลส่วนบุคคล

[1] https://www.etda.or.th/getattachment/9d370f25-f37a-4b7c-b661-48d2d730651d/Digital-Thailand-AI-Ethics-Principle-and-Guideline.pdf.aspx?lang=th-TH

[2] กฎหมายกับปัญญาประดิษฐ์ , ภูมินทร์ บุตรอินทร์

[3] AI GOVERNMENT FRAMEWORK, DGA https://dgti.dga.or.th/uploads/files/ai-government-framework.pdf

[4] รองคณบดี ฝ่ายวิรัชกิจและกฎเกณฑ์นิตินวัตกรรม คณะนิติศาสตร์ จุฬาลงกรณ์มหาวิทยาลัย

[5] https://www.youtube.com/watch?v=ShAKi6mqHlU

[6] สหภาพยุโรปเสนอร่างกฎหมาย AI ฉบับแรกของโลก ห้ามการสอดส่องดูแลมวลชนและระบบเครดิตทางสังคม, กรมยุโรป กระทรวงการต่างประเทศ, 30 พฤศจิกายน 2565 https://europetouch.mfa.go.th/th/content/สหภาพยุโรปเสนอร่างกฎหมาย-ai-ฉบับแรกของโลก%3Fcate=5d6abf7c15e39c3f30001465

[7] https://www.etda.or.th/th/Useful-Resource/Knowledge-Sharing/Articles/aigc/thai_ai_standard.aspx

[8] Thailand Artificial Intelligence Guidelines 1.0 แนวปฏิบัติเกี่ยวกับมาตรฐานการใช้ปัญญาประดิษฐ์, ธันวาคม 2565, หน้า 23

--

--

No responses yet