เราจะสอนหุ่นยนต์ให้มีจริยธรรมได้ไหม ?

  • 22 ตุลาคม 2017
หุ่นยนต์ Image copyright Getty Images

ปัญญาประดิษฐ์ (เอไอ) รวมทั้งหุ่นยนต์ที่ใช้เทคโนโลยีแบบนี้ กำลังเข้ามาแทนที่มนุษย์ในการทำงานที่ต้องใช้ทักษะวิเคราะห์ตัดสินใจหลากหลายด้าน แต่ถ้าเป็นเรื่องละเอียดอ่อนที่มีประเด็นทางศีลธรรมจริยธรรมเข้ามาเกี่ยวข้องด้วย มนุษย์จะยอมให้หุ่นยนต์ที่ไม่มีจิตวิญญาณตัดสินใจในเรื่องเหล่านี้หรือไม่ ?

หรือว่าเราจะสามารถ "สอน" ให้ปัญญาประดิษฐ์รู้จักใคร่ครวญ และตัดสินใจอย่างถูกต้องตามทำนองคลองธรรมได้หรือไม่ ?

รถยนต์ขับเคลื่อนอัตโนมัติ

เทคโนโลยีรถยนต์ไร้คนขับ (Driverless car) นอกจากจะให้ความสะดวกสบายแก่ผู้ใช้ โดยช่วยควบคุมการทำงานของรถในทุกสภาพถนนแล้ว ยังต้องทำหน้าที่ตัดสินใจโดยอัตโนมัติในหลายสถานการณ์ เพื่อบังคับรถให้เคลื่อนไปถึงจุดหมายอย่างมีประสิทธิภาพด้วยความปลอดภัยสูงสุด แต่ในกรณีฉุกเฉินล่ะ ?

เมื่อมีอุบัติเหตุจากการขับขี่ยวดยานพาหนะเกิดขึ้น สิ่งหนึ่งที่ตัดสินชะตากรรมว่าผู้โดยสารรถยนต์คนไหนจะอยู่รอดหรือต้องกลายเป็นเหยื่อผู้เสียชีวิต ก็คือการตัดสินใจของคนถือพวงมาลัยว่าจะบังคับรถในสถานการณ์นั้นอย่างไร หลายครั้งคนขับเลือกรักษาชีวิตของตนเองไว้ก่อน แต่ในกรณีรถยนต์ขับเคลื่อนอัตโนมัติที่ไม่มีสัญชาตญาณเอาตัวรอดหรือเสียสละแบบมนุษย์ ผลที่ออกมาไม่อาจจะคาดเดาได้ นอกเสียจากว่าเจ้าของรถจะบันทึกคำสั่งการทำงานเอาไว้ล่วงหน้าว่าจะให้ระบบรักษาชีวิตของใคร ซึ่งปัจจุบันเริ่มมีการพัฒนา "เทคโนโลยีทางศีลธรรม" ที่ว่านี้สำหรับรถยนต์อัตโนมัติแล้ว

Image copyright JAGUAR LAND ROVER

อย่างไรก็ตาม มนุษย์อาจมีความลังเลไม่อาจตัดสินใจได้ว่าจะให้รถเลือกรักษาชีวิตของใคร บางคนมีความเชื่อมั่นว่าระบบการตัดสินใจด้วยปัญญาประดิษฐ์จะมีความเที่ยงตรงถูกต้องมากกว่า เมื่อเทียบกับมนุษย์ที่การตัดสินใจมักใช้อารมณ์และเจือไปด้วยอคติ ซึ่งหากเป็นเช่นนั้น การจะทำให้เอไอสามารถตัดสินใจในประเด็นทางศีลธรรมได้ ก็ต้องใช้การสอนเอไอให้เรียนรู้เรื่องดังกล่าวซ้ำ ๆ ผ่านสถานการณ์หลายรูปแบบ

แต่การเรียนรู้เพื่อตัดสินใจในประเด็นทางจริยธรรมไม่ใช่เรื่องง่ายแม้แต่กับมนุษย์ เพราะแต่ละทางเลือกที่มีอยู่มักขัดแย้งกันเอง เช่นในตัวอย่างปัญหาคลาสสิกทางปรัชญาที่เรียกว่า "ปัญหารถราง" (Trolley problem) ผู้ตอบปัญหาจะต้องตัดสินใจว่า จะสับรางรถที่แล่นมาด้วยความเร็วสูงให้ไปทางไหนดี ระหว่างด้านที่มีคนถูกผูกติดอยู่กับราง 5 คน กับด้านที่มีคนถูกกระทำเช่นเดียวกันอยู่เพียง 1 คน บางคนอาจเลือกสับรางไปทางที่จะมีผู้เสียชีวิตน้อยกว่า แต่บางคนก็ไม่อาจเลือกได้ เพราะเห็นว่าชีวิตมนุษย์ทุกคนมีค่าเท่าเทียมกัน

Image copyright PRINCETON UNIVERSITY PRESS

ยังมีปัญหาอีกมากมายหลายอย่างที่กำหนดการตัดสินใจของรถยนต์อัตโนมัติ ไม่ว่าจะเป็นการให้สัดส่วนความสำคัญระหว่างชีวิตของผู้โดยสารในรถและชีวิตของผู้สัญจรผ่านไปมานอกรถ ว่าควรจะให้น้ำหนักต่างกันอย่างไร หรือแม้กระทั่งคำถามที่ว่า ความรับผิดชอบทางศีลธรรมในส่วนนี้ควรจะเป็นหน้าที่ของใครเป็นผู้ตัดสินใจเลือกกันแน่ ระหว่างผู้ผลิต ผู้บริโภค หรือแม้กระทั่งรัฐบาลที่ควรจะเป็นผู้กำหนดให้เอง ?

ดังนั้น ปัญหาเบื้องต้นในการฝึกสอนปัญญาประดิษฐ์ให้ตัดสินใจในเรื่องศีลธรรม จึงขึ้นอยู่กับมนุษย์ที่จะต้องตอบคำถามพื้นฐานเหล่านี้ให้ได้ด้วยตนเองเสียก่อน แล้วจึงจะสามารถไปฝึกฝนเอไอได้ต่อไป

อาวุธอัตโนมัติ

นายรอน แอตกิน ผู้เชี่ยวชาญเรื่องอาวุธอัตโนมัติ (Autonomous weapon ) มองว่ามนุษย์จำเป็นจะต้องเพิ่มความรับผิดชอบต่อสิ่งที่ตนเองได้สร้างขึ้นมา โดยให้ความสนใจต่อการพัฒนาเทคโนโลยีทางศีลธรรมที่จะใช้ควบคุมอาวุธอัตโนมัติให้มากขึ้น เช่น การสอนเอไอที่เป็นอาวุธให้รู้จักแยกแยะระหว่างทหารและพลเรือน รวมทั้งตัดสินใจว่าสถานการณ์ใดเป็นอันตรายอย่างแท้จริงหรือไม่ เพื่อลดการเสียชีวิตของพลเรือนผู้บริสุทธิ์ในสงครามลงให้มากที่สุด

Image copyright Getty Images

แอตกินมองว่า เราสามารถสอนและโปรแกรมให้เอไอที่เป็นอาวุธเรียนรู้หลักการทางศีลธรรมเบื้องต้นในยามสงคราม โดยเฉพาะที่สอดคล้องกับอนุสัญญาเจนีวาได้ เช่น ไม่สังหารพลเรือนอย่างจงใจ รวมทั้งแยกแยะระหว่างศัตรูที่ถือมีดจะเข้ามาทำร้าย ออกจากแพทย์ที่ถือมีดผ่าตัดเพื่อช่วยชีวิตคนไข้ในสมรภูมิได้

ซูซานและไมเคิล แอนเดอร์สัน สองสามีภรรยาที่คนหนึ่งเป็นนักปรัชญาและอีกคนเป็นนักวิทยาศาสตร์มองว่า เราอาจเริ่มสอนศีลธรรมให้เอไอได้ ด้วยการโปรแกรมหลักการพื้นฐานอย่างใดอย่างหนึ่งลงไปก่อน เช่น คำสั่งที่ว่า "ทำให้เกิดสถานการณ์ที่มีความสุขมากที่สุด" หรือ "หลีกเลี่ยงความทุกข์ทรมาน" จากนั้นจึงฝึกให้เอไอประยุกต์ใช้หลักการเหล่านี้ในการตัดสินใจหลากหลายสถานการณ์ ซึ่งเมื่อได้เรียนรู้มากเข้าเอไอจะเริ่มมีความเข้าใจ และสามารถประยุกต์หลักการเหล่านี้กับสถานการณ์ที่ไม่เคยพบมาก่อนได้เป็นอย่างดี

Image copyright Getty Images

ข้อจำกัดในการเรียนรู้จากมนุษย์

แม้เอไอจะสามารถเรียนรู้การตัดสินใจอย่างมีศีลธรรมจากมนุษย์ได้ แต่ก็ยังมีช่องโหว่อันเนื่องมาจากการเรียนรู้ตามแบบอย่างของมนุษย์ที่ไม่ได้สมบูรณ์แบบ อคติในการตัดสินใจของมนุษย์อาจเข้าไปเป็นส่วนหนึ่งของการตัดสินใจด้วยปัญญาประดิษฐ์ได้ เช่น อคติทางเพศที่แฝงอยู่ในข้อมูลที่ป้อนให้เอไอโดยไม่รู้ตัว อาจทำให้เอไอคิดว่าคนชื่อจอน หรือเฟรด เหมาะที่จะเป็นนักวิทยาศาสตร์ มากกว่าคนที่ชื่อโจอันนา หรือฟิโอนา ก็เป็นได้

นอกจากนี้ การตัดสินใจบางเรื่องที่มีความซับซ้อนยิ่งไปกว่าประเด็นทางศีลธรรมที่มีคำตอบให้เลือกเพียง 2 ทาง หุ่นยนต์อาจทำได้ไม่ดีเท่าการใช้วิจารณญาณของมนุษย์ เช่น ในกรณีหุ่นยนต์ดูแลพยาบาลคนไข้ ตัวปัญญาประดิษฐ์อาจตัดสินใจผิดพลาดได้ในกรณีที่คนไข้ปฏิเสธการทานยา แม้พฤติกรรมนี้จะไม่เป็นอะไรมากนักในช่วงเวลาไม่กี่ชั่วโมง และการไม่รบเร้าเซ้าซี้คนไข้ก็เป็นการให้ความเคารพอย่างหนึ่ง แต่เมื่อเวลาผ่านไป หุ่นยนต์อาจต้องบังคับให้คนไข้ทานยาเพราะอาจเกิดอันตรายต่อชีวิตได้ แต่พยาบาลที่เป็นมนุษย์อาจรู้จังหวะผ่อนหนักผ่อนเบากับคนไข้ได้ดีกว่านี้

ข้อควรระวังอีกอย่างหนึ่งในการพัฒนาเอไอเชิงศีลธรรม ก็คือการที่เอไอเรียนรู้ได้มากขึ้นและมีพัฒนาการเรื่อยไปด้วยตัวของมันเอง จนถึงขั้นที่เราไม่สามารถทำนายได้ว่าเอไอจะตัดสินใจอย่างไรในครั้งต่อไป และไม่สามารถล่วงรู้ถึงเหตุผลที่เอไอใช้ในการตัดสินใจได้ด้วย ซึ่งออกจะน่ากลัวในสถานการณ์ที่เกี่ยวข้องกับความเป็นความตายของคนจำนวนมาก

ข่าวที่เกี่ยวข้อง