ปัญญาประดิษฐ์ได้พัฒนาอย่างรวดเร็ว จากเทคโนโลยีเฉพาะทางสู่ความความสามารถหลักทางธุรกิจ บริษัทฟินเทคแห่งหนึ่งในประเทศไทยมีแอปพลิเคชันให้กู้เงินดิจิทัลที่ขับเคลื่อนด้วย AI ซึ่งสามารถอนุมัติสินเชื่อได้อย่างแม่นยำ การเติบโตอย่างรวดเร็วของ AI นี้เน้นย้ำถึงความสำคัญของกรอบการกำกับดูแลที่เชื่อถือ
อิง ฮาว แทน
Assurance Leader
ดีลอยท์ ประเทศไทย
ปัญญาประดิษฐ์ (AI) ได้พัฒนาอย่างรวดเร็ว จากเทคโนโลยีเฉพาะทางสู่ความความสามารถหลักทางธุรกิจ ในปีที่ผ่านมา AI ได้ถูกนำมาใช้ในหลากหลายอุตสาหกรรมมากขึ้น ด้วยความคาดหวังในด้านประสิทธิภาพ นวัตกรรม และความได้เปรียบในการแข่งขัน
ยกตัวอย่างเช่น บริษัทฟินเทค (Fintech) แห่งหนึ่งในประเทศไทยมีแอปพลิเคชันให้กู้เงินดิจิทัลซึ่งขับเคลื่อนด้วย AI ซึ่งสามารถอนุมัติสินเชื่อให้กับผู้สมัครกว่าร้อยละ 30 ที่เคยถูกธนาคารปฏิเสธ เพราะไม่มีเอกสารแสดงรายได้อย่างเป็นทางการหรือประวัติเครดิต ระบบ AI ได้ช่วยให้เข้าถึงลูกค้าได้อย่างแม่นยำและลดความเอนเอียง พร้อมปรับปรุงการฟื้นคืนทุนของพอร์ตสินเชื่อโดยรวม
การเติบโตอย่างรวดเร็วของ AI นี้เน้นย้ำถึงความสำคัญของกรอบการกำกับดูแลที่เชื่อถือได้ ที่จะช่วยให้องค์กรบริหารความเสี่ยงที่ AI ได้อย่างมั่นใจ ทั้งนี้ ผลลัพธ์ที่ไม่น่าเชื่อถือจาก AI อาจนำไปสู่การฟ้องร้อง การปรับทางกฎหมาย หรือการเสียชื่อเสียง องค์กรในปัจจุบันจึงเผชิญกับแรงกดดันที่มากขึ้นในการใช้ AI จากฝ่ายบริหารและหน่วยงานกำกับดูแล ดังนั้นการตอบสนองต่อความท้าทายเหล่านี้จึงต้องใช้แนวทางเชิงรุก ได้แก่ การใช้ AI อย่างรับผิดชอบและตรงตามประสงค์ทางธุรกิจ การลดความเอนเอียงในข้อมูลและผลลัพธ์ รวมถึงการส่งเสริมความโปร่งใสและความสามารถในการอธิบายระบบ AI
การบริหารความเสี่ยง AI
กรอบกำกับดูแล AI มีโครงสร้างชัดเจน ประกอบด้วยนโยบาย มาตรฐาน และกระบวนการกำกับวงจรชีวิต AI ที่ส่งเสริมการพัฒนาอย่างรับผิดชอบ เพิ่มประโยชน์สูงสุด และลดความเสี่ยง (เช่น ความเอนเอียงและการละเมิดความเป็นส่วนตัว) สร้างความเชื่อมั่น และขับเคลื่อนนวัตกรรม ตามข้อกำหนดที่เปลี่ยนแปลงอยู่เสมอ
การออกแบบกรอบการกำกับดูแล AI อย่างมีความรับผิดชอบนั้นมีความซับซ้อน โปรแกรมการจัดการความเสี่ยง AI ที่ประสบความสำเร็จมีหลักการพื้นฐานสำคัญหลายประการร่วมกัน ไม่ว่าจะเป็น ต้องมีความสมดุลระหว่างนวัตกรรมและการจัดการความเสี่ยง ไม่เป็นอุปสรรคต่อนวัตกรรม แต่ควรสร้างความตระหนักรู้เพื่อช่วยให้ผู้มีส่วนได้ส่วนเสียเข้าใจว่าการจัดการความเสี่ยงช่วยเพิ่มความน่าเชื่อถือและมูลค่าในระยะยาวได้ นอกจากนี้ ความสอดคล้องกับแนวปฏิบัติการจัดการความเสี่ยงที่มีอยู่ เช่น การจัดการความเสี่ยงแบบจำลอง (Model risk management: MRM) สามารถปรับปรุงกระบวนการดำเนินงานและเพิ่มประสิทธิภาพได้
ความสอดคล้องของผู้มีส่วนได้ส่วนเสีย เป็นอีกหนึ่งปัจจัยสำคัญ การมีส่วนร่วมของทีมงานข้ามสายงาน ซึ่งรวมถึงความมั่นคงปลอดภัยไซเบอร์ ไอที กฎหมาย และการปฏิบัติตามกฎระเบียบ ช่วยให้มั่นใจได้ว่ากรอบการกำกับดูแลมีความครอบคลุมและได้รับการสนับสนุนอย่างดี นอกจากนี้ องค์กรต่าง ๆ ควรบริหารจัดการการเปลี่ยนแปลงด้านกฎระเบียบต่าง ๆ เมื่อกฎระเบียบด้าน AI มีการเปลี่ยนแปลง แนวปฏิบัติการจัดการการเปลี่ยนแปลงที่แข็งแกร่งจึงจำเป็นในการรักษาการปฏิบัติตามกฎระเบียบและสร้างสภาพแวดล้อม AI ที่เชื่อถือได้
ท้ายที่สุดแล้ว การจัดการความเสี่ยงด้วย AI ควรได้รับการบูรณาการเข้ากับกรอบความเสี่ยงขององค์กรที่กว้างขึ้น การใช้ประโยชน์จากโครงสร้างที่มีอยู่ควบคู่ไปกับการปรับให้เหมาะสมกับลักษณะเฉพาะของ AI จะช่วยให้องค์กรต่าง ๆ สร้างระบบการกำกับดูแลที่ยืดหยุ่นและปรับเปลี่ยนได้
องค์กรจะเริ่มต้นได้อย่างไร
กรอบแนวคิด Trustworthy AI ของดีลอยท์ นำเสนอแนวทางที่เป็นระบบโดยใช้แนวปฏิบัติด้านจริยธรรมของ AI และลดความเสี่ยงตลอดวงจรชีวิตของ AI การเริ่มต้นเส้นทางการกำกับดูแล AI ต้องใช้แนวทางที่มีโครงสร้างและครอบคลุม องค์กรสามารถเริ่มต้นได้โดยมุ่งเน้น 3 ด้านสำคัญ ได้แก่ การออกแบบ กระบวนการ และการฝึกอบรมจริยธรรมด้าน AI
การสร้างการกำกับดูแล AI ที่น่าเชื่อถือ
กรอบแนวคิด Trustworthy AI ของดีลอยท์ ได้สรุปหลัก 7 ประการ ซึ่งเป็นรากฐานของโปรแกรมการจัดการความเสี่ยงด้าน AI ที่มีประสิทธิภาพ ดังนี้
มองไปข้างหน้า สู่อนาคตที่น่าเชื่อถือ
เมื่อมีการกำกับดูแลที่มีความรับผิดชอบ องค์กรจะเป็นผู้นำได้อย่างมั่นใจ ปลดล็อกคุณค่าของการเปลี่ยนแปลง และกำหนดอนาคตที่นวัตกรรมและความซื่อสัตย์เดินทางไปด้วยกันได้อย่างสมบูรณ์