ปัญญาประดิษฐ์ (AI) มักถูกมองว่าเป็นเทคโนโลยีที่ปฏิวัติ, สามารถให้ประสิทธิภาพ, ความแม่นยำและการเปิดโอกาสทางยุทธศาสตร์ใหม่. อย่างไรก็ตาม, ในขณะที่บริษัทต่างๆ ได้รับประโยชน์จากข้อดีของปัญญาประดิษฐ์, เกิดความท้าทายที่สำคัญขึ้นด้วย, บางครั้ง, ถูกละเลย: ความเท่าเทียมของอัลกอริธึม. อคติที่ซ่อนอยู่ในระบบเหล่านี้อาจทำให้ประสิทธิภาพในการตัดสินใจทางธุรกิจลดลง, แต่จะก่อให้เกิดผลทางกฎหมาย, จริยธรรมและสังคมที่มีความหมาย.
การมีอคติในอัลกอริธึมสามารถอธิบายได้จากธรรมชาติของปัญญาประดิษฐ์เอง, especialmente no aprendizado de máquina (machine learning). โมเดลถูกฝึกด้วยข้อมูลประวัติศาสตร์, และเมื่อข้อมูลเหล่านี้สะท้อนให้เห็นถึงอคติหรือการบิดเบือนทางสังคม, อัลกอริธึมโดยธรรมชาติจึงทำให้ความเอนเอียงเหล่านี้ยังคงอยู่. นอกจากอคติในข้อมูล, อัลกอริธึมเองอาจทำให้เกิดความไม่สมดุลในการชั่งน้ำหนักปัจจัยที่ทำไว้, หรือในข้อมูลที่ใช้เป็นพร็อกซี, นั่นคือ, ข้อมูลที่แทนที่ข้อมูลต้นฉบับ, แต่ไม่ใช่สิ่งที่เหมาะสมสำหรับการวิเคราะห์นั้น.
ตัวอย่างที่เด่นชัดของปรากฏการณ์นี้พบได้ในการใช้การจดจำใบหน้า, โดยเฉพาะในบริบทที่ละเอียดอ่อนเช่นความปลอดภัยสาธารณะ. หลายเมืองในบราซิลได้นำระบบอัตโนมัติมาใช้เพื่อเพิ่มประสิทธิภาพของการปฏิบัติการตำรวจ, แต่การวิเคราะห์อื่น ๆ แสดงให้เห็นว่าอัลกอริธึมเหล่านี้มักทำผิดพลาดที่สำคัญ, โดยเฉพาะเมื่อระบุบุคคลจากกลุ่มชาติพันธุ์เฉพาะ, เหมือนกับคนผิวดำ. การศึกษาของนักวิจัย Joy Buolamwini, ทำ MIT, มีการชี้ให้เห็นว่าอัลกอริธึมเชิงพาณิชย์มีอัตราความผิดพลาดสูงกว่า 30% สำหรับผู้หญิงผิวดำ, ในขณะที่สำหรับผู้ชายผิวขาว, อัตราลดลงอย่างมากเหลือน้อยกว่า 1%
กฎหมายบราซิล: ความเข้มงวดมากขึ้นในอนาคต
ในบราซิล, além da Lei Geral de Proteção de Dados (LGPD) também está em tramitação o Marco Legal da IA (PL nº 2338/2023), ที่กำหนดแนวทางทั่วไปสำหรับการพัฒนาและการใช้ปัญญาประดิษฐ์ในประเทศ.
Embora ainda não aprovado, โครงการกฎหมายนี้ได้แสดงถึงสิทธิที่บริษัทต่างๆ จะต้องเคารพ, สิทธิในการได้รับข้อมูลล่วงหน้า (แจ้งเมื่อผู้ใช้กำลังมีปฏิสัมพันธ์กับระบบปัญญาประดิษฐ์), สิทธิในการขอคำอธิบายเกี่ยวกับการตัดสินใจที่ทำโดยอัตโนมัติ, สิทธิในการโต้แย้งการตัดสินใจของอัลกอริธึมและสิทธิในการไม่ถูกเลือกปฏิบัติโดยอคติของอัลกอริธึม.
จุดเหล่านี้จะต้องการให้บริษัทต่างๆ นำความโปร่งใสไปใช้ในระบบ AI ที่สร้างสรรค์, การชี้แจงเมื่อข้อความหรือคำตอบถูกสร้างโดยเครื่อง) และกลไกการตรวจสอบเพื่ออธิบายว่าโมเดลไปถึงผลลัพธ์ที่กำหนดได้อย่างไร
การกำกับดูแลอัลกอริธึม: ทางออกสำหรับอคติ
สำหรับบริษัท, อคติของอัลกอริธึมเกินกว่าขอบเขตทางจริยธรรม, กลายเป็นปัญหาทางยุทธศาสตร์ที่สำคัญ. อัลกอริธึมที่มีอคติสามารถบิดเบือนการตัดสินใจที่สำคัญในกระบวนการภายในเช่นการสรรหา, การอนุมัติสินเชื่อและการวิเคราะห์ตลาด. ตัวอย่างเช่น, อัลกอริธึมการวิเคราะห์ประสิทธิภาพของสาขาที่ประเมินค่าสูงเกินไปในเขตเมืองโดยไม่คำนึงถึงเขตชานเมือง (เนื่องจากข้อมูลไม่ครบถ้วนหรืออคติ) อาจนำไปสู่การลงทุนที่ไม่ถูกต้อง. ดังนั้น, ความลับที่ซ่อนเร้นทำให้ประสิทธิภาพของกลยุทธ์ที่ขับเคลื่อนด้วยข้อมูลลดลง, ทำให้ผู้บริหารตัดสินใจโดยอิงจากข้อมูลที่ผิดพลาดบางส่วน
อคติเหล่านี้สามารถแก้ไขได้, แต่จะขึ้นอยู่กับโครงสร้างการกำกับดูแลที่ใช้การคำนวณ, มุ่งเน้นที่ความหลากหลายของข้อมูลที่ใช้, ความโปร่งใสของกระบวนการและการรวมทีมที่หลากหลายและหลายสาขาในการพัฒนาเทคโนโลยี. เมื่อลงทุนในความหลากหลายของทีมเทคนิค, ตัวอย่างเช่น, บริษัทต่างๆ สามารถระบุแหล่งที่มาของอคติได้อย่างรวดเร็วมากขึ้น, การรับประกันว่ามุมมองที่แตกต่างกันจะถูกพิจารณาและข้อบกพร่องจะถูกตรวจพบแต่เนิ่นๆ
นอกจากนี้, การใช้เครื่องมือการติดตามอย่างต่อเนื่องเป็นสิ่งสำคัญ. ระบบเหล่านี้ช่วยตรวจจับการเบี่ยงเบนของอคติทางอัลกอริธึมแบบเรียลไทม์, ทำให้สามารถปรับเปลี่ยนได้อย่างรวดเร็วและลดผลกระทบเชิงลบ.
ความโปร่งใสเป็นอีกหนึ่งแนวปฏิบัติที่สำคัญในการลดอคติ. อัลกอริธึมไม่ควรทำงานเหมือนกล่องดำ, แต่เป็นระบบที่ชัดเจนและสามารถอธิบายได้. เมื่อบริษัทเลือกความโปร่งใส, ได้รับความไว้วางใจจากลูกค้า, นักลงทุนและผู้ควบคุม. ความโปร่งใสช่วยให้การตรวจสอบภายนอกเป็นไปได้ง่ายขึ้น, ส่งเสริมวัฒนธรรมของความรับผิดชอบร่วมกันในการจัดการ AI
ความคิดริเริ่มอื่น ๆ รวมถึงการเข้าร่วมกรอบงานและการรับรองสำหรับการกำกับดูแล AI อย่างรับผิดชอบ. นี่รวมถึงการสร้างคณะกรรมการจริยธรรมภายในเกี่ยวกับปัญญาประดิษฐ์, กำหนดนโยบายของบริษัทสำหรับการใช้งานของคุณ, และนำมาตรฐานสากลมาใช้. ตัวอย่างเช่น, frameworks como: a ISO/IEC 42001 (gestão de inteligência artificial, a ISO/IEC 27001 (segurança da informação) e ISO/IEC 27701 (privacidade) ajudam a estruturar controles nos processos de dados usados por IA generativa. อีกตัวอย่างหนึ่งคือชุดของแนวปฏิบัติที่แนะนำโดย NIST (National Institute of Standards and Technology) ของสหรัฐอเมริกาที่ชี้แนะแนวทางการจัดการความเสี่ยงทางอัลกอริธึม, การปกป้องการตรวจจับอคติ, การตรวจสอบคุณภาพข้อมูลและการติดตามโมเดลอย่างต่อเนื่อง
การให้คำปรึกษาที่เชี่ยวชาญมีบทบาทเชิงกลยุทธ์ในสถานการณ์นี้. ด้วยความเชี่ยวชาญในด้านปัญญาประดิษฐ์ที่มีความรับผิดชอบ, การกำกับดูแลอัลกอริธึมและการปฏิบัติตามกฎระเบียบ, บริษัทเหล่านี้ช่วยองค์กรไม่เพียงแต่หลีกเลี่ยงความเสี่ยง, แต่การเปลี่ยนความเท่าเทียมให้เป็นข้อได้เปรียบทางการแข่งขัน. การดำเนินงานของที่ปรึกษาเหล่านี้เริ่มตั้งแต่การประเมินความเสี่ยงอย่างละเอียด, จนถึงการพัฒนานโยบายภายใน, เข้าร่วมการฝึกอบรมของบริษัทเกี่ยวกับจริยธรรมในปัญญาประดิษฐ์, การรับประกันว่าทีมงานพร้อมที่จะระบุและบรรเทาอคติทางอัลกอริธึมที่อาจเกิดขึ้น
ด้วยวิธีนี้, การบรรเทาอคติของอัลกอริธึมไม่ใช่เพียงมาตรการป้องกัน, แต่เป็นการเข้าถึงเชิงกลยุทธ์. บริษัทที่ใส่ใจในความเท่าเทียมของอัลกอริธึมแสดงให้เห็นถึงความรับผิดชอบต่อสังคม, เสริมสร้างชื่อเสียงของตนและปกป้องตนเองจากการลงโทษทางกฎหมายและวิกฤตสาธารณะ. อัลกอริธึมที่ไม่ลำเอียงมักจะให้ข้อมูลเชิงลึกที่แม่นยำและสมดุลมากขึ้น, เพิ่มประสิทธิภาพในการตัดสินใจทางธุรกิจและเสริมสร้างตำแหน่งการแข่งขันขององค์กรในตลาด
โดย ซิลวิโอ โซเบรย์รา วีเอร่า, CEO และหัวหน้าที่ปรึกษาของ SVX Consultoria