Kunstmatige Intelligentie (KI) wordt vaak gezien als een revolutionaire technologie, in staat om efficiëntie te bieden, precisie en het openen van nieuwe strategische kansen. Echter, terwijl bedrijven profiteren van de voordelen van AI, erupt ook een kritische uitdaging en, soms, verwaarloosd: de algoritmische gelijkheid. Verborgen biases in deze systemen kunnen niet alleen de efficiëntie van zakelijke beslissingen in gevaar brengen, maar juridische gevolgen genereren, significante ethische en sociale.
De aanwezigheid van algoritmische vooroordelen kan worden verklaard door de aard van de AI zelf, bijzonder in machine learning. Modellen worden getraind met historische gegevens, en wanneer deze gegevens vooroordelen of sociale vervormingen weerspiegelen, de algoritmes dragen van nature bij aan het voortbestaan van deze vooroordelen. Naast de vooroordelen in de informatie, het algoritme zelf kan een disbalans brengen in de afweging van de factoren die is gemaakt, of de gegevens die als proxy worden gebruikt, dat wil zeggen, gegevens die de originele informatie vervangen, maar ze zijn niet ideaal voor die analyse.
Een emblematisch voorbeeld van dit fenomeen is te vinden in het gebruik van gezichtsherkenning, vooral in gevoelige contexten zoals openbare veiligheid. Diverse Braziliaanse steden hebben geautomatiseerde systemen aangenomen met als doel de effectiviteit van politieacties te vergroten, maar analyses tonen aan dat deze algoritmen vaak aanzienlijke fouten maken, vooral bij het identificeren van individuen uit specifieke etnische groepen, zoals zwarte mensen. Onderzoek van de onderzoekster Joy Buolamwini, do MIT, er werd opgemerkt dat commerciële algoritmen foutpercentages van meer dan 30% vertonen voor zwarte vrouwen, terwijl voor witte mannen, de rente daalt drastisch tot minder dan 1%
Braziliaanse wetgeving: meer striktheid in de toekomst
In Brazilië, além da Lei Geral de Proteção de Dados (LGPD) também está em tramitação o Marco Legal da IA (PL nº 2338/2023), die algemene richtlijnen vaststelt voor de ontwikkeling en toepassing van AI in het land.
Hoewel nog niet goedgekeurd, dit wetsvoorstel geeft al aan welke rechten bedrijven moeten respecteren, zoals: recht op voorafgaande informatie (informeren wanneer de gebruiker interactie heeft met een AI-systeem), recht op uitleg over geautomatiseerde beslissingen, recht om algoritmische beslissingen aan te vechten en recht op non-discriminatie door algoritmische vooroordelen.
Deze punten vereisen dat bedrijven transparantie implementeren in generatieve AI-systemen (bijvoorbeeld, duidelijk maken wanneer een tekst of antwoord door een machine is gegenereerd) en mechanismen voor auditing om uit te leggen hoe het model tot een bepaalde output is gekomen
Algoritmische governance: de oplossing voor de vooroordelen
Voor bedrijven, de algoritmische vooroordelen gaan verder dan de ethische sfeer, worden relevante strategische problemen. Vooringenomen algoritmen hebben het potentieel om essentiële beslissingen in interne processen zoals werving te vervormen, kredietverlening en marktanalyse. Bijvoorbeeld, een algoritme voor prestatieanalyse van filialen dat stedelijke gebieden systematisch overschat ten koste van perifere gebieden (vanwege onvolledige gegevens of vooroordelen) kan leiden tot slecht gerichte investeringen. Zo, verborgen vooroordelen ondermijnen de effectiviteit van data-gedreven strategieën, waardoor executives beslissingen nemen op basis van gedeeltelijk onjuiste informatie
Deze vooroordelen kunnen worden gecorrigeerd, maar ze zullen afhankelijk zijn van een algoritmische governance-structuur, met de focus op de diversiteit van de gebruikte gegevens, transparantie van processen en de inclusie van diverse en multidisciplinaire teams in technologische ontwikkeling. Bij het investeren in diversiteit in technische teams, bijvoorbeeld, bedrijven kunnen potentiële bronnen van bias sneller identificeren, zorgend dat verschillende perspectieven worden overwogen en dat fouten vroegtijdig worden opgespoord
Bovendien, het gebruik van continue monitoringtools is essentieel. Deze systemen helpen bij het detecteren van de afwijking van algoritmische vooroordelen in real-time, het mogelijk maken van snelle aanpassingen en het minimaliseren van de negatieve impact.
Transparantie is een andere essentiële praktijk bij het verminderen van vooroordelen. Algoritmen mogen niet functioneren als zwarte dozen, maar als duidelijke en verklaarbare systemen. Wanneer bedrijven kiezen voor transparantie, win het vertrouwen van klanten, investeerders en regelgevers. Transparantie vergemakkelijkt externe audits, het bevorderen van een cultuur van gedeelde verantwoordelijkheid in het beheer van AI
Andere initiatieven omvatten de deelname aan frameworks en certificeringen voor verantwoord AI-beheer. Dit omvat het oprichten van interne ethische commissies voor AI, corporate policies for its use definiëren, en internationale normen aannemen. Bijvoorbeeld, frameworks como: a ISO/IEC 42001 (gestão de inteligência artificial, a ISO/IEC 27001 (segurança da informação) e ISO/IEC 27701 (privacidade) ajudam a estruturar controles nos processos de dados usados por IA generativa. Een ander voorbeeld is de set van best practices aanbevolen door het NIST (National Institute of Standards and Technology) van de VS die richtlijnen biedt voor algoritmisch risicobeheer, biasdetectie dekken, kwaliteitscontroles van gegevens en continue monitoring van modellen
Gespecialiseerde adviesbureaus spelen een strategische rol in dit scenario. Met expertise in verantwoordelijke kunstmatige intelligentie, algoritmische governance en regelgevingsnaleving, deze bedrijven helpen organisaties niet alleen om risico's te vermijden, maar het omzetten van gelijkheid in concurrentievoordeel. De werking van deze adviesbureaus varieert van gedetailleerde risicobeoordelingen, tot de ontwikkeling van interne beleidsmaatregelen, door bedrijfsopleidingen over ethiek in AI gaan, ervoor zorgen dat teams voorbereid zijn om mogelijke algoritmische vooroordelen te identificeren en te verminderen
Op deze manier, de mitigatie van algoritmische vooroordelen is niet alleen een preventieve maatregel, maar eerder een strategische benadering. Bedrijven die zich bezighouden met algoritmische gelijkheid tonen sociale verantwoordelijkheid, versterken hun reputatie en beschermen zich tegen juridische sancties en publieke crises. Onpartijdige algoritmen hebben de neiging om nauwkeurigere en evenwichtigere inzichten te bieden, de effectiviteit van zakelijke beslissingen vergroten en de concurrentiepositie van organisaties op de markt versterken
Door Sylvio Sobreira Vieira, CEO & Hoofd Consulting van SVX Consultoria