Künstliche Intelligenz (KI) wird oft als revolutionäre Technologie angesehen, in der Lage, Effizienz zu bieten, Präzision und neue strategische Möglichkeiten eröffnen. Jedoch, während die Unternehmen von den Vorteilen der KI profitieren, entsteht auch eine kritische Herausforderung und, manchmal, vernachlässigt: die algorithmische Gerechtigkeit. Verborgene Vorurteile in diesen Systemen können nicht nur die Effizienz der Unternehmensentscheidungen beeinträchtigen, aber rechtliche Konsequenzen nach sich ziehen, bedeutende ethische und soziale.
Die Präsenz von algorithmischen Verzerrungen kann durch die Natur der KI selbst erklärt werden, insbesondere im maschinellen Lernen. Modelle werden mit historischen Daten trainiert, und wenn diese Daten Vorurteile oder soziale Verzerrungen widerspiegeln, Algorithmen perpetuieren diese Vorurteile auf natürliche Weise. Neben den Verzerrungen in der Information, der Algorithmus selbst kann eine Ungleichgewichtung der durchgeführten Faktorenbewertung mit sich bringen, oder in den als Proxy verwendeten Daten, das heißt, Daten, die die ursprünglichen Informationen ersetzen, aber sie sind nicht ideal für diese Analyse.
Ein emblematisches Beispiel für dieses Phänomen findet sich im Einsatz von Gesichtserkennung, insbesondere in sensiblen Kontexten wie der öffentlichen Sicherheit. Verschiedene brasilianische Städte haben automatisierte Systeme eingeführt, um die Effektivität der Polizeimaßnahmen zu erhöhen, aber Analysen zeigen, dass diese Algorithmen häufig erhebliche Fehler machen, insbesondere bei der Identifizierung von Individuen aus bestimmten ethnischen Gruppen, wie schwarze Menschen. Studien der Forscherin Joy Buolamwini, do MIT, Es wurde darauf hingewiesen, dass kommerzielle Algorithmen Fehlerquoten von über 30% für schwarze Frauen aufweisen, während für weiße Männer, der Satz fällt drastisch auf weniger als 1%
Brasilianische Gesetzgebung: mehr Strenge in der Zukunft
In Brasilien, além da Lei Geral de Proteção de Dados (LGPD) também está em tramitação o Marco Legal da IA (PL nº 2338/2023), die allgemeine Richtlinien für die Entwicklung und Anwendung von KI im Land festlegt.
Obwohl noch nicht genehmigt, dieses Gesetzesprojekt signalisiert bereits Rechte, die die Unternehmen respektieren müssen, Recht auf vorherige Information (informieren, wenn der Benutzer mit einem KI-System interagiert), Recht auf Erklärung automatisierter Entscheidungen, Recht, algorithmische Entscheidungen anzufechten, und Recht auf Nichtdiskriminierung aufgrund algorithmischer Verzerrungen.
Diese Punkte erfordern, dass Unternehmen Transparenz in den Systemen der generativen KI implementieren, klarzustellen, wann ein Text oder eine Antwort maschinell generiert wurde) und Mechanismen zur Überprüfung, um zu erklären, wie das Modell zu einem bestimmten Ergebnis gekommen ist
Algorithmische Governance: die Lösung für Vorurteile
Für Unternehmen, Algorithmische Verzerrungen gehen über die ethische Sphäre hinaus, werden zu relevanten strategischen Problemen. Voreingenommene Algorithmen haben das Potenzial, wesentliche Entscheidungen in internen Prozessen wie der Rekrutierung zu verzerren, Kreditvergabe und Marktanalyse. Zum Beispiel, Ein Algorithmus zur Leistungsanalyse von Filialen, der städtische Regionen systematisch überbewertet zugunsten von Randgebieten (aufgrund unvollständiger Daten oder Vorurteile), kann zu falsch gerichteten Investitionen führen. So, verborgene Einflüsse untergraben die Wirksamkeit datengetriebener Strategien, indem sie Führungskräfte dazu bringen, Entscheidungen auf der Grundlage von teilweise falschen Informationen zu treffen
Diese Verzerrungen können korrigiert werden, aber sie werden von einer algorithmischen Governance-Struktur abhängen, mit Fokus auf die Vielfalt der verwendeten Daten, Transparenz der Prozesse und die Einbeziehung von vielfältigen und interdisziplinären Teams in die technologische Entwicklung. Beim Investieren in Vielfalt in technischen Teams, zum Beispiel, Unternehmen können potenzielle Bias-Quellen schneller identifizieren, sicherstellen, dass unterschiedliche Perspektiven berücksichtigt werden und dass Fehler frühzeitig erkannt werden
Außerdem, Die Nutzung von kontinuierlichen Überwachungstools ist entscheidend. Diese Systeme helfen, die Abweichung von algorithmischen Verzerrungen in Echtzeit zu erkennen, schnelle Anpassungen zu ermöglichen und negative Auswirkungen zu minimieren.
Transparenz ist eine weitere wesentliche Praxis zur Minderung von Vorurteilen. Algorithmen sollten nicht als Black Boxes fungieren, sondern als klare und erklärbare Systeme. Wenn Unternehmen sich für Transparenz entscheiden, gewinnen das Vertrauen von Kunden, Investoren und Regulierungsbehörden. Transparenz erleichtert externe Audits, Förderung einer Kultur der gemeinsamen Verantwortung im Management von KI
Weitere Initiativen umfassen die Teilnahme an Rahmenwerken und Zertifizierungen für verantwortungsvolle KI-Governance. Das umfasst die Einrichtung interner Ethikkomitees für KI, Unternehmensrichtlinien für deren Nutzung festlegen, und internationale Standards übernehmen. Zum Beispiel, frameworks como: a ISO/IEC 42001 (gestão de inteligência artificial, a ISO/IEC 27001 (segurança da informação) e ISO/IEC 27701 (privacidade) ajudam a estruturar controles nos processos de dados usados por IA generativa. Ein weiteres Beispiel ist der Satz von Best Practices, der vom NIST (National Institute of Standards and Technology) der USA empfohlen wird und die Verwaltung von algorithmischen Risiken leitet, Abdeckung der Bias-Erkennung, Datenqualitätsprüfungen und kontinuierliches Monitoring von Modellen
Spezialisierte Beratungen spielen in diesem Szenario eine strategische Rolle. Mit Expertise in verantwortungsvoller künstlicher Intelligenz, algorithmische Governance und regulatorische Compliance, diese Unternehmen helfen Organisationen nicht nur, Risiken zu vermeiden, aber Gleichheit in einen Wettbewerbsvorteil umzuwandeln. Die Tätigkeit dieser Beratungsunternehmen reicht von detaillierten Risikobewertungen, bis zur Entwicklung interner Richtlinien, Teilnahme an Unternehmensschulungen zur Ethik in der KI, sicherstellen, dass Teams darauf vorbereitet sind, mögliche algorithmische Vorurteile zu identifizieren und zu mindern
Auf diese Weise, Die Minderung von algorithmischen Verzerrungen ist nicht nur eine präventive Maßnahme, sondern ein strategischer Ansatz. Unternehmen, die sich um algorithmische Gerechtigkeit kümmern, zeigen soziale Verantwortung, stärken ihren Ruf und schützen sich vor rechtlichen Sanktionen und öffentlichen Krisen. Unparteiische Algorithmen neigen dazu, genauere und ausgewogenere Einblicke zu bieten, die Effektivität von Unternehmensentscheidungen zu steigern und die Wettbewerbsposition der Organisationen auf dem Markt zu stärken
Von Sylvio Sobreira Vieira, CEO & Leiter der Beratung von SVX Consultoria