Kunstig intelligens (AI) betragtes ofte som en revolutionerende teknologi, i stand til at levere effektivitet, præcision og åbne nye strategiske muligheder. Dogod, mens virksomheder drager fordel af fordelene ved AI, der er også en kritisk udfordring og, nogle gange, forsømt: den algoritmiske lighed. Skjulte skævheder i disse systemer kan kompromittere ikke kun effektiviteten af forretningsbeslutninger, men skabe juridiske konsekvenser, betydningsfulde etiske og sociale.
Tilstedeværelsen af algoritmiske skævheder kan forklares ved selve AI'ens natur, især inden for maskinlæring. Modeller er trænet med historiske data, og når disse data afspejler fordomme eller sociale forvrængninger, algoritmerne ender naturligt med at videreføre disse skævheder. Udo forvridninger i informationen, selve algoritmen kan medføre en ubalance i den vægtning af faktorer, der er foretaget, eller de data, der bruges som proxy, det vil sige, data der erstatter de originale oplysninger, men men er ikke de ideelle til den analyse.
Et emblematiske eksempel på dette fænomen findes i brugen af ansigtsgenkendelse, især i følsomme sammenhænge som offentlig sikkerhed. Flere brasilianske byer har indført automatiserede systemer med det formål at øge effektiviteten af politiets handlinger, men analyser viser, at disse algoritmer ofte begår betydelige fejl, især når man identificerer individer fra specifikke etniske grupper, som mennesker med sort hud. Studier af forskeren Joy Buolamwini, do MIT, det er blevet påpeget, at kommercielle algoritmer har fejlprocenter over 30% for sorte kvinder, mens for hvide mænd, satsen falder drastisk til under 1%
Brasiliansk lovgivning: mere stramhed i fremtiden
I Brasil, além da Lei Geral de Proteção de Dados (LGPD) também está em tramitação o Marco Legal da IA (PL nº 2338/2023), der etablerer generelle retningslinjer for udvikling og anvendelse af AI i landet.
Selvom det endnu ikke er godkendt, dette lovforslag signalerer allerede rettigheder, som virksomhederne skal respektere, som: ret til forudgående information (informere når brugeren interagerer med et AI-system), ret til forklaring af automatiserede beslutninger, ret til at anfægte algoritmiske beslutninger og ret til ikke-diskrimination på grund af algoritmiske skævheder.
Disse punkter vil kræve, at virksomheder implementerer gennemsigtighed i generative AI-systemer eksempelvis, at klarlægge hvornår en tekst eller svar er genereret af maskinen) og revisionsmekanismer til at forklare, hvordan modellen nåede frem til en bestemt udgang
Algoritmisk styring: løsningen på skævheder
Til virksomheder, de algoritmiske skævheder går ud over den etiske sfære, bliver relevante strategiske problemer. Skæve algoritmer har potentiale til at forvrænge essentielle beslutninger i interne processer som rekruttering, kreditgivning og markedsanalyse. For eksempel, en algoritme til analyse af filialers præstation, der systematisk overvurderer byområder på bekostning af perifere områder (på grund af ufuldstændige data eller fordomme), kan føre til fejlinvesteringer. Sådan, skjulte faktorer underminerer effektiviteten af data-drevne strategier, får ledere til at træffe beslutninger baseret på delvist forkerte oplysninger
Disse bias kan rettes, men vil afhænge af en algoritmisk styringsstruktur, med fokus på mangfoldigheden af de anvendte data, gennemsigtighed i processerne og i inkluderingen af diversificerede og tværfaglige teams i den teknologiske udvikling. Når man investerer i mangfoldighed i de tekniske teams, for eksempel, virksomheder kan hurtigere identificere potentielle kilder til bias, sikre at forskellige perspektiver tages i betragtning, og at fejl opdages tidligt
Derudover, brugen af værktøjer til kontinuerlig overvågning er afgørende. Disse systemer hjælper med at opdage afvigelser i algoritmiske skævheder i realtid, muliggør hurtige justeringer og minimerer den negative indvirkning.
Gennemsigtighed er en anden væsentlig praksis i afbødningen af skævheder. Algoritmer bør ikke fungere som sorte bokse, men men som klare og forklarlige systemer. Når virksomheder vælger gennemsigtighed, opnår kundernes tillid, investorer og regulativer. Gennemsigtighed letter eksterne revisioner, fremme en kultur af delt ansvar i forvaltningen af AI
Andre initiativer inkluderer tilslutning til rammer og certificeringer for ansvarlig AI-governance. Dette inkluderer at oprette interne etiske udvalg for AI, definere virksomhedspolitikker for din brug, og at tage internationale standarder i brug. For eksempel, frameworks como: a ISO/IEC 42001 (gestão de inteligência artificial, a ISO/IEC 27001 (segurança da informação) e ISO/IEC 27701 (privacidade) ajudam a estruturar controles nos processos de dados usados por IA generativa. Et andet eksempel er det sæt af bedste praksis anbefalet af NIST (National Institute of Standards and Technology) i USA, som vejleder om algoritmisk risikostyring, dækning af biasdetektion, kvalitetskontrol af data og løbende overvågning af modeller
Specialiserede konsulentfirmaer spiller en strategisk rolle i dette scenarie. Med ekspertise i ansvarlig kunstig intelligens, algoritmisk styring og reguleringsoverholdelse, disse virksomheder hjælper organisationer ikke kun med at undgå risici, men at transformere lighed til konkurrencefordel. Aktiviteten fra disse konsulentfirmaer spænder fra detaljerede risikovurderinger, indtil udviklingen af interne politikker, gennemgår virksomhedstræning om etik i AI, sikre at teams er forberedt på at identificere og afbøde mulige algoritmiske fordomme
På denne måde, mitigeringen af algoritmiske skævheder er ikke kun en forebyggende foranstaltning, men en en strategisk tilgang. Virksomheder, der bekymrer sig om algoritmisk retfærdighed, viser socialt ansvar, de forstærker deres omdømme og beskytter sig mod retlige sanktioner og offentlige kriser. Impartiale algoritmer har en tendens til at tilbyde mere præcise og afbalancerede indsigter, øger effektiviteten af virksomheders beslutninger og styrker de konkurrencemæssige positioner for organisationer på markedet
Af Sylvio Sobreira Vieira, CEO & Head Consulting hos SVX Consultoria