Tekoäly (IA) nähdään usein vallankumouksellisena teknologiana, kyky tarjota tehokkuutta, tarkkuus ja uusien strategisten mahdollisuuksien avaaminen. Kuitenkin, kun yritykset hyötyvät tekoälyn eduista, nousee myös kriittinen haaste ja, josittain, laiminoinut: algoritminen tasa-arvo. Piilotetut vinoumat näissä järjestelmissä voivat vaarantaa ei vain liiketoimintapäätösten tehokkuuden, mutta aiheuttaa oikeudellisia seurauksia, merkittäviä eettisiä ja sosiaalisia.
Algoritmisten ennakkoluulojen läsnäolo voidaan selittää itse tekoälyn luonteella, erityisesti koneoppimisessa. Mallit koulutetaan historiallisilla tiedoilla, ja kun nämä tiedot heijastavat ennakkoluuloja tai sosiaalisia vääristymiä, algoritmit luonnollisesti ylläpitävät näitä ennakkoluuloja. Lisäksi tiedon vinoumat, itse algoritmi voi aiheuttaa epätasapainoa tekijöiden painotuksessa, tai tiedot, joita käytetään välittäjänä, toisin sanoen, tiedot, jotka korvaavat alkuperäiset tiedot, mutta ne eivät ole ihanteellisia tuota analyysiä varten.
Esimerkki tästä ilmiöstä löytyy kasvojentunnistuksen käytöstä, erityisesti herkissä konteksteissa, kuten julkisessa turvallisuudessa. Useat erilaiset brasilialaiset kaupungit automaattisia järjestelmiä poliisitoiminnan tehokkuuden lisäämiseksi, mutta analyysit osoittavat, että nämä algoritmit tekevät usein merkittäviä virheitä, erityisesti tunnistaessaan tiettyjen etnisten ryhmien yksilöitä, kuin mustat ihmiset. Tutkimukset tutkija Joy Buolamwinin, tee MIT, on todettiin, että kaupalliset algoritmit näyttävät yli 30 % virheprosenttia mustille naisille, kun taas valkoisille miehille, vero laskee dramaattisesti alle 1%
Brasilian lainsäädäntö: tiukempaa tulevaisuudessa
Brasiliassa, além da Lei Geral de Proteção de Dados (LGPD) também está em tramitação o Marco Legal da IA (PL nº 2338/2023), joka määrittelee yleiset suuntaviivat tekoälyn kehittämiselle ja soveltamiselle maassa.
Vaikka se ei ole vielä hyväksytty, tämä lakiehdotus osoittaa jo oikeudet, joita yritysten on kunnioitettava, kuin: oikeus ennakkotietoon (tiedottaa, kun käyttäjä on vuorovaikutuksessa tekoälyjärjestelmän kanssa), oikeus selitykseen automatisoiduista päätöksistä, oikeus kyseenalaistaa algoritmipäätöksiä ja oikeus olla joutumatta syrjinnän kohteeksi algoritmisten vinoumien vuoksi.
Nämä seikat edellyttävät, että yritykset toteuttavat läpinäkyvyyttä generatiivisen tekoälyn järjestelmissä esimerkiksi, selvittää, milloin teksti tai vastaus on tuotettu koneellisesti) ja tarkastusmekanismeja selittämään, miten malli on päätynyt tiettyyn tulokseen
Algoritminen hallinta: ratkaisu vinoumien korjaamiseen
Yrityksille, algoritmiset vinoumat ulottuvat eettisen sfäärin ulkopuolelle, neistä tulee merkittäviä strategisia ongelmia. Vääristyneet algoritmit voivat vääristää keskeisiä päätöksiä sisäisissä prosesseissa, kuten rekrytoinnissa, luoton myöntäminen ja markkina-analyysi. Esimerkiksi, suorituskyvyn analysointialgoritmi, joka systemaattisesti yliarvioi kaupunkialueita periferiaseutujen kustannuksella (puutteellisten tietojen tai ennakkoluulojen vuoksi), voi johtaa väärin kohdennettuihin investointeihin. Näin, piilotetut tekijät heikentävät dataohjattujen strategioiden tehokkuutta, saaden johtajien tekemään päätöksiä osittain virheellisten tietojen perusteella
Nämä vinoumat voidaan korjata, mutta ne riippuvat algoritmisesta hallintorakenteesta, tietäen käytettyjen tietojen monimuotoisuudesta, prosessien läpinäkyvyys ja monimuotoisten ja monitieteisten tiimien sisällyttäminen teknologiseen kehitykseen. Sijoittamalla monimuotoisuuteen teknisissä tiimeissä, esimerkiksi, yritykset pystyvät tunnistamaan nopeammin mahdollisia puolueellisuuden lähteitä, varmistamalla, että erilaiset näkökulmat otetaan huomioon ja että virheet havaitaan varhaisessa vaiheessa
Lisäksi, jatkuvan seurannan työkalujen käyttö on olennaista. Nämä järjestelmät auttavat havaitsemaan algoritmisten vinoumien siirtymistä reaaliajassa, mahdollistamalla nopeat säädöt ja minimoimalla negatiivinen vaikutus.
Läpinäkyvyys on toinen olennainen käytäntö ennakkoluulojen lieventämisessä. Algoritmit eivät saa toimia mustina laatikoina, vaan selkeinä ja selitettävinä järjestelminä. Kun yritykset valitsevat läpinäkyvyyden, saavat asiakkaidensa luottamuksen, sijoittajat ja sääntelijät. Läpinäkyvyys helpottaa ulkoisia tarkastuksia, edistämällä jaettua vastuullisuuskulttuuria tekoälyn hallinnassa
Muita aloituksia sisältävät sitoutumisen vastuullisen tekoälyn hallinnan viitekehyksiin ja sertifikaatteihin. Tämä sisältää sisäisten tekoälyn eettisten komiteoiden perustamisen, määritellä yrityspolitiikkoja niiden käytölle, ja ottaa kansainvälisiä standardeja käyttöön. Esimerkiksi, frameworks como: a ISO/IEC 42001 (gestão de inteligência artificial, a ISO/IEC 27001 (segurança da informação) e ISO/IEC 27701 (privacidade) ajudam a estruturar controles nos processos de dados usados por IA generativa. Toinen esimerkki on Yhdysvaltojen NISTin (National Institute of Standards and Technology) suosittelemien käytäntöjen kokonaisuus, joka ohjaa algoritmisen riskin hallintaa, peittäen puolueellisuuden havaitsemisen, tietojen laadun tarkastukset ja mallien jatkuva seuranta
Erityisasiantuntijat näyttelevät strategista roolia tässä tilanteessa. Vastuullisen tekoälyn asiantuntemuksella, algoritminen hallinta ja sääntelyvaatimusten noudattaminen, nämä yritykset auttavat organisaatioita ei vain välttämään riskejä, mutta muuttaa tasa-arvo kilpailueduksi. Näiden konsulttien toiminta vaihtelee yksityiskohtaisista riskinarvioinneista, jopa sisäisten politiikkojen kehittämiseen, käyden läpi yrityskoulutuksia tekoälyn etiikasta, varmistamalla, että tiimit ovat valmiita tunnistamaan ja lieventämään mahdollisia algoritmisia ennakkoluuloja
Tällä tavalla, algoritmisten puolueellisuuden lieventäminen ei ole vain ennaltaehkäisevä toimenpide, vaan strateginen lähestymistapa. Yritykset, jotka huolehtivat algoritmisesta tasa-arvosta, osoittavat sosiaalista vastuuta, vahvistavat mainettaan ja suojaavat itseään oikeudellisilta seuraamuksilta ja julkisilta kriiseiltä. Epäpuolueettomat algoritmit tarjoavat todennäköisesti tarkempia ja tasapainoisempia näkemyksiä, lisäämällä liiketoimintapäätösten tehokkuutta ja vahvistamalla organisaatioiden kilpailuasemaa markkinoilla
Sylvio Sobreira Vieira, SVX Konsultoinnin toimitusjohtaja ja pääkonsultti