Kuinka tietoinen lähestymistapa tekoälyyn vähentää puolueellisia tietojoukkoja

Puolueet tietojoukot ja eettinen tekoäly

Tekoälykäyttöiset ratkaisut tarvitsevat tietojoukkoja ollakseen tehokkaita. Ja näiden tietojoukkojen luominen on täynnä implisiittistä harhaongelmaa systemaattisella tasolla. Kaikki ihmiset kärsivät puolueellisuudesta (sekä tietoisista että tiedostamattomista). Harhoilla voi olla useita muotoja: maantieteellisiä, kielellisiä, sosioekonomisia, seksistisiä ja rasistisia. Ja nämä systemaattiset harhat leivotaan tiedoiksi, mikä voi johtaa tekoälytuotteisiin, jotka ylläpitävät ja lisäävät harhaa. Organisaatiot tarvitsevat tietoisen lähestymistavan estääkseen tietojoukkojen harhautumisen.

Esimerkkejä, jotka kuvaavat harhaongelmaa

Eräs merkittävä esimerkki tästä datajoukkoharhasta, joka keräsi tuolloin paljon negatiivista lehdistöä, oli ansioluettelon lukemisratkaisu, joka suosi miesehdokkaita naisten sijaan. Tämä johtuu siitä, että rekrytointityökalun tietojoukot oli kehitetty käyttämällä ansioluetteloita viime vuosikymmeneltä, jolloin suurin osa hakijoista oli miehiä. Tiedot olivat puolueellisia ja tulokset heijastuivat tähän harhaan. 

Toinen laajalti raportoitu esimerkki: Google jakoi vuotuisessa Google I/O -kehittäjäkonferenssissa esikatselun tekoälyllä toimivasta ihotautityökalusta, joka auttaa ihmisiä ymmärtämään, mitä ihoon, hiuksiin ja kynsiin liittyvissä ongelmissa tapahtuu. Ihotautiapulainen korostaa, kuinka tekoäly kehittyy auttamaan terveydenhuollossa – mutta se korosti myös mahdollisuutta, että tekoäly voi hiipiä siihen kritiikkiin, jonka mukaan työkalu ei sovellu värikkäille ihmisille.

Kun Google julkisti työkalun, yritys totesi:

Varmistaaksemme, että rakennamme kaikille, mallimme ottaa huomioon sellaiset tekijät kuin ikä, sukupuoli, rotu ja ihotyypit - vaaleasta ihosta, joka ei rusketu, ruskeasta, joka palaa harvoin.

Google, tekoäly auttaa löytämään vastauksia yleisiin ihosairauksiin

Vice -artikkelin mukaan Google ei kuitenkaan käyttänyt kattavaa tietojoukkoa:

Tehtävän suorittamiseksi tutkijat käyttivät koulutustietosarjaa, joka sisälsi 64,837 12,399 kuvaa 3.5 90 potilaasta kahdessa osavaltiossa. Mutta kuvassa olevista tuhansista ihosairauksista vain XNUMX prosenttia tuli potilailta, joilla oli Fitzpatrickin ihotyypit V ja VI – jotka edustavat ruskeaa ihoa ja vastaavasti tummanruskeaa tai mustaa ihoa. Tutkimuksen mukaan XNUMX prosenttia tietokannasta koostui ihmisistä, joilla oli vaalea iho, tummempi valkoinen iho tai vaaleanruskea iho. Puolueellisen näytteenoton seurauksena ihotautilääkärit sanovat, että sovellus voi päätyä yli- tai alidiagnosoimaan ihmiset, jotka eivät ole valkoisia.

Vice, Googlen uutta ihotautisovellusta ei ole suunniteltu ihmisille, joilla on tumma iho

Google vastasi sanomalla, että se tarkentaa työkalua ennen sen virallista julkaisua:

Tekoälyllä toimiva ihotautityökalumme on yli kolmen vuoden tutkimuksen huipentuma. Siitä lähtien, kun työmme oli esillä Luonnonlääketieteessä, olemme jatkaneet teknologiamme kehittämistä ja parantamista sisällyttämällä siihen muita tietojoukkoja, jotka sisältävät tuhansien ihmisten lahjoittamia tietoja ja miljoonia enemmän kuratoituja ihoon liittyviä kuvia.

Google, tekoäly auttaa löytämään vastauksia yleisiin ihosairauksiin

Niin paljon kuin toivoisimmekin tekoäly- ja koneoppimisohjelmien korjaavan näitä harhoja, todellisuus on edelleen: ne ovat vain fiksu koska niiden tietojoukot ovat puhtaita. Päivitys vanhaan ohjelmointisanomaan roskat sisään roskat ulos, Tekoälyratkaisut ovat vain niin vahvoja kuin niiden tietojoukkojen laatu heti lähtiessä. Ilman ohjelmoijien tekemää korjausta näillä tietojoukoilla ei ole taustakokemusta korjata itseään - koska niillä ei yksinkertaisesti ole muuta viitekehystä.

Tietojoukkojen rakentaminen vastuullisesti on kaiken ydin eettinen tekoäly. Ja ihmiset ovat ratkaisun ytimessä. 

Mindful AI on eettinen AI

Bias ei tapahdu tyhjiössä. Epäeettiset tai puolueelliset tietojoukot ovat peräisin väärästä lähestymistavasta kehitysvaiheessa. Tapa torjua harhavirheitä on omaksua vastuullinen, ihmislähtöinen lähestymistapa, jota monet alan käyttäjät kutsuvat Mindful AI: ksi. Mindful AI: ssä on kolme kriittistä osaa:

1. Tietoinen tekoäly on ihmiskeskeinen

Tekoälyprojektin alusta asti suunnitteluvaiheessa ihmisten tarpeiden on oltava jokaisen päätöksen keskiössä. Ja tämä tarkoittaa kaikkia ihmisiä - ei vain osajoukkoa. Tästä syystä kehittäjien on luotettava monimuotoiseen maailmanlaajuisesti työskentelevien ihmisten tiimiin kouluttaakseen tekoälysovelluksia osallisiksi ja puolueettomiksi.

Tietojoukkojen joukkohankinta maailmanlaajuiselta, monipuoliselta tiimiltä varmistaa, että harhakuvat tunnistetaan ja suodatetaan pois varhaisessa vaiheessa. Eri etnisistä, ikäryhmistä, sukupuolista, koulutustasoista, sosioekonomisista taustoista ja paikasta koostuvat henkilöt voivat havaita helpommin tietojoukkoja, jotka suosivat yhtä arvoryhmää toisten edelle, mikä karsii pois tahattoman harhan.

Katso äänisovelluksia. Käyttäessään tietoista tekoälyä ja hyödyntäessään maailmanlaajuisen lahjakkuuden joukon voimaa kehittäjät voivat ottaa huomioon tietojoukoissa kielelliset elementit, kuten erilaiset murteet ja aksentit.

Ihmiskeskeisen suunnittelukehyksen luominen alusta alkaen on ratkaisevan tärkeää. Se auttaa pitkälle varmistamaan, että luotu, kuratoitu ja merkitty data täyttää loppukäyttäjien odotukset. Mutta on myös tärkeää pitää ihmiset ajan tasalla koko tuotekehityksen elinkaaren ajan. 

Silmukassa olevat ihmiset voivat myös auttaa koneita luomaan paremman tekoälykokemuksen kullekin tietylle yleisölle. Pactera EDGE:ssä maailmanlaajuisesti sijaitsevat tekoälytietoprojektitiimimme ymmärtävät, kuinka erilaiset kulttuurit ja kontekstit voivat vaikuttaa luotettavan tekoälyn koulutusdatan keräämiseen ja kuratointiin. Heillä on tarvittavat työkalut ongelmien ilmoittamiseen, seurantaan ja korjaamiseen ennen tekoälypohjaisen ratkaisun julkaisua.

Human-in-the-loop AI on projektin "turvaverkko", jossa yhdistyvät ihmisten vahvuudet – ja heidän monipuoliset taustansa sekä koneiden nopea laskentateho. Tämä ihmisten ja tekoälyn yhteistyö on luotava ohjelmien alusta lähtien, jotta puolueellinen data ei muodosta pohjaa projektille. 

2. Tietoinen tekoäly on vastuussa

Vastuullisuus on varmistaa, että tekoälyjärjestelmät ovat puolueettomia ja että ne perustuvat etiikkaan. Kyse on siitä, miten, miksi ja missä dataa luodaan, miten tekoälyjärjestelmät syntetisoivat sitä ja miten sitä käytetään päätöksenteossa, päätöksissä, joilla voi olla eettisiä vaikutuksia. Yksi tapa yritykselle tehdä niin on työskennellä aliedustettujen yhteisöjen kanssa osallistavammaksi ja vähemmän puolueelliseksi. Tietojen merkintöjen alalla uusi tutkimus korostaa, kuinka monen annotaattorin monitehtävämalli, joka käsittelee jokaisen annotaattorin tunnisteita erillisenä osatehtävänä, voi auttaa lieventämään mahdollisia ongelmia, jotka liittyvät tyypillisiin perustotuusmenetelmiin, joissa annotaattorin erimielisyydet voivat johtua aliedustustuksista ja voidaan jättää huomiotta yhdestä ainoasta totuudesta tehtyjen huomautusten yhdistämisessä. 

3. Luotettava

Luotettavuus perustuu siihen, että liiketoiminta on läpinäkyvää ja selitettävää siinä, miten tekoälymallia koulutetaan, miten se toimii ja miksi se suosittelee tuloksia. Yritys tarvitsee tekoälyn lokalisoinnin asiantuntemusta, jotta asiakkaat voivat tehdä tekoälysovelluksistaan ​​entistä kattavampia ja yksilöllisempiä, ottaen huomioon paikallisen kielen ja käyttökokemuksen kriittiset vivahteet, jotka voivat tehdä tekoälyratkaisun uskottavuuden maasta toiseen tai rikkoa sen. . Yrityksen tulee esimerkiksi suunnitella sovelluksensa personoituja ja lokalisoituja yhteyksiä varten, mukaan lukien kielet, murteet ja aksentit äänipohjaisissa sovelluksissa. Näin sovellus tuo saman tason puhekokemuksen kaikille kielille, englannista aliedustettuihin kieliin.

Oikeudenmukaisuus ja monimuotoisuus

Viime kädessä tietoinen tekoäly varmistaa, että ratkaisut perustuvat oikeudenmukaisiin ja monipuolisiin tietokokonaisuuksiin, joissa tiettyjen tulosten seurauksia ja vaikutuksia seurataan ja arvioidaan ennen kuin ratkaisu tulee markkinoille. Olemalla tietoinen ja ottamalla ihmiset mukaan ratkaisun kehityksen jokaiseen osaan autamme varmistamaan, että tekoälymallit pysyvät puhtaina, mahdollisimman vähän puolueellisina ja mahdollisimman eettisinä.

Mitä mieltä olet?

Tämä sivusto käyttää Akismetiä roskapostin vähentämiseksi. Lue, miten kommenttitietosi käsitellään.