Rasisme og diskriminering ved bruk av kunstig intelligens?

Rasisme og diskriminering ved bruk av kunstig intelligens?

I mitt forrige innlegg om kunstig intelligens forklarte jeg litt rundt hva kunstig intelligens er, og nevnte kort noe av nytteverdien ved kunstig intelligens, men også det skadepotensialet det kan ha. I dette innlegget skal jeg gå mer innpå dette temaet og ta opp noen av de sosiale konsekvensene ved bruk av kunstig intelligens.

Å spå fremtiden vil være umulig, men i vet at Norge kommer til å bli påvirket av økt globalisering, klimaendringer og eldrebølgen. Det å jobbe smartere og mer effektivt for å opprettholde velferdsnivået og konkurransekraften i årene som kommer vil bli viktig, og regjeringen la derfor fram en nasjonal strategi for kunstig intelligens i Januar 2020.

I denne strategien legges det vekt på at kunstig intelligens representerer store muligheter både for næringslivet, offentlig sektor og for oss som enkeltmennesker. Digitaliseringsminister Nikolai Astrup ønsker å utforske potensialet som ligger i denne spennende teknologien, og har virkelig troen på at dette er det Norge burde satse på.

Men med alle disse fordelene følger det også med noen dilemmaer.  Hvem er det egentlig som har ansvaret for konsekvensene av en beslutning tatt ved bruk av kunstig intelligens? Vi har sett tilfeller der teknologien forsterker diskriminering og rasisme, noe jeg har lyst til å gå litt mer inn på.

Hvordan kan et dataprogram bli rasistisk? Eller er det firmaet som har laget det som har disse tankene?

Ved kunstig intelligens så er det dataprogrammene som lærer av verder rundt seg, og oss mennesker. Dersom dataprogrammer med kunstig intelligens ikke får vite alle de sensitive opplysningene som de trenger, kan de finne frem til disse opplysningene selv ved hjelp av andre opplysninger.  Så selve programmet i seg selv, og firmaet bak det ønsker kanskje ikke at det skal oppstå rasisme, men allikevel er dette noe som kan skje. Kanskje har dataprogrammet andre opplysninger om bosted og inntekt, noe som igjen kan være nok til å dele inn i ulike raser.

«Tay»

Et eksempel på hvor lett en robot blir påvirket av omgivelsene er da Microsoft skapte en kunstig intelligent «chatte-robot» med navn «Tay». Hun fikk en egen Twitterkonto der hun lærte av de menneskene hun kommuniserte med. Roboten ble så påvirket at hun gikk fra å skrive om noe så uskyldig som valper, til at Hitler egentlig hadde rett. Dette er et eksempel på hvor lett en robot kunne påvirkes i et slikt tilfelle, og jeg vil tro det er slike eksempler som gjør at man er litt skeptiske til roboter og kunstig intelligens.

How The Internet Turned Microsoft's AI Chatbot Into A Neo-Nazi
Tay ble fort påvirket, og Twitterkontoen måtte ned etter 24 timer.

Hadde dataprogrammet vært forhåndsinnstilt og menneskestyrt, ville kanskje ikke dette oppstått. Men ved bruk av kunstig intelligens er det ikke mennesker som styrer dataprogrammet, men dataprogrammet som lærer selv.

Rasisme og diskriminering er noe man vil unngå, og det å vite at dataprogrammer og roboter som i utgangspunktet skal være nøytrale kan bli lært opp til dette vil nok være skremmende for mange.

Et annet eksempel var da Amazon benyttet seg av kunstig intelligens i en jobbsøkings-prosess, der roboten endte opp med å luke ut alle kvinnene som hadde søkt jobb der. Det opprinnelige målet til Amazon var å unngå feilansettelser, men så endte det ikke akkurat sånn…

Det er på grunn av slike eksempler jeg har nevnt ovenfor at det vil være spesielt viktig med forsiktig utprøving, og kunstig intelligens bør kun brukes når det har et formål, og når det fungerer bra. Det at digitalisering og kunstig intelligens er nøkkelen fremover er det ingen tvil om, men det er viktig å trå varsomt og bruke tid på å finne ut hvordan vi best kan utnytte disse mulighetene, slik at vi unngår eksempler som de over i fremtiden.

-Silje Søhoel

Kilder:

https://www.regjeringen.no/no/dokumenter/nasjonal-strategi-for-kunstig-intelligens/id2685594/?ch=1

https://forskning.no/arbeid-it-juridiske-fag/kunstig-intelligens-blir-mannssjavinistiske-rasister-hva-kan-vi-gjore-for-a-stoppe-det/1599018

One thought on “Rasisme og diskriminering ved bruk av kunstig intelligens?

  1. Hei Silje!

    Dette var veldig spennende lesing! Jeg liker veldig godt perspektivet du har tatt for deg i dette innlegget. Du drøfter godt og jeg var engasjert gjennom innlegget og lærte meg noe nytt 🙂 Fint at du også har med bildedeskripsjoner. God tekststruktur har du også – fortsett sånn!

    Noe pirk jeg har til deg denne gangen er kilde til Amazon-eksempelet ditt. Skriv gjerne den komplette kildehenvisningen på bunnen av alle dine innlegg som du ellers hadde gjort til eksamen 🙂 Det vil se penere ut 😀 Husk også at bilder også skal kildehenvises til – med mindre det er stock bilder.

    Godt jobbet! Jeg gleder meg til å følge deg videre 🙂

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *