Hopp til hovedinnhold

Teknologi /

Ansvarlig KI må være bærekraftig KI

Kunstig Intelligens (KI) står på dagsorden hos mange, både privat og på jobb. Språkroboter, bildegenerering og andre KI-verktøy påvirker livene våre på stadig flere vis. Vi har tidligere skrevet om at ansvarlig KI bør være hele organisasjonens ansvar, som fortsatt kan fungere som en bra veileder til alle som skal utvikle eller ta i bruk KI. I denne artikkelen går jeg mer i dybden på punktene som gjelder KI og bærekraft, siden dette er en viktig del av vårt arbeid og vår rådgiving i Kantega.

Et tre med digitale røtter

I 2015 ble 2030-agendaen med 17 bærekraftsmål vedtatt av alle FNs medlemsland. Målene omfatter miljø, økonomi og sosial utvikling - og er et bra utgangspunkt for diskusjoner om ansvarlig og bærekraftig KI. De fleste av dagens KI-systemer er basert på maskinlæringsalgoritmer som lærer av store mengder innsamlede data. Algoritmene har samtidig et bredt spekter av kompleksitet.

Bærekraftsmål som angår menneskerettigheter

Kolorisert visning av bærekraftsmål som anngår menneskerettigheter
Kolorisert visning av bærekraftsmål som anngår menneskerettigheter

Det er flere bærekraftsmål som setter søkelys på å redusere ulikhet mellom mennesker og sørge for like muligheter for alle. Men som min kollega Nora påpeker i en annen artikkel, vil et maskinlæringssystem aldri bli helt rettferdig. Derfor er det spesielt viktig at man tenker nøye over konsekvensene når løsninger basert på maskinlæring blir tatt i bruk.

Denne problematikken er heldigvis godt kjent nå og har fått mer fokus etter flere skandaler med ekte skader for mennesker (for eksempel barnetrygdskandalen i Nederland). EUs AI Act trådte i kraft i august 2024, og en norsk implementasjon er på vei med mål om ikrafttredelse i 2026. Det er et grundig regelverk hvor KI-systemer kategoriseres etter forskjellig risikonivå og skal ha tilpasset oppfølging og krav til risikohåndtering. Likestillings- og diskrimineringsombudet har også publisert en veileder som heter “Innebygd diskrimineringsvern”. Den kan fungere som et godt praktisk verktøy som hjelper med veiledende spørsmål for å unngå eller minske diskriminering i systemer med KI.

Når vi bygger KI-systemer “fra bunnen av", har vi god kontroll over personvern og kan sikre en tryggere bruk av teknologien. Men når vi tar i bruk tjenester fra kommersielle aktører, som for eksempel store språkmodeller fra amerikanske selskap, opererer vi med større usikkerhet. Ny sikkerhets- og personvernproblematikk dukker opp stadig, og selv om analyse av sikkerhet kan bli til et spill, havner vi fort i en mer kompleks situasjon med større risiko. EU AI Compliance leaderboard på HuggingFace kan også være et hjelpemiddel for å vurdere de store modellene.

Et bærekraftsaspekt rundt menneskerettigheter som ofte går under radaren, er de dårlige arbeidsforholdene til de som jobber med vask og tagging av store datasett, i såkalte digitale sweatshops. Historier om disse har nå blitt til en bok – Feeding the machine, the hidden human labor powering AI. Det kan være utfordrende å vite hvordan man skal handle når vi innser at teknologiene vi benytter oss av, bidrar til urettferdige arbeidsforhold.

Én ting vi kan gjøre, er å bruke forbrukermakten vår til å velge leverandører med ansvarlige produksjonslinjer.

Vi i Kantega heier på den norske start-upen NAYA som tilbyr slike dataannoteringstjenester på en bærekraftig måte. Deres tjenester er nyttige for veiledet læring, hvor korrekt merking av datasett er avgjørende.

Bærekraftsmål som angår miljøpåvirkning

Kolorisert utvalg av bærekraftsmål som angår miljø
Kolorisert utvalg av bærekraftsmål som angår miljø

Når vi snakker om bærekraft, tenker de fleste på miljøpåvirkning og klimaendringene. Dette aspektet blir dessverre ofte nedprioritert i KI-prosjekter. Løsninger med KI har spesielle energibehov i forhold til andre digitale tjenester – de er ofte avhengige av store datamengder som må oppbevares i datasentre, og større modeller har betydelig energibruk både ved trening og ved predikering (når de er tatt i bruk). NRK har blant annet skrevet artikler om det store energi- og vannbehovet til de nyeste modellene.

KI-løsninger har et stort energi- og vannbehov

Selv om de store selskapene tilbyr verktøy for å monitorere utslipp når vi bruker deres løsninger, viser uavhengige analyser at de faktiske utslippene er mye høyere enn det som blir rapportert.

En annen kompliserende faktor som ikke kan ignoreres er at alle av de store amerikanske teknologiselskapene som står bak de mest brukte kommersielle språkmodellene har stilt seg bak USAs nye president, som så langt har meldt ut landet av Parisavtalen og opphevet tidligere presidentordre om ansvarlig KI-utvikling. Vi vet også at den nye ledelsen satser mer på fossilenergi framover, noe som sannsynligvis henger sammen med prosjektet for utbygging av nye datasentre i USA.

Hvordan skal vi som ansvarlige teknologer navigere i dette landskapet? Teknologirådet har skrevet en utmerket rapport som tar for seg problemstillingen og gir råd om hvordan vi kan implementere KI med fokus på "Grønn KI". Vi er også sannsynligvis i ferd med å nærme oss slutten på den mest intense hype-fasen for generativ KI. Dette kan gi oss rom til å ta et skritt tilbake og vurdere brukerbehov fremfor kun teknologivalg. Ved å gjøre dette kan vi bedre balansere flere hensyn og finne løsninger som er både innovative og bærekraftige.

Hvordan satse på Kunstig Intelligens fremover

Denne artikkelen har sett mer på utfordringene enn gevinstene med kunstig intelligens, men det er fortsatt snakk om en spennende teknologi med mange muligheter. En forskningsartikkel fra 2020 har identifisert flere bruksområder til kunstig intelligens som kan hjelpe for å nå bærekraftsmålene, for eksempel med kontinuerlig monitorering og varsling om vær og hav.

Det er mange som mener at vi alle er i et KI-kappløp, og spesielt gjelder det de med kommersiell interesse i å selge disse produktene. Men vi har godt av å huske at det er bare fem år til FNs “bærekraftsmålstrek” og vi er i et kappløp om å ta vare på jorden og beskytte demokratiet i disse dager.

Når man skal løse et problem, blir det alltid avveininger å gjøre, og teknologivalg må balanseres med etiske og andre aspekter. Trenger du hjelp til å navigere i KI-landskapet, så har vi mange i Kantega som gjerne tar en prat.