Kunstig intelligens kan være en game changer for den humanitære sektoren

Mens kunstig intelligens (AI) kan gjøre ting bedre, raskere og til lavere kostnader enn mennesker, kan AI også mislykkes på måter som mennesker aldri kunne, skriver forfatterne.

Setninger:

Humanitære myndigheter, frivillig sektor og enkeltansatte bør engasjere seg mye sterkere i diskusjonen om implikasjonene av generativ kunstig intelligens (AI) for humanitært arbeid.

Dette er en nyhet. Setningene i teksten er forfatternes egne.

Nyhetsskribent:

  • Kristin Bergtora SandvikUiO / Prio
  • Kristoffer LidenPriò
  • Maria Gabrielsen Jumbert, Prio

Sommeren 2023 diskutert i FN det presserende behovet for å kontrollere og regulere generativ kunstig intelligens (AI), som er teknologien som Chat GPT, Bard og lignende applikasjoner er basert på.

I den humanitære sektoren er forventningene til kunstig intelligens på vent: mens det er håp om at nye teknologier kan fremskynde nødhjelp, Bedre og mer effektivt, er det også spørsmålet om denne teknologien blir neste AK-47.

Tre ting er spesielt viktige ettersom norske aktører fortsetter å utvikle og tydeliggjøre sin bruk av KI:

En ekte «game changer»

Den humanitære sektoren har opplevd et tiår med et intenst fokus på digitalisering og innovasjon og stor hype rundt teknologiske «gamechangers». Her er endelig et vendepunkt: generativ kunstig intelligens som gir brukerne muligheten til å produsere nytt innhold – ord, bilder, videoer – ved å gi instruksjoner til systemet. GPT Chat er den mest kjente versjonen så langt, men mange andre lignende produkter har blitt lansert siden den gang, som Googles Bard og bildeproduksjonsverktøy som f.eks. GI HENNE (også fra Open AI), Halvveis i reisenOG Stabil diffusjon.

Spørsmålet er bare hvilket «spill» og hva slags «endring» denne teknologien representerer for sektoren. Humanitære aktører jobber per definisjon med sårbare grupper i akutte krisesituasjoner. Mens AI kan gjøre ting bedre, raskere og billigere enn menneskerAI kan også mislykkes på måter som mennesker aldri kan mislykkes.

I de kommende månedene og årene vil mye endre seg både når det gjelder selve teknologien og hvordan den skal brukes i beredskapsoperasjoner. Givere, organisasjoner og den enkelte hjelpearbeider må ta opp forholdet sitt til teknologi, særegenhetene ved generativ AI, mulighetene de har til å forbedre bistanden, hva som utgjør risikofaktorer og hvordan håndtere kjente og ukjente risikoer.

Eksperimentell teknologi

Generativ AI bør sees på som en eksperimentell og ujevn teknologi. Offentlige diskusjoner om regulering av AI har ofte fått et skjær av magi og hekseri. Denne trolldommen er i ferd med å bli brutt, for å si det sånn Den Europeiske Union, kinesiske og amerikanske myndigheter stiller spørsmål ved lovverket. Selv om effektiv lovgivning ble vedtatt, vil de underliggende konsekvensene for den humanitære sektoren være betydelige.

Ikke bare er bruk av generativ AI i humanitære operasjoner en form for eksperimentering, men det er en risiko for at sektorens styrings- og administrasjonsstrukturer selv blir en del av denne eksperimenteringen. Dette betyr at diskusjoner om humanitær ansvarlighet ikke bare må fokusere på kontroll over teknologi, men også på hvordan AI griper inn i styringsmodeller for humanitær sektor.

Humanitære aktører har selv et ansvar for å utvikle kompetanse på dette området. Både organisasjoner og deres ansatte har et ansvar for å tenke på hvordan man kan balansere fremtidsrettet og ansvarlig bruk av AI, og å tenke på hvordan dette påvirker både humanitære operasjoner og den enkeltes daglige arbeidsliv.

Fokus på strategisk tenkning og verdier

Det mangler strategisk refleksjon rundt bruk av kunstig intelligens på det humanitære feltet, både blant givere og organisasjoner. Ingen av de store giverlandene har så langt inkludert kunstig intelligens i sine humanitære strategier. Mens dette arbeidet haster, bør myndigheter og sentrale aktører involvere humanitære organisasjoner i dette arbeidet.

Norges gjeldende humanitære strategi ble lansert i 2018 og utløper i 2023. Denne strategien er i stor grad begrenset til å observere at «Digitale fremskritt og bruk av data skaper nye utfordringer». Den neste strategien bør ha god forståelse for nasjonal KI-politikk, KI som en utenrikspolitisk utfordring, og KI som en humanitær ressurs. Samtidig må aktører på organisasjonsnivå gi rom for bred medvirkning ved utforming av sin KI-strategi. Det er ikke hensiktsmessig for enkelte IT-konsulenter å ta ansvar: Dette er prosesser som må forankres i alle ansatte.

For Norge som giverland må det være en logisk sammenheng mellom hva de geopolitiske og regionale interessene er angående KI og hvordan man ser på forsvarlig bruk og kontroll av KI på det humanitære området. Et grunnleggende spørsmål å stille er for eksempel om KI skal sees på som et fellesgode i norsk humanitær politikk.

Mens Norge er en viktig støttespiller for Allianse for digitale fellesgoderså han snakker ikke om det den norske KI-strategien fra 2020 KI som et fellesgode. Samtidig stiller vi spørsmål ved hvordan de sentrale punktene i tidligere strategier, de såkalte «norske verdiene» (rettslige verdier, sosialdemokrati, likestilling, demokrati, medvirkning, høy tillit) og «den norske modellen» (tett samarbeid mellom stat og sivil sektor) viser til KI. Er det for eksempel på tide å innta en mer kritisk tilnærming til hvordan tillit gjør tverrsektorielt samarbeid og befolkningsforvaltning enklere?

Globalt sett akselererer nå forsøkene på å kontrollere teknologiindustrien og regulere nye teknologier. Selv om denne utviklingen er ment å sette grenser for den humanitære sektorens bruk av teknologi, fratar den ikke sektoren ansvaret for selvregulering. Heller ikke regulering er det samme som strategi.

Kort sagt: en humanitær KI-strategi skal bygge gjennomtenkte balanseringstrinn og fokusere på verdier. Den kan ikke skilles fra en overnasjonal, nasjonal eller utenrikspolitisk KI-strategi. Den humanitære sektoren bør bygge på sitt mandat – å lindre menneskelig lidelse i konflikter og kriser – og sektorens kjerneverdier formulert gjennom humanitære imperativer og prinsipper: ikke skade og handle på en upartisk, ikke-diskriminerende og human måte.

Les også:

Inderen «Bill Gates»: – KI ønsker å ha mye å si for verdensutviklingen

Kennard Benson

"Kaffeguru. Musikkspesialist. Vennlig skribent. Hengiven nettentusiast. Wannabe-analytiker. Fremtidig tenåringsidol."

Legg att eit svar

Epostadressa di blir ikkje synleg. Påkravde felt er merka *