I løpet av de siste månedene har mange av oss blitt overrasket over den utrolige fremgangen tekstbaserte AI-systemer har gjort. På kafferommene hørte vi fra kolleger som brukte tjenesten til alt fra å skrive haiku-poesi til å produsere utmerket pasientinformasjon.
Denne teknologien vil mest sannsynlig spille en betydelig rolle i utviklingen av samfunnet for øvrig og vil kunne revolusjonere de fleste bransjer. Et høyaktuelt tema er derfor hvordan utviklingen påvirker utdanningen til leger og spesielt våre medisinske kurs.
Kan vi fortsette å undersøke medisinstudenter som om ingenting har skjedd?
Det er ingen overdrivelse å si at ChatGPT (pre-trained generative transformator) [1] det har tatt både internett og publikum og akademia med storm. Så hva er ChatGPT?
Grovt forenklet er det en AI-drevet språkmodell som gjennom veiledet læring og forsterket læring har lært seg å forutsi ord og ordsekvenser ved hjelp av enorme mengder skrevet tekst. Malen kan brukes til alt fra å oppsummere lengre tekststykker til – på kommando – å skrive et essay om den franske revolusjonen eller temporalis arteritis, eller forklare etiske prinsipper om prioriteringer for helsevesenet. I realiteten er det kun den menneskelige fantasien som begrenser hva modellen kan gjøre på den tekstlige måten.
Når muligheten nå finnes for – med enkle kommandoer – å overlate skrift og analytisk tenkning til en datamodell, blir det utgangspunktet for våre universitetsutdanninger (som tross alt er regulert i UH-forordningen). [2]) hvordan vi skal kunne screene elever på en rettssikker måte.
Vi er langt fra alene om å være bekymret for hvordan AI-drevne språkmodeller kan påvirke utdanningssystemet. Nylig gjorde for eksempel en historiker fra Lunds universitet oppmerksomhet på problemet i Svenska Dagbladet [3].
Siden medisinske programmer inneholder relativt mange eksamensartikler som krever fysisk tilstedeværelse, er de kanskje påvirket i mindre grad? Spørsmålet gjenstår imidlertid hvordan vi skal kunne verifisere at studentenes skriftlige oppgaver og lekseeksamener ikke er satt sammen av AI-drevne språkmodeller.
La oss se på noen mulige løsninger. En mulighet for høyere utdanningsinstitusjoner for å redusere risikoen for svindel er å gå helt over til muntlig eller veiledet eksamenselementer og fortsette med, og eventuelt bygge videre på, klasseromseksamen. Et annet alternativ er å innføre flere OSSE-undersøkelser (objektiv strukturert klinisk undersøkelse) selv for læringsaktiviteter som tidligere hovedsakelig har vært gjennomgått reflekterende essays for studenter. Eksempler på slike fagområder er medisinsk etikk og menneskerettigheter.
Teknologien har også evnen til å jobbe på flere fronter. Det finnes allerede lovende programmer som er i stand til å beregne og estimere sannsynligheten for at en tekst er generert av en kunstig intelligens eller skrevet av et menneske [4]. Imidlertid må påliteligheten til slike verktøy testes for å sikre rettssikkerhet. For eksempel bør det ikke være etter kontrollørens skjønn å bedømme en tekst som generert av kunstig intelligens uten pålitelig bevis.
Mens man venter på permanente løsninger er det viktig å lære opp akademikere, veiledere og medisinstudenter i hvordan nye AI-systemer fungerer og hvordan de kan/bør brukes. Representanter for medisinsk utdanning bør også være klar over at teknologien har evnen til å endre betingelsene for eksamen også nå og gi lærere og sensorer de riktige verktøyene.
Lakartidningen.se
«Kaffeguru. Musikkspesialist. Vennlig skribent. Hengiven nettentusiast. Wannabe-analytiker. Fremtidig tenåringsidol.»