Skrivning, læsning, tekst og refleksiv tænkning med generativ AI på humanistiske videregående uddannelser

Maja Hojer Bruun, Pædagogisk Antropologi, DPU, Aarhus Universitet Et billede, der indeholder cirkel, Grafik, Font/skrifttype, logo

Automatisk genereret beskrivelse https://orcid.org/0000-0002-9877-8800

Jakob Krause-Jensen, Pædagogisk Antropologi, DPU, Aarhus Universitet Et billede, der indeholder cirkel, Grafik, Font/skrifttype, logo

Automatisk genereret beskrivelse https://orcid.org/0000-0002-5951-0086
Cathrine Hasse, Pædagogisk Antropologi, DPU, Aarhus Universitet Et billede, der indeholder cirkel, Grafik, Font/skrifttype, logo

Automatisk genereret beskrivelse https://orcid.org/0000-0002-2525-9540

 

 

 

Abstract

Artiklen undersøger fire centrale temaer i forskningen om AI-chatbots som lærings- og undervisningsassistenter på videregående uddannelser med særligt fokus på humanistiske fag. Forfatterne påpeger, at den datalogisk orienterede AIED-litteratur ofte hviler på et kognitivistisk og individualistisk læringssyn, hvor AI-chatbots ses som en mulighed for at personalisere undervisning og effektivisere læreprocesser. Artiklen argumenterer for, at denne forskning overser betydningen af sociale og situerede læreprocesser, underviserens rolle som vidende ledsager samt forholdet mellem tekst og erkendelse. Med afsæt i en antropologisk og praksisorienteret tilgang vises det, at studerendes brug af generativ AI rejser grundlæggende spørgsmål om formålet med humanistiske uddannelser og den refleksive tænkning, der kræves for at lære i dybden. Artiklen bygger på etnografiske studier af kandidatstuderendes anvendelse af AI-chatbots i deres studiepraksis. Forfatterne konkluderer, at AI-chatbots kan være nyttige, men også indebærer risici for, at læsning og skrivning reduceres til overfladisk informationsbehandling, hvilket kan underminere kerneværdierne i humanistisk uddannelse.

Engelsk abstract

The article examines four key themes in research on AI chatbots as learning and teaching assistants in higher education, with a particular focus on the humanities. The authors critique the computer science-oriented AIED literature for often being based on a cognitivist and individualistic conception of learning in which AI chatbots are seen as tools for personalizing education and optimizing learning processes. The article argues that this research neglects the importance of social and situated learning processes, the teacher's role as a knowledgeable companion, and the relationship between text and understanding. Drawing on an anthropological and practice-oriented approach, the article reveals that students' use of generative AI raises fundamental questions about the purpose of education and the reflective thought necessary for deep learning. The article is based on ethnographic studies of graduate students' use of AI chatbots in their academic practices. The authors conclude that while AI chatbots can be helpful, they also pose risks of reducing reading and writing to superficial information processing, potentially undermining the core values of humanities education.

 

 

 


 









Indledning

ChatGPT og andre AI chatbots er ikke udviklet specifikt som læringsteknologier eller pædagogiske redskaber til uddannelse, men kan bruges til at interagere i alle mulige sammenhænge og skrive mange forskellige former for tekst. Siden OpenAI i november 2022 frigav ChatGPT har det været sparsomt med forskning i, hvordan store sprogmodeller faktisk bruges i undervisningslokaler og blandt studerende og undervisere på humanistiske videregående uddannelser (se dog fx Fyfe, 2023). Den eksisterende forskning har været optaget af, hvad teknologien isoleret betragtet kunne. Den er ofte datalogisk orienteret og går på sprogmodellernes evner til at levere sande, menneskelignende svar (se Bruun et al., 2024). Nogle kvantitative effektstudier viser tilsyneladende, at store sprogmodeller kan forbedre studerendes læringsudbytte og engagement, og at sprogmodellerne kan bidrage til at skræddersy eller personalisere deres læreprocesser gennem individuelt tilpasset feedback (fx Lu et al., 2024; Escalante et al., 2023; Gombert et al., 2024; Wambsganss et al., 2022). Men denne type forskning fortæller ikke noget om, hvordan læreprocesser foregår i praksis og indeholder heller ingen refleksion over, hvad der konkret forstås ved 'læringsudbytte'. En forskningsoversigt over store sprogmodeller og AI-chatbots på videregående uddannelser, som denne artikels forfattere udgav i december 2024 (Bruun et al., 2024), viser, at begreber som læring og pædagogik bruges i flæng uden teoretisk fundament og uden referencer til studerendes faktiske praksis og læring på videregående uddannelser eller formålet med de enkelte uddannelser.

Denne artikels forfattere, som er antropologer og forsker i anvendelsen af nye, digitale teknologier i forskellige organisationer, begyndte i foråret 2023 og studieåret 2023/24 at lave etnografiske studier, workshops og fokusgruppeinterviews med vores studerende ved kandidatuddannelsen i Pædagogisk Antropologi for at undersøge deres praktiske brug af ChatGPT og andre AI-chatbots som del af deres hverdagsliv som studerende ved Aarhus Universitet. På dette tidspunkt var ChatGPT stadig ny, og det var ikke alle studerende, som havde erfaringer med at bruge AI-chatbots, mange var usikre på deres muligheder og begrænsninger, og kun få brugte dem systematisk. Foruden den offentlige opmærksomhed, som AI-chatbots og især ChatGPT fik i denne tid, er det vores indtryk, at  tips til at bruge AI-chatbots spredtes blandt studerende fra mund til mund, og flere studerende i vores undersøgelse fremhævede, at de anvendte de nye AI-chatbots, når de læste tekster som forberedelse til undervisningen og når de skrev noter og opgaver som del af studiet.

Læsning og skrivning er helt centrale arbejdsformer, når det gælder humanistiske videregående uddannelser. Disse arbejdsformer er i forvejen formet eller medieret (Ihde, 1990) af forskellige teknologier og digitale redskaber, fra styring af eksamener til digitale læringsplatforme, internetbrowsere, bibliotekssøgemaskiner og staveprogrammer. De nye AI-teknologier spiller sammen med andre eksisterende teknologier og de sociale og kulturelle strukturer ved universiteterne og samfundet i øvrigt, og er en del af de ‘sociotekniske systemer’, som læsning og skrivning udgør (jf. Pfaffenberger, 1988). De rystelser, som AI-chatbots og generativ AI har skabt, må derfor ses i forhold til den eksisterende uddannelsestektonik.

Uanset om man som underviser ser de store sprogmodeller og AI-chatbots som muligheder eller risici,  kan man se generativ AI som en velkommen forstyrrelse af vores vaner som undervisere og de selvfølgeligheder, som vi går ud fra ved de videregående uddannelser. De nye teknologier giver os nemlig anledning til at reflektere over nogle vigtige spørgsmål:  Hvad er formålet med læsning og skrivning i undervisningen?  Hvordan bruger vi i dag digitale værktøjer og AI-chatbots til disse aktiviteter? Hvordan er det nødvendigt at gentænke eksamensformer i lyset af AI- chatbots? Og sidst men ikke mindst: Hvad er det, vi gerne vil have, at de studerende lærer på videregående, forskningsbaserede, humanistiske uddannelser og på hvilke måder befordrer eller modvirker AI-chatbots disse formål?

Denne artikel kaster lys på ovenstående overordnede spørgsmål ud fra vores analyse af etnografisk materiale fra forskningsprojektet ”Sokratisk uvidenhed i arbejdet med generative AI-chatbots” og en etnografisk undersøgelse blandt studerende ved kandidatuddannelsen i Pædagogisk Antropologi i studieåret 2023/2024.[1] I forskningsprojektet ”Sokratisk uvidenhed i arbejdet med generative AI-chatbots” (Hasse et al., 2025) undersøgte vi gennem to workshops ved kandidatuddannelsen i Pædagogisk Antropologi i maj og juni 2023 hvordan studerende i praktiske skriveøvelser arbejdede med AI-chatbots og hvordan deres forudgående læring, dvs. tolkningsrammer og kulturelle ressourcer, som de havde med sig fra fx andre uddannelseskontekster (Hasse 2015, 2020), spillede ind i deres promptning. Forskningsspørgsmålene i dette forskningsprojekt lød: "Hvordan varierer de studerendes forudgående læring deres forudsætninger for at prompte på en måde, der efterspørger relevant viden inden for deres uddannelsesmæssige kontekst?" og "Hvordan påvirker denne variation i forudgående læring de studerendes besvarelser, når de bruger henholdsvis fagrelevante tekster og/eller interagerer med ChatGPT?". I analysen af materialet fokuserer vi på de studerendes promptning og på, hvordan de studerendes skrivning ændrede sig i løbet af deres interaktion med ChatGPT under vores workshops.

Derudover omfatter denne artikel løbende observationer af de studerendes studieaktiviteter i løbet af studieåret 2023/2024 og to fokusgruppeinterview med i alt tolv studerende, som vi gennemførte i starten og slutningen af studieåret. Forskningsspørgsmålene var åbne og deskriptive: Hvordan anvender de studerende i Pædagogisk Antropologi ChatGPT og andre AI-chatbots som del af deres hverdag som studerende? Hvilke konsekvenser har deres anvendelse for læreprocesserne i forbindelse med deres studie? En stor del af vores fokusgruppeinterview og samtaler med de studerende om deres brug af ChatGPT og andre AI-chatbots i løbet af første studieår kom til at handle om at læse og tage noter til tekster, og denne artikels fokus på skrivning, læsning og refleksiv tænkning er således vokset ud af de temaer, som optog vores studerende og os i studieåret 2023/24.

Vi uddyber baggrunden og konteksten for vores empiriske undersøgelser, nemlig reglerne for brugen af generativ AI ved Aarhus Universitet og formålet med kandidatuddannelsen i Pædagogisk Antropologi, samt metoderne for vores undersøgelse og karakteren af vores empiriske materiale i denne artikels andet afsnit. Artiklen starter med en redegørelse og diskussion af fire temaer i den eksisterende forskningslitteratur om AI-chatbots, som vi har gennemgået i en forskningsoversigt om AI-chatbots ved videregående uddannelser (Bruun et al., 2024). Disse fire udvalgte temaer – kognitiv læring, individualiseret læring, fraværet af undervisere samt forholdet mellem tekst og erkendelse – informerer den efterfølgende analyse og diskussion af vores udvalgte empiriske materiale. Inden vi går i dybden med analysen og diskussionen af vores empiriske materiale, gør vi rede for vores fokus på begreber som redskaber til refleksiv tænkning, hvilket er en faglig praksis, som de studerende opøver gennem deres kandidatuddannelse i Pædagogisk Antropologi. Efter en diskussion af de studerendes forskellige måder at anvende AI-chatbots, herunder af deres forsøg på at ”spare tid” i en accelereret verden, af underviseres rolle som vejledere og lærere samt af forholdet mellem tekst og tænkning, slutter vi af med at konkludere, at det kræver tid til kritisk refleksiv tænkning og faglig dialog mellem studerende og undervisere, hvis AI-chatbots skal kunne bidrage positivt som læremidler ved humanistiske videregående uddannelser.

Fire temaer i forskningen i AI-chatbots som lærings- og undervisningsassistenter

I vores forskningsoversigt om store sprogmodeller og AI-chatbots’ indflydelse på videregående humanistiske og samfundsvidenskabelige uddannelser (Bruun et al., 2024) ser vi et massivt fokus på, at de tekniske videnskaber arbejder på at udvikle nye lærer-bots, der kan erstatte eller samarbejde med lærere ved højere uddannelsesinstitutioner. Denne forskning i generativ AI tager udgangspunkt i en lang tradition for at udvikle maskiner, der kan erstatte mennesker ved at kopiere deres måder at kommunikere på. Dette rejser spørgsmålet, om vi overhovedet behøver undervisere ved de videregående uddannelser

I 1950 formulerede den britiske matematiker Alan Turing (1912-1954) ambitionen om at skabe en maskine, som et menneske kan kommunikere med uden at opdage, at der er tale om en (intelligent) maskine, og lige siden har dette været en ambition for forskningen i kunstig intelligens (Turing, 1950). I 1966 udgav MIT den første chatbot, ELIZA, som var i stand til at behandle naturligt sprog, som et menneske indtastede på computeren (Weizenbaum, 1966). Ved brug af sprogteknologi (på engelsk: natural language processing, NLP), mønstergenkendelse og regelbaserede scripts kunne ELIZA ”svare” personen og simulere en samtale. Inden længe blev denne type chatbot-teknologi også brugt i forbindelse med uddannelse, og siden 1970erne er der udviklet mange forskellige intelligente tutorsystemer (ITS) til forskellige uddannelser. Vi er i vores forskningsoversigt stødt på betegnelser som Teacher-bot (T-bots), Intelligent Tutoring Robot (ITR), Conversation Agent (CA) og Virtual Teaching Assistant (VTA) foruden Intelligent Tutoring Systems (ITS), fx AutoTutor (Nye et al., 2014; Graesser, 2016), for blot at nævne nogle. Disse forskellige intelligente tutorsystemer bygger på den retning inden for AI-forskning, som kaldes regelbaseret eller symbolsk AI, mens ChatGPT anvender generativ AI og den såkaldte transformer-arkitektur (Vaswani et al. 2017), som bygger på subsymbolsk AI, også kaldet machine learning eller neurale netværk (se fx Strümke, 2023 for en oversigt over forskellige retninger inden for forskning i AI). De AI-chatbots med generativ AI, som vi ser i dag, har en interessant dobbelt relation til uddannelsesområdet. De er på den ene side ikke specifikt udviklet til undervisningsbrug, men er generelle store sprogmodeller, som er blevet lettilgængelige for studerende i vores del af verden og dermed også bruges i undervisningssammenhænge. På den anden side bygger de på sprogteknologi (NLP), som har en historisk forbindelse til tidligere AI-systemer, der netop blev udviklet som undervisningsassistenter.

Når studerende anvender AI-chatbots med store sprogmodeller, rejser det en hel række af grundlæggende spørgsmål om, hvad en studerende og en underviser er, og hvad der er formålet med den enkelte videregående uddannelse. I det følgende afsnit gennemgår vi fire karakteristiske temaer i den ofte datalogisk orienterede AIED-forskningslitteratur[2] om AI-chatbots, som rejser spørgsmål i forhold til undervisningspraksis på videregående uddannelser og hvor vores antropologiske, praksisorienterede tilgang udgør et alternativ: For det første er en stor del af litteraturen kendetegnet ved en kognitivistisk tilgang til læring som en form for informationsbehandling, mens vi foreslår et socialt, praksis- og situationsorienteret læringsbegreb. For det andet bygger forskningen i anvendelsen af AI-chatbots til videregående uddannelser  på et individualistisk læringsbegreb og er mestendels udviklet til at understøtte individuelle aktiviteter frem for samarbejde, som vi argumenterer for er en essentiel del af en vellykket uddannelse. For det tredje er underviseren i dette billede af læring med AI-chatbots ikke indtænkt. Med inspiration fra de pædagogiske filosoffer Biesta (2013) og Ranciére (1991 [1987]) fremhæver vi underviserens rolle som et helt centralt element i læring og uddannelse. For det fjerde rejser brugen af generativ AI spørgsmål om forholdet mellem tekst og erkendelse, og hvordan vi i fremtiden skal forholde os til de studerendes tekster og måske i det hele taget til den mængde af tekst, som ved hjælp af AI kan produceres med stor fart og i stort omfang.

Kognitivistisk vs. socialt situeret læring

I meget af litteraturen om kunstig intelligens ligger nogle bestemte kognitivistiske antagelser om læring som en form for informationsbehandling (Bruun et al., 2024; Doroudi 2022). Det antages, at menneskehjernen og computeren fungerer på nogenlunde samme måde – selvom denne antagelse er blevet tilbagevist af både kognitive psykologer (se fx Epstein, 2016), af filosoffer (fx Dreyfus, 1972) og af antropologer som Lucy Suchman (1987) og Jean Lave (Lave & Wenger, 1991) i kølvandet den sidste bølge af forskning i kunstig intelligens. De pegede på, at når vi lærer, sker det i sociale processer og i praktiske situationer. Dette gælder vel at mærke ikke kun, når studerende er ’i praktik’ eller anvender deres viden i hverdagslivet, men i alle mulige læringssituationer, også dem som foregår på universitetet. Læreprocesser sker langsomt og udvikler sig både gennem samtaler med medstuderende og undervisere, og når en studerende kæmper for at forstå en tekst og på mange andre måder. Læring er ikke en entydig proces, der kan sættes på formel (se fx Jarvis, 2006). Traditionelt ser AIED-forskningen derimod læring som individuel informationsbehandling. Den antropologiske/praksisorienterede tilgang betoner i stedet de sociale og situerede dimensioner af læring.

Individualiseret vs. kollaborativt læringssyn

Mange AI-læringssystemer er designet til at understøtte selvreguleret, individualiseret læring. I AIED-litteraturen fremhæves det ofte, at uddannelse med AI kan personaliseres og tilpasses stort set alle formål (fx Albdrani  & Al-Shargabi, 2023; Kaiss et al., 2023). Vores forsøg med de studerende med ChatGPT (se også Hasse et al., 2025) tyder dog på, at den såkaldt ’personlige’ tilpasning let kommer til at undervurdere eller helt ignorere, at en afgørende del af uddannelsen finder sted i en lokal og social kontekst. Den ‘personaliserede’ læring, som fremhæves som AI-chatbotters force, implicerer derimod et individualiseret læringsyn og er designet til at understøtte individuelle aktiviteter frem for samarbejde (Selwyn, 2014). Vores forskningsoversigt (Bruun et al., 2024) viser tilsvarende, at forskningen i AI-chatbots til videregående uddannelser typisk behandler læring som en individuel, mental proces og ignorerer studerendes sociale og fysiske omgivelser.  Denne opfattelse af pædagogik står i modsætning til en dansk og nordisk uddannelsestradition, der bygger på samarbejde og fællesskab i klasser, på hold og i studiegrupper.

Underviserens oversete rolle

AI-chatbots fremstilles ofte som erstatning for (eller supplement til) underviseren. En stor del af AIED-forskningen tager udgangspunkt i de studerendes muligheder for selv-reguleret læring, hvor de studerende selv kan anvende AI til at tilrettelægge deres læreprocesser og uddannelsesforløb (Bruun et al., 2024). Det vil sige, at underviserens rolle minimeres eller tages helt ud af ligningen. Igen står dette i modsætning til den form for digital pædagogik, som er udviklet i Danmark og internationalt (se fx Hansen & Nørgaard, 2022), hvor undervisere indgår i en refleksiv praksis sammen med de studerende om, hvordan undervisning og læring foregår.

De forskellige forsøg på at skabe selv-reguleret læring og erstatningsundervisning med AI overser og undervurderer, hvad underviseres egentlige arbejde går ud på. Mange effektstudier (fx Bhutoria, 2022) ser AI-teknologier som en mulighed for at fjerne de trivielle eller rutineprægede aspekter af underviseres arbejde, men vi har ikke læst nogle studier, som undersøger, hvad undervisere i realiteten bruger deres tid på og finder meningsfuldt; hvad der i praksis er trivielt eller opfattes som rutinepræget; eller hvordan de enkelte arbejdsopgaver (fx bedømmelse af opgaver) indgår i de studerendes uddannelse samlet set (Selwyn, 2019). Dette manglende realistiske helhedsbillede er værd at have med i baghovedet, når teknologiudviklere og forskningsrapporter (fx Teutloff et al., 2024) fremhæver, at der er store rationaliserings- og besparelsesmuligheder ved at lade AI supplere eller erstatte undervisere. Set fra et pædagogisk antropologisk perspektiv er underviserens aktive, vidende ledsagelse afgørende for refleksiv tænkning.

Den datalogisk orienterede forskningslitteratur forsvarer ofte erstatning eller supplering af undervisere og vejledere med AI-systemer med henvisning til et ”konstruktivistisk læringsparadigme”, hvor fokus er på den enkelte studerendes læring, og både undervisere og AI gestaltes som facilitatorer. "Det konstruktivistiske læringsparadigme" anvendes i denne datalogisk orienterede litteratur ofte meget forenklet og instrumentalistisk til at forsvare og udbrede brugen af AI (fx Gibson et al., 2023; Kim & Adlof, 2024). Heroverfor vil vi gerne fremhæve, at der findes mange varianter af konstruktivisme inden for læringsteori og at nogle af de mest anerkendte og indflydelsesrige konstruktivistiske læringsteorier, såsom situeret læring (Lave & Wenger, 1991) og læring i praksisfællesskaber (Wenger, 1998) opstod som en kritik af AI-forskningen i 1980’erne og 1990’erne. Sims (2022) beretter dog om, hvordan disse læringsteoriers kritiske potentiale siden 2000’erne er blevet absorberet, instrumentaliseret og omformet i opbygningen af nye, digitale uddannelsessystemer.

Den pædagogiske filosof Biesta kritiserer denne form for instrumentalistisk fokus på læring, når han skriver:  

“the presence of a teacher [is essential for education], not just as a fellow learner or a facilitator of learning, but as someone who, in the most general terms, has to bring something to the educational situation that was not there already” (Biesta, 2013, s. 6).

Med andre ord mener han, at det, at en lærer bringer noget nyt og udefrakommende ind i en situation, udgør essensen af at lære nogen noget, og at denne underviserrolle undervurderes.

Vi har her at gøre med en anden lærerrolle end den autoritære, som ofte er blevet kritiseret, og hvor læreren skal forestille at være en autoritet, der transmitterer doksisk viden til sine elever (Ranciére, 1991 [1987]). I det kulturelle billede af den ideelle underviser i en nutidig, nordisk sammenhæng kan underviseren ses som en vidende ledsager i en lokaliseret og kontekstafhængig udforskningsproces sammen med de studerende (Ingold, 2018). At menneske-undervisere og egentlige lærere i Ranciéres og Biestas forstand overses i den eksisterende litteratur om intelligente undervisningsassistenter kan blandt andet skyldes, at de dataloger, ingeniører eller andre teknikere, som udvikler digitale uddannelsesteknologier, mangler indsigt i pædagogisk forskning og forståelse for forskellige kulturelle uddannelsespraksisser – og at de tager udgangspunkt i deres egne uddannelsesmæssige tekniske eller naturvidenskabelige undervisningssystemer, fx i USA eller Kina, hvor meget af forskningslitteraturen om AI hidrører fra.

Forholdet mellem tekst og erkendelse

Et fjerde tema, som vi har observeret i forskningslitteraturen, og som vi diskuterer i forhold til vores egne empiriske fund i denne artikel, er forholdet mellem tekst og erkendelse. Rent teknisk er det et stort gennembrud for udviklerne af store sprogmodeller, at AI-chatbots kan skabe tekst, der i sætningsopbygning, sproglig mangfoldighed og sammenhæng til forveksling ligner noget, et menneske kunne have skrevet (se fx Nkhobo & Chakas, 2023).  Men selvom AI-chatbots producerer tekster med stedordene jeg, mig og min og efterligner menneskelige svar- og høflighedsformer, er der i sagens natur ikke tale om nogen selv-refleksivitet, og teksterne afspejler ingen form for forståelse eller indsigt, idet teksten er skabt af AI (Loos et al., 2023). Dette betyder, at vi ikke nødvendigvis kan tage tekst som vidnesbyrd om læring og erkendelse, især ikke hvis passager kan være overtaget direkte fra AI-chatbots. Når en studerende afleverer en eksamensopgave eller anden form for tekst, er vi nu blevet endnu mere usikre på, hvordan denne tekst er blevet til, og hvilke læreprocesser, den studerende har været igennem.

På et andet plan rejser de store sprogmodeller spørgsmål om, hvilken status ’tekst’ i det hele taget har i forhold til tilegnelse af viden. Vores bekymring går mere konkret på sammenhængen mellem det at lære at skrive og det at lære at tænke.  Det at skrive handler ofte ikke i første omgang om at kommunikere, men om at forme og strukturere ideer. Som Howard og Barton formulerer det i bogen Thinking on Paper (1986, s. 13): ‘The first goal of writing, like reading, is to understand’ . Og det er i sagens natur en langsom proces, der kræver disciplin og tålmodighed. AI-genererede tekster mangler menneskelig selvrefleksion og kan give en illusion af forståelse. I humanistiske fag er selve skabelsen af tekst og den studerendes egen skriveproces centrale for dybt integreret forståelse og kritisk refleksion, som er nøglen i disse uddannelser.

Den eksisterende forskningslitteratur om AI-chatbots rejser således en række spørgsmål fra de humanistiske videnskabers perspektiv, som vi vil bruge til at diskutere vores undersøgelser af, hvordan de studerende anvender generativ AI. Det følgende afsnit giver indblik i konteksten og metoderne for vores undersøgelser.

Baggrund og metode: anvendelsen af generativ AI blandt studerende ved kandidatuddannelsen i Pædagogisk Antropologi

I sommeren 2023 forbød danske universiteter brugen af AI-chatbots til eksamen, medmindre det var specifikt tilladt i undervisningsmodulet. Dette skyldtes primært bekymring for eksamenssnyd. Ca. et halvt år senere i januar 2024 anbefalede en arbejdsgruppe ved Aarhus Universitet at tillade brug af chatbots i bachelor- og specialeopgaver med krav om deklarering af AI-brug. Begrundelsen var blandt andet, at et forbud var nytteløst, fordi det ikke var muligt at detektere AI-genereret tekst effektivt. I august 2024 blev AI-chatbots tilladt i alle uddannelsesmoduler ved Aarhus Universitet, medmindre andet var specificeret. Universitetet udgav samtidig retningslinjer for brugen af AI i studierne og krav om, at brug af AI til eksamensopgaver ledsages af skriftlige selv-deklarationer, men der mangler fortsat undersøgelser af den konkrete anvendelse samt vejledning til eksaminatorer og censorer om bedømmelse af opgaver med AI-genereret indhold.

Undersøgelser fra forskellige universiteter andre steder i verden viser, at mange studerende er usikre på de regler, som gælder for anvendelsen af store sprogmodeller (Malmström et al., 2023; Sobo et al., 2024), og at de studerende er bange for, at de uden at vide det kommer til at bryde reglerne for akademisk integritet, fordi retningslinjerne er så uklare (Hammond, 2023). I vores undersøgelse forholder vi os ikke til spørgsmål om eksamenssnyd og anvendelse af generativ AI i forbindelse med eksamen. Vores interesse ligger i at undersøge brugen af AI-chatbots som del af de studerendes studiepraksis. Dette understregede vi også over for de deltagende studerende, så de ikke skulle frygte, at det, de fortalte os, skulle blive brugt imod dem, fx ved at anklage dem for eksamenssnyd. Vi lovede vores deltagere, at de ville blive pseudonymiseret— alene af den grund, at vi alle var usikre på, hvad der er legitim og illegitim brug af AI-chatbots.

Det er kendetegnende for de to årgange af studerende, som denne artikel handler om, at de allerede havde påbegyndt deres studier, da ChatGPT blev frigivet. I fremtiden vil vi møde studerende, som har arbejdet med chatbots i grund- og gymnasieskolen, og som allerede har udviklet studieteknikker og fortrolighed i at arbejde med chatbots, længe før de starter på deres videregående uddannelse. For at få viden om de studerendes brug af AI-chatbots i praksis, igangsatte vi i 2023 forskningsprojektet ”Sokratisk uvidenhed i arbejdet med generative AI-chatbots” og en etnografisk undersøgelse af vores studerende på kandidatuddannelsen i Pædagogisk Antropologi med to fokusgruppeinterview i det akademiske år 2023-2024.

I regi af  forskningsprojektet ”Sokratisk uvidenhed i arbejdet med generative AI-chatbots” (Hasse et al., 2025) arrangerede Hasse og Bruun i forsommeren 2023 to workshops om skrivning med og uden brug af ChatGPT. Vores tilgang var etnografiske praksisstudier (se bl.a. Suchman, 1987; Lave og Wenger, 1991), hvor viden og læring opstår gennem praktisk deltagelse (Hasse, 2015; Ingold, 2018).  For at studere den viden og læring, der opstod i praksis, lavede vi et undersøgelsesdesign specielt fremstillet med henblik på at afdække den proces, det er at bruge ChatGPT med et konkret formål - som at udforske et spørgsmål.  

Projektet tog sit teoretiske udgangspunkt i, at studerende tilegner sig ny viden ud fra deres eksisterende kulturelle ressourcer, tolkningsrammer og forudgående læring (Hasse, 2002). I to heldagsworkshops blev 11 deltagere bedt om at skrive korte essays ud fra spørgsmålene "Hvad er uddannelse?" og "Hvad er læring?" i flere faser. Først fik de studerende 5 minutter til at besvare spørgsmålet ”Hvad er uddannelse?''  ved en fri skriveøvelse uden brug af hjælpemidler. Formålet med denne fremgangsmåde var at udforske, hvilke kulturelle ressourcer og tolkningsrammer de studerende havde med sig ind i situationen uden hjælpemidler. I næste fase blev de studerende delt i to hold. Det ene hold fik en halv time til at uddybe besvarelsen ved at chatte med ChatGPT, hvor vi senere kunne analysere deres prompthistorik. Det andet hold fik en halv time til at uddybe deres besvarelser ved at konsultere en fagrelevant tekst på tre sider. Herefter skrev de studerende en revideret besvarelse på spørgsmålet 'Hvad er uddannelse?''. Formålet var at se forskellen på den frie skriveøvelse og den besvarelse, der enten var hjulpet på vej af en fagrelevant tekst eller fri leg med ChatGPT. I næste fase byttede vi om på holdene, så de studerende, der kun havde haft adgang til en tekst, nu også fik adgang til ChatGPT, og de studerende, der kun havde haft adgang til ChatGPT, fik adgang til en tekst. Om eftermiddagen på de to workshops gentog vi denne procedure ud fra spørgsmålet ”Hvad er læring?”. Endelig er det væsentligt at nævne, at både formiddagens og eftermiddagens skriveøvelser blev fulgt af et fokusgruppeinterview med alle deltagerne umiddelbart efter skrivesessionerne. I disse fokusgruppeinterview spurgte vi ind til processen og forskellen på deres forskellige svar fra de første fem linjer til den endelige besvarelse (se mere om metoden og overvejelserne bag den i Hasse et al., 2025).

Det særlige ved metoden i forskningsprojektet ”Sokratisk uvidenhed i arbejdet med generative AI-chatbots” var, at vi selv var til stede i hele processen. Denne deltagelse gjorde det muligt at lave særligt indsigtsfulde efterfølgende interviews med de studerende om deres arbejdsprocesser med ChatGPT, og ydermere at vi også fik et stort skriftligt materiale, dels i form af de studerendes skrevne essays, og dels i form af deres prompthistorik, som vi ligeledes kunne forstå ud fra vores egen tilstedeværelse og observationer af arbejdet med at producere disse prompts. Vores indholdsanalyse af de studerendes essays og prompthistorik viste, at de studerendes skrivning ændrede sig, efterhånden som de interagerede med ChatGPT.  Vi kunne sammenligne dette med vores viden om de studerendes baggrund og erfaring, som vi fik gennem interviews i workshoppene og fra vores almindelige undervisning. En af konklusionerne i undersøgelsen var, at de studerendes forudgående læring spiller en stor rolle, når de enten udfordrede eller overtog de tolkningsrammer, som lå i ChatGPTs svar (Hasse et al., 2025). Den del af de kandidatstuderende, som havde en uddannelsesbaggrund som lærere, var kritiske over for ChatGPTs snævre fokus på arbejdsmarkedet i dens beskrivelser af uddannelse. De forsøgte at få ChatGPT til at skrive om deres egen forståelse af dannelse, men det var svært. Når vi sammenholdt de studerendes prompts med det, som de fortalte os i interviews, var der stor forskel på, om de studerende anvendte ChatGPT inden for et område, hvor de havde viden og erfaring (fx på baggrund af tidligere uddannelse- eller arbejdserfaring som lærere), eller på områder, som de kun havde mindre viden om i forvejen, og hvor de derfor heller ikke havde nogen sikker fornemmelse for helheden af vidensområdet.

Den anden empiriske og etnografiske undersøgelse, som denne artikel bygger på, udspringer af, at Bruun og Krause-Jensen i det akademiske år 2023/2024 underviste de studerende på første år af kandidatuddannelsen i Pædagogisk Antropologi i flere moduler, herunder underviste Bruun sammen med ph.d.-studerende Thea Engstrøm Vejlin et valgfag i Teknologi og Digital Antropologi, hvor de studerende også diskuterede deres brug af ChatGPT og andre AI-chatbots. Bruun og Krause-Jensen afholdt desuden to fokusgruppeinterview med studerende fra uddannelsen, hhv. i september 2023 (seks deltagere) og juni 2024 (seks deltagere, i denne fokusgruppe deltog også den ph.d.-studerende, som var medunderviser). Alle studerende fra årgangen bestående af ca. 60 studerende blev inviteret til de to fokusgruppeinterview. Ud over transskriberede lydoptagelser fra de to fokusgrupper på hhv. en time og to og en halv time har i alt ni studerende sendt os uddrag af deres prompthistorik samt skærmbilleder fra deres brug af forskellige apps og hjemmesider i løbet af studieåret. En kvalitativ indholdsanalyse af dette skriftlige materiale har givet os indblik i de studerendes interaktioner med AI-chatbots, som supplerer det, de har fortalt i fokusgruppeinterviewet og som del af undervisningen. De deltagende studerende er ikke repræsentative for kandidatstuderende ved humanistiske uddannelser, og vores fund kan ikke generaliseres som sådan. Ikke desto mindre kan vores undersøgelse bruges til at diskutere vigtige spørgsmål om, hvordan de studerendes arbejde med AI-chatbots kan indgå i videregående uddannelser, og hvilke problemer der kan være forbundet med det.

Vores vurdering er, at deltagerne i vores fokusgruppeinterview hører til den aktive og engagerede del af de studerende, som bruger meget tid på deres uddannelse, og som reflekterer over deres brug af AI-chatbots. Deltagerne indikerede dog også, at mængden af tid og energi, som de brugte på studiet, varierede, og at de i "tidspressede perioder" brugte AI-chatbots til at klare studieforberedelserne med en mindre arbejdsindsats. Det, at de studerende bruger ChatGPT og lignende programmer til at spare tid, er blevet et hovedopmærksomhedspunkt i vores analyse.

Pædagogisk Antropologi går som fag ud på, at

”belyse pædagogiske forhold gennem en udforskning af konkrete menneskers handlinger, opfattelser og samspil med hinanden og de materielle, ideologiske, sociale og kulturelle sammenhænge, de indgår i” (Gulløv, Nielsen & Winther, 2017, s. 7).

På kandidatuddannelsens første semester introduceres de studerende til fagets kernebegreber og teorier gennem holdundervisning, hvor klassiske og nyere tekster inden for Pædagogisk Antropologi læses og diskuteres. Desuden lærer de studerende at anvende teoretiske begreber til at lave empiriske analyser, ofte på baggrund af etnografiske tekster. På andet semester skal de studerende som del af undervisningen i etnografisk metode designe og planlægge et selvvalgt etnografisk feltarbejde, som de gennemfører på tredje semester. Specialet på fjerde semester skrives på baggrund af det empiriske materiale fra dette feltarbejde. En kandidat i Pædagogisk Antropologi forventes ifølge studieordningen at blive i stand til at "igangsætte og gennemføre kvalitative undersøgelser i pædagogiske og tværfaglige sammenhænge" og "analysere hverdagsliv i formelle såvel som uformelle institutioner".

De studerende læser antropologiske teorier og analyser for at kunne anvende dem aktivt. Målet er, at de kan reflektere over og undersøge pædagogiske forhold med en antropologisk tilgang, ikke at de skal kunne teorierne udenad. I begge undersøgelser havde vi et fokus på de studerendes forståelse og anvendelse af teoretiske begreber i hhv. deres skrivning om ’uddannelse’ og ’læring’ og i deres læsning af undervisningslitteraturen. I næste afsnit gør vi derfor rede for, hvad vi mener med refleksiv tænkning, og hvordan vi mener, at de studerendes nysgerrighed, dvælen ved og forbløffelse over begreber, som de møder i verden og i faglige tekster, kan øve dem i refleksiv tænkning.

Begreber som redskaber til refleksiv tænkning

Refleksiv tænkning er konstitueret af ”en aktiv, vedholdende og omhyggelig overvejelse af enhver opfattelse eller formodet form for viden i lyset af de grunde, der støtter den, og de videre konklusioner, den fører til" (Dewey, 2009 [1915], s. 17 ff.). Refleksiv tænkning er ifølge den amerikanske filosof Dewey altid besværlig og vanskelig, fordi man skal overkomme utålmodighed eller fristelse til dovenskab, som ligger i at tage de første tanker og indskydelser for pålydende, men i stedet dvæle i usikkerheden (Dewey, 2009 [1915], s. 23). Den refleksive tænkning repræsenterer således en form for pinefuld udsættelse af ens bedømmelser og vurderinger, fordi man må blive ved med at undersøge, udforske og udfordre betydningers og vidensformers grundantagelser. Dewey nævner tre "ressourcer" til at øve refleksiv tænkning: nysgerrighed, evnen til at fremkalde tanker og ideer i os selv samt orden, som måske først og fremmest skal ses som sansen for at ordne, strukturere, sortere, kategorisere og koncentrere stof.

Mange af de kandidatstuderende ved Pædagogisk Antropologi kommer med forskellige professionsbachelorstudier som baggrund (hovedsageligt pædagog, lærer, socialrådgiver eller sygeplejerske, men også andre), og for dem repræsenterer en kandidatuddannelse ved universitetet en anderledes refleksiv tænkning og dvælen ved usikkerhed og ubestemmelighed. Som en studerende med uddannelsesbaggrund som socialrådgiver udtrykte det:

”Det var i januar 2022, at jeg blev færdig, så det er heller ikke, fordi det er mange år siden. Men de fagbøger er meget mere konkrete… Paragraf det og det, i dén her lovgivning siger noget om dét her. Fint opslagsværk. Sådan der. Det er det, jeg skal overholde. Altså, det var meget mere konkret, og det var alt sammen på dansk og letlæseligt. Så alle kunne være med. Og det her [underforstået: Pædagogisk Antropologi] er et helt andet fagligt niveau.”

Den danske antropolog Kirsten Hastrup har engang defineret faget antropologi som ’professionel forbløffelse’ i den forstand, at antropologien ved at undersøge fremmede livsformer leverer stof til en systematisk refleksion over egne kulturelle selvfølgeligheder, som det ellers kan være svært at få øje på (Hastrup, 1992, s. 8). I forhold til vores uddannelse i Pædagogisk Antropologi, hvor de studerende ofte har en professionsbaggrund, har beskrivelsen af kernen i uddannelsen som ’professionel forbløffelse’ den dobbelte pointe, at det ofte netop er de studerendes profession, som de skal bringes til at reflektere over og anskue fra nye perspektiver (Krause-Jensen, 2009).  Som det antydes ovenfor, er det ikke let at tilegne sig denne evne til at tænke analytisk og refleksivt på sin egen praksis. Det tager tid og kræver tålmodighed.  I det første studieår lærer de studerende at tænke refleksivt gennem mødet med antropologiske, humanistiske og samfundsvidenskabelige tekster. De tilegner sig analytiske begreber, som bliver deres værktøjer til at få nyt perspektiv på det pædagogiske felt. Det er derfor ikke tilfældigt, at vores workshops om skrivning med generativ AI i forskningsprojektet ”Sokratisk uvidenhed i arbejdet med generative AI-chatbots” tog udgangspunkt i faglige begreber, og at analysen af fokusgruppediskussionerne med de studerende også viser, at de bruger AI-chatbots, når de forsøger at forstå de begreber, som de møder i pensum og andre fagtekster.  I næste afsnit vil vi beskrive og analysere de aktiviteter, som deltagerne i vores undersøgelse brugte AI-chatbots  til.

Analyse: nye tider for læsning og skrivning

Vores samtaler med de studerende afspejlede, at de brugte AI-chatbots på mange forskellige måder. Først og fremmest brugte de studerende på første studieår ChatGPT og andre AI-chatbots til at læse og forstå teksterne fra pensum og tage noter til dem. Mange fortalte, at de brugte AI-chatbots til at få forklaringer på udvalgte begreber, til oversættelse af vanskelige ord og tekstpassager fra engelsk til dansk, til litteratursøgning og til omformulering af egen tekst eller 'sparring', når de skrev tekster og noter. Læsning og skrivning er nært forbundet, fordi de studerende som del af deres læsning tager noter, og de vender tilbage til disse noter som ressource til senere analyser og opgaveskrivning.

En studerende nævnte under det ene fokusgruppeinterview, at hun brugte ChatGPT til ‘faktatjek’, i dette tilfælde om en forfatters biografiske data. Hun blev dog mødt med skepsis af sine medstuderende, som påpegede, at ChatGPT netop kan have fejl i fakta, som man derfor må tjekke andre steder. På det tidspunkt havde der i et stykke tid i den offentlige debat i Danmark været fokus på sprogmodellernes ‘hallucinering’ og det afpejlede sig tydeligt i vores studerendes skepsis over for de ‘fakta’, som chatbotten serverede. Derudover var der også en klar forståelse af, at arbejdet med at læse og skrive tekster og forstå begreber ikke handlede om ‘fakta’.  I stedet drejede det sig om at forstå begreberne i deres historiske og teoretiske kontekst,  at se hvordan de bruges forskelligt af forskellige forfattere, og at vurdere hvordan de kan bruges til at analysere og reflektere over empirisk materiale.

ChatGPT til litteratursøgning er særligt relevant i den fase af studiet, hvor de studerende selvstændigt skal udarbejde en projektbeskrivelse til deres etnografiske feltarbejde. Under det andet fokusgruppeinterview fortalte en studerende om sin iterative søgeproces:

Så spørger jeg, “Hvad hedder Judith Butlers teorier om performance på engelsk?” Og det er sådan for at finde ud af, hvad jeg skal søge på. ’Performance’? Nej… 'Theory of performativity.’ Så det er sådan lidt vigtigt at søge med den rigtige måde at bruge begrebet på. Nu kom jeg så til… “Hvem har skrevet noget om sprog og performativitet?”.  Så kommer der en liste, og på den liste står Mary Bucholtz og Kira Hall. Ah! det har jeg læst noget om.. – Tilbage i Brightspace og kigge på teksterne… ’Der var det!’”

Underviser: ”Jeg bliver nysgerrig på noget: Vil man ikke kunne det samme inde på biblioteket?”

Studerende: ”Jo, det ved jeg bare ikke, hvordan man gør.

De studerende havde alle haft et litteratursøgningskursus ved det Kongelige Bibliotek, men de fortalte, at kurset var kort, og at de oplevede litteratursøgning via bibliotekets databaser som 'kompleks', bl.a. fordi en effektiv søgning kræver, at man behersker et programmeringslignende sprog af ’boolean operators’ (’and’, ’or’, ’not’, * etc.). Nogle af de studerende fandt derfor, at ChatGPT var lettere at gå til, når de skulle søge litteratur.

Enkelte studerende fortalte om, hvordan de i deres skriveproces brugte ChatGPT til at omformulere og især at forenkle afsnit, som de havde skrevet, hvor de eksempelvis ”havde brugt enormt mange ord til at forklare noget meget simpelt". ChatGPT kunne så "få det cuttet ned på en eller anden måde, som jeg ikke selv er kommet frem til". Spørgsmålet er, om denne måde at bruge AI-chatbots på er en genvej til forståelse eller netop frarøver de studerende muligheden for at gå igennem en vigtig erkendelsesproces. Hvis de studerende arbejder med deres tekster og skrivning, kan der komme en god form for refleksiv tænkning ud af interaktionerne med AI-chatbots, men det kræver et bevidst arbejde med teksterne fra de studerendes side.

Én studerende fortalte, at hun havde prøvet at prompte ChatGPT med læringsmålene for det modul, som hun var ved at skrive en opgave til, for at sikre, at hun i den afleverede tekst levede op til modulets færdighedskrav. Dette fortæller os noget om, at vi med de meget tydelige kompetence- og færdighedskrav i uddannelsernes studieordninger godt nok har gjort det transparent, hvad vi mener, at de studerende skal lære ud fra abstrakte termer og på et overordnet niveau, men vi har samtidig leveret en formel for, hvordan tekst til eksamensopgaver kan promptes og indleveres uden at vi kan være sikre på, at teksten ledsages af forståelse og refleksiv tænkning. Her kan AI-chatbots komme til at understøtte den form for skematisk tænkning og instrumentalisering, som modsiger de dybere intentioner med forskningsbaseret undervisning. Videregående uddannelsers formål indfris ikke ved, at eksamensopgaver afleveres, hvor teksten korresponderer med nogle abtrakte læringsmål, som bedømmere kan krydse af; de studerende skal lære at mobilisere en faglig nysgerrighed og tilegne sig begreber og metoder til at ordne deres tanker og fremkalde nye. 

De studerende berettede, at de ofte brugte ChatGPT og andre AI-apps (fx ChatPDF) til at forstå de tekster, som de skulle læse til de enkelte undervisningsgange. I fokusgruppeinterviewet i slutningen af første studieår udspandt der sig en interessant diskussion om anvendelsen af ChatPDF, som viste sig at være et hyppigt anvendt program blandt de studerende. ChatPDF er et online-program, udviklet af en tysk IT-entreprenør, hvor man kan uploade PDF-filer og stille spørgsmål til dem. ChatPDF brugte på dette tidspunkt sprogmodellen GPT3.5 og gav brugere adgang til at behandle to PDF-filer om dagen gratis. Når de studerende havde uploadet en PDF i programmet, leverede ChatPDF en kort opsummering af, hvad teksten handlede om og formulerede tre spørgsmål til teksten. I de eksempler, som vi har modtaget fra de studerende, kan vi se, at disse spørgsmål går på teksternes centrale begreber og overordnede bidrag, fx spørgsmål om magt, subjektivering og samfundsstrukturer i Foucaults berømte essay fra 1982 The Subject and Power, som var en del af pensum.

Flere studerende fortalte, at de ikke var vant til at læse engelske, akademiske tekster, og de brugte ChatGPT og ChatPDF til at få korte resuméer på dansk, som pegede dem i retning af teksternes overordnede temaer og centrale begreber og dermed kunne fungere som en støtte og en motivation til at få læst. Underviserne ved kandidatuddannelsen i Pædagogisk Antropologi sender forud for undervisningen ofte en række læsestrategiske spørgsmål til de studerende, som kan guide dem i deres læsning af svære tekster, og som de studerende generelt finder hjælpsomme (Krause-Jensen, 2009, s. 21). ChatPDFs spørgsmål kan til en vis grad minde om disse spørgsmål. Som tidligere beskrevet ligger der i udviklingen af AI-undervisningsassistenter en idé om, at uddannelse kan bestå af studerendes selv-regulerede læring og interaktion med AI, hvor der ikke er behov for undervisere. Det er derfor interessant at sammenligne den form for sammenfatninger og spørgsmål til pensum, som undervisere giver de studerende i løbet af undervisningen eller som i dette tilfælde gennem læsestrategiske spørgsmål, og den form for resuméer og spørgsmål, som de studerende får gennem interaktion med en chatbot.

En af diskussionerne mellem de studerende i fokusgruppeinterviewet ved studieårets udgang kredsede om denne forskel:

Henriette, studerende: "[Undervisernes spørgsmål] er mere konkrete, hvor jeg synes dem på ChatPDF er ikke lige så... måske akademisk udfordrende.”

Susanne, studerende: "[F]orskellen er, at de spørgsmål, I stiller, er mere sådan et 'Læg mærke til, hvordan forfatteren bruger begrebet med den vinkel eller i den sammenhæng.' Det bliver sådan mere en tankeøvelse. Når ChatGPT spørger, bliver det mere sådan nogle fakta-ting, ikke? Du kan lede efter svaret i teksten, og den kan måske også fortælle dig præcis, hvor du kan finde det, hvis man spørger den."

Henriette: "Ja, og I kobler det jo også til andre tekster eller et emne, altså et forskningsfelt eller sådan noget. Det gør den [ChatPDF] jo ikke. Den holder sig tekstnært."

De studerende fremhæver, at ChatPDF “holder sig tekstnært” og præsenterer ”fakta-ting”, mens undervisernes spørgsmål er “akademisk udfordrende” og opfordrer de studerende til at skabe forbindelser mellem forskellige dele af pensum. Endvidere er de læsestrategiske spørgsmål oplæg til de diskussioner, der skal foregå i undervisningen. I den sammenhæng er det relevant at tænke på den måde, som Ingold skriver om underviserens betydning med henvisning til Biesta og Dewey: "‘If the teacher is really a teacher’, Dewey advised, ‘he should know enough about his pupils, their needs, experiences, degrees of skill and knowledge, etc., to be able (not to dictate aims and plans) to share in a discussion regarding what is to be done’" (Ingold, 2018, s. 52). Det at skærpe de studerendes sans for refleksiv tænkning handler med andre ord ikke om at fortælle dem, hvad de skal se, men om at give dem fingerpeg om, hvor de skal kigge hen ud fra et indblik i, hvor de er i deres læreproces. Vores undersøgelse tyder på, at forskellige AI-chatbots faktisk kan bruges på den måde til ‘at give fingerpeg’ og ikke svar. Men at det kræver stor selvbevidsthed, disciplin, tålmodighed og meget viden fra de studerende at bruge dem på den måde. Og her ser vi bort fra, at underviseren også er en del af det sociale rum, som er en afgørende ramme om undervisningen.

Flere fortalere for generativ AI-redskaber til uddannelsesbrug fremhæver, at AI kan bruges til at lette underviseres arbejde, især de arbejdsopgaver, som beskrives som ‘trivielle rutineopgaver’ (fx Chan & Colloton, 2024). Men hvad er ‘trivielle rutineopgaver’? Kan formuleringen af læsestrategiske spørgsmål fx betragtes som en rutineopgave? Den ph.d.-studerende, som havde undervist på årgangen og var med til at afholde fokusgruppeinterviewet i juni 2024, havde som del af sit ph.d.-projekt eksperimenteret med ChatGPT i sin undervisningsforberedelse og bl.a. genereret læsestrategiske spørgsmål, men vurderede, at ChatGPT var dårlig til netop dette. Hun fandt, at det skyldes "en disconnection mellem det, jeg ved, jeg gerne vil have ud af teksten, og det ChatGPT [lægger op til]”. Denne ”disconnection” peger på, at arbejdet med at formulere læsestrategiske spørgsmål ikke er trivielt eller rutinepræget og ikke kan gøres af en maskine, fordi det er gennem dette arbejde, at undervisere gør sig klart, hvilke mål, de har med deres undervisning og valg af pensum. Mange overvejelser indgår i at formulere læsestrategiske spørgsmål, herunder at undervisere sætter sig i de studerendes sted, forholder sig didaktisk til stoffet og reflekterer over, hvordan de forskellige dele af pensum relaterer sig til hinanden, og hvordan forskellige typer spørgsmål kan afføde forskellige tanker og diskussioner hos de studerende. Når undervisere får erfaringer med at bruge AI-chatbots til at forberede deres undervisning, får de både erfaringer med, hvad AI-chatbots kan og hvad de ikke kan – og de bliver på den måde også mere bevidste om deres egne roller som undervisere på videregående uddannelser.

Nogle studerende brugte ChatGPT til at få forklaret et begreb, tema eller forskningsområde ved at stille et overordnet spørgsmål, fx. ’hvad er designantropologi?'. I løbet af få sekunder fik de studerende et generelt svar, serveret i klar og selvsikker prosa. Ud fra vores indholdsanalyser af de studerendes prompthistorik kunne vi se, at svarene ikke var helt i skoven i forhold til de faglige diskussioner på uddannelsen, men de var frit svævende uden kontekst og autoritativt sat op i punktform og uden kildehenvisninger.[3] De to skriveworkshops om uddannelse og læring viste, at ChatGPTs forklaringer på fagbegreber ikke var så brugbare, men krævede avanceret prompting, som igen krævede forhåndsviden til at indfange ordenes betydninger i bestemte faglige sammenhænge. Dette har en særlig betydning inden for humaniora og pædagogisk forskning, hvor ord som fx (ud)dannelse og læring både anvendes i hverdagssproget, i politiske sammenhænge og i forskellige videnskabelige traditioner og teoretiske retninger, hvor de dog har forskellige betydninger.

Et sidste meget fremherskende tema i fokusgruppediskussionerne var, at de studerende brugte ChatGPT til at ‘effektivisere’ deres studieproces og ‘spare tid’. Flere studerende gav udtryk for, at de især brugte AI-chatbots til at resumere teksterne, når de var "tidspressede" og ikke havde så meget tid til at forberede sig til undervisningen og læse teksterne.  De studerende arkiverede AI-genererede referater sammen med deres øvrige læsenoter. På overfladen fremstår ChatGPT som en effektiv genvej i studieprocessen - men kan læreprocesser overhovedet forceres på denne måde? Og hvad kan man lære af noter, man ikke selv har forfattet? Vi diskuterer disse centrale spørgsmål i det følgende afsnit.

Diskussion af pædagogiske og læringsmæssige implikationer af anvendelsen af GAI

“Education is not about filling a pail but about lighting a fire.”

                                                                 William Butler Yeats (citeret i Ingold, 2018, s. 31)

Hartmut Rosa (2014) beskriver vores vestlige samfund i dag som præget af acceleration. En interviewundersøgelse blandt britiske universitetsansatte viser, at mange anser ChatGPT som en mulighed for at accelerere deres arbejde og imødekomme de stigende performancekrav (Watermeyer et al., 2023).

Meget tyder på, at dette også gælder danske studerende: Vi ser i vores materiale en skillelinje mellem situationer, hvor ChatGPT, ChatPDF og andre digitale teknologier anvendes til at forholde sig nysgerrigt og undersøgende, og tilfælde, hvor teknologierne antages at kunne hjælpe med at ”spare tid”. Tech-virksomheder har mange interesser i at vise, at AI-chatbots kan bruges til effektiviseringer, fx gennem det, som  kaldes ’cognitive offloading’, hvor den menneskelige hjerne ”aflastes” i udførelsen af nogle bestemte opgaver, fx når man bruger en lommeregner (for en dybere diskussion se fx Lodge et al., 2023). Der ligger mange antagelser i denne form for kognitivistiske teorier, bl.a. om den menneskelige hjernes rolle i læring og kognition. Én antagelse er, at det at gøre ting hurtigere og mere effektivt altid er en fordel. Dette er en tvivlsom præmis, særligt når det gælder uddannelse. Dette påpeger Ingold (2018, s. 32 ff) i sit  forsvar for det, han med inspiration fra Biestas The Beautiful  Risk of Education (2013) kalder ‘weak education’. Svag pædagogik giver plads til tvivl og usikkerhed, som er den refleksive tænknings følgesvend. Denne form for pædagogik med eftertanke, tvivl og usikkerhed tager tid, og ’ineffektivitet’, tvetydighed og besvær er i disse sammenhænge skjulte velsignelser.

Værdien af noter består ikke først og fremmest i, at man efterfølgende har en effektiv opsummering. Notetagning er ligesom andre former for skrivning ikke bare en form for kommunikation. Det er først og fremmest en aktivitet, der handler om at forstå (Howard & Barton, 1986, s. 20). Det er med andre ord ikke sådan, at man først tænker og så skriver. Det at skrive er at tænke, og denne tænkning sker ikke på samme måde, hvis man ikke selv formulerer sætninger og faktisk skriver noter, men blot kopierer chatbottens svar over på sit digitale computerdrev eller notetagningssystem.

Vores bekymring deles af Puddifoot og O'Donnell (2018), som ikke har undersøgt AI-chatbots, men den stigende brug af digitale teknologier til informationslagring og -adgang, dvs. ressourcer som Wikipedia og Google, hvor information kan tilgås og kopieres fra, hvilket i denne sammenhæng kan sammenlignes med brugen af ChatGPT og ChatPDF. Puddifoot og O'Donnell trækker på kognitiv psykologi, neurovidenskab og machine learning og argumenterer for, at den menneskelige hjerne ikke fungerer som en computers hukommelse (bemærk at computeres hukommelse er en antropomorf metafor). Når mennesker finder information og gemmer den ved at copy-paste, anvender vi en anden del af hjernen end den, som vi bruger, når vi lærer noget ved at anvende viden i en ny kontekst.  Wikipedia, Google eller AI kan bruges til at søge informationer, men erkendelse og viden opstår først, når vi formår at bearbejde og anvende vores viden i nye sammenhænge. Dyb forståelse kræver tid til eftertanke og fordybelse – en proces som kan undermineres, hvis studerende fx blot lader AI-chatbots levere færdig tekst på generisk stillede eksamensspørgsmål.

I en tid med AI-chatbots har de studerende særligt brug for, at underviserne taler med dem om formålet med deres uddannelse; om ideerne bag den konkrete undervisning og den selvstændige pointe i at bruge tid, når man læser og skriver. Dette er ikke ensbetydende med, at underviserne instruerer de studerende i,  hvad de skal have ud af at læse de angivne tekster. Det handler i stedet om, at underviseren træder i karakter som lærer i Biestas forstand og forklarer meningen med aktiviteterne i undervisningen.

Studerendes arbejde med AI-chatbots bør ledsages af nogle bevidste strategier for forskellige typer læsning og forskellige læseteknikker. AI-chatbots kan fx give en basal introduktion til teksters emner og, hvis de studerende beder om det, sætte teksterne i bredere videnskabsteoretiske sammenhænge. Vores materiale tyder på, at ChatGPT og andre store sprogmodeller godt kan bruges til at mobilisere faglig nysgerrighed, særligt på de senere studietrin, fx når de studerende - i samarbejde med en vejleder - skal danne sig et overblik over et nyt forskningsfelt eller generere ideer til deres projektbeskrivelser. Det forudsætter, at de studerende i løbet af deres uddannelse udvikler et fagligt vokabular og sætter sig ind den relevante kontekst for det vidensområde, som de er ved at sætte sig ind i. I den sammenhæng udgør det et problem, at AI-chatbots leverer svar uden kontekst eller kilder. De bliver perfekte eksempler på det, som Haraway allerede i 1988 advarende kaldte ‘the God Trick’, altså viden, der skjuler magtrelationer og ansvar ved at præsentere viden som neutral og universel (fx i punktform og uden kilder), når den i virkeligheden altid kommer fra et bestemt sted, et bestemt perspektiv og en bestemt forfatter (Haraway, 1988). Dette gør det sværere at forholde sig kritisk eller refleksivt til samt udfordre forskellige former for viden. Dette er problematisk, i særdeleshed på en antropologisk uddannelse, hvor en generel pointe er, at der findes mange forskellige vidensformer, og at der ikke er nogen viden, uden at der er nogen, der ved den. For at en AI-chatbot kan promptes til at levere relevante oplysninger om disse forhold, skal man allerede have en god fornemmelse af sit fagområde og vide ret præcist, hvad man skal bede om – og det gør førsteårsstuderende jo nærmest per definition ikke. Hvis de skal anvende de store sprogmodeller til at tilegne sig nye former for viden, har de derfor brug for mere og ikke mindre vejledning og undervisning.

Fremkomsten af AI-chatbors rejser også spørgsmål om forholdet mellem tekst og tænkning, og hvilken plads tekster og skrivning i det hele taget skal have i videregående uddannelser. Er tiden gået fra skrivningen eller tanken fra teksten? Det er ikke det skriftlige produkt, som er formålet med humanistiske videregående uddannelser, men at øve refleksiv tænkning gennem skrivning (og meget andet!). Som det fremgår af ovenstående, mener vi, at tekstlæsning og skrivning fortsat bør have en helt central plads på kandidatuddannelsen i Pædagogisk Antropologi. Noget andet, som vi også har påpeget, er, at muligheden for, at tekster kan være overtaget fra AI-chatbots, betyder, at vi ved de videregående uddannelser ikke kan tage afleverede tekster som vidnesbyrd om, hvad de studerende har lært, eller om de studerende har formået at bruge AI til at blive klogere. Vi mener derfor, at en meget praktisk konsekvens af de nye AI-teknologier er, at skriftlige produkter bør ledsages af en mundtlig dialog med mulighed for at demonstrere refleksiv tænkning. Mundtlige eksaminer sammen med skriftligt arbejde var tidligere standard ved humanistiske uddannelser, før økonomiske besparelser nogle steder fjernede dem. AI-teknologierne giver os nu endnu en grund til at genindføre dialogbaserede eksamensformer.

Konklusion

I denne artikel har vi undersøgt, hvordan kandidatstuderende i Pædagogisk Antropologi i løbet af studieåret 2023/2024 brugte ChatGPT og andre AI-chatbots som del af deres studier. Meget af det, der er skrevet om generativ AI, er båret af en redskabsbegejstring, men uden at præsentationen af redskaberne er knyttet sammen med overvejelser over, hvilke aktiviteter, der bidrager til, at de studerende lærer noget, og hvad det er for en faglig og uddannelsesmæssig sammenhæng, de skal virke i. Vores undersøgelser peger både på muligheder og risici ved brugen af AI-chatbots på humanistiske videregående uddannelser: På den ene side kan AI-chatbots støtte læseforståelse, vække nysgerrighed og hjælpe studerende med at navigere i komplekst stof. På den anden side er der grund til at advare mod en tendens til instrumentel anvendelse, hvor AI-chatbots bruges til at "spare tid" og til at erstatte selvstændig læsning, skrivning og tænkning. Denne brug af AI-chatbots modsiger kernen i humanistisk uddannelse, som handler om at udvikle evnen til refleksiv tænkning, hvilket kræver tid til at fordybe sig og at man sætter farten ned og undrer sig. Hverken i projektet ”Sokratisk uvidenhed i arbejdet med generative AI-chatbots” eller som del af vores undervisning instruerede vi direkte de studerende i, hvordan de kunne prompte eller anvende AI-chatbots på specifikke måder, men havde en undersøgende og åben tilgange til de studerendes egne praksisser. På dette tidspunkt var det endnu ikke tilladt at anvende AI-chatbots i eksamensopgaver ved Aarhus Universitet, og der herskede en stor usikkerhed både blandt studerende og undervisere om, hvad  der er legitim og illegitim brug af AI-chatbots (se fx Malmström et al., 2023). Det er et åbent spørgsmål, om undervisere og studerende med tiden vil udvikle bedre og mere frugtbare og sikre måder at anvende AI-chatbots, som passer til uddannelsernes formål.

Det, vi bidrager med til de fire temaer, vi har identificeret i forskning om AI-chatbots som undervisnings- og læringsassistenter ved videregående uddannelser, er understregningen af, at de studerende i dag befinder sig i en kompleks situation, hvor læring med AI risikerer at blive løsrevet fra de eksisterende mere kollaborativt orienterede undervisningstraditioner i Skandinavien og i stedet fokusere på individuelle læreprocesser. Når de studerende overlades til sig selv og kun har ChatGPT at sparre med, træder ulighederne mellem dem frem på nye måder. I vores praksisorienterede undersøgelse så vi en kompleksitet af tilgange, hvor de studerendes medbragte forudgående læring og tolkningsrammer (jf. Hasse, 2002), som spillede en stor rolle for deres individuelle arbejde med at prompte. Her har menneske-undervisere en vigtig ny rolle at spille for at støtte de studerede i at udpege det fagrelevante i AI-chatbottens svar. De studerende skal med andre ord sammen med underviserne arbejde på at sikre en refleksiv og kritisk læreproces i samskabelsen med AI-chatbots.

Meget af litteraturen om AI-chatbots er baseret på en forhåbning om, at AI-chatbots kan levere undervisning tilpasset til den enkelte studerende og dermed overflødiggøre underviseren. Vores undersøgelse peger på behovet for, at studerende og undervisere får mere og ikke mindre tid sammen, så generativ AI kan bruges til at fremme uddannelsernes formål. Effektiv og formålstjenlig brug af AI-chatbots forudsætter de kompetencer og den viden, som man gerne vil opøve, så brug af og eksperimenteren med AI-chatbots må altid gå hånd i hånd med bevidst, refleksiv tænkning. Kernefagligheden i de humanistiske videregående uddannelser er ikke at fremstille tekst, men at lære at tænke og stille nye spørgsmål til det, man lærer. Hvis AI-chatbots anvendes på måder, der forhindrer dette arbejde for studerende og undervisere, har universitetet mistet sin væsentligste funktion – at mennesker øver kritisk refleksiv tænkning og gør det på forskellige fagligt baserede måder.

Tak til

Forfatterne vil gerne takke vores studerende, Thea Engstrøm Vejlin, Marianne Georgsen og to anonyme reviewere ved Tidsskriftet Læring og Medier samt Mikala Hansbøl fra TEACH, Københavns Universitet for gode kommentarer til forskellige versioner af denne artikel.

 

Referencer

Albdrani, R. N., & Al-Shargabi, A. A. (2023). Investigating the Effectiveness of ChatGPT for Providing Personalized Learning Experience: A Case Study. International journal of advanced computer science & applications, 14(11).

Bhutoria, A. (2022). Personalized education and Artificial Intelligence in the United States, China, and India: A systematic review using a Human-In-The-Loop model. Computers and Education: Artificial Intelligence, 3.

Biesta, G. (2013). The beautiful risk of education. Paradigm Publishers.

Bruun, M. H., Hasse, C. & Krause-Jensen, J. (2024). Store sprogmodeller og AI chatbots på videregående uddannelser. Aarhus Universitetsforlag.

Chan, C. K. Y. & Colloton, T. (2024). Generative AI in Higher Education. The ChatGPT Effect. Taylor & Francis.

Dewey, J. (2009 [1915]). Hvordan vi tænker. En reformulering af forholdet mellem refleksiv tænkning og uddannelsesprocessen. Klim.

Doroudi, S. (2023). The Intertwined Histories of Artificial Intelligence and Education. International Journal of Artificial Intelligence in Education, 33(4), 885-928.

Dreyfus, H. L. (1972). What Computers Can’t Do: A Critique of Artificial Intelligence. Harper & Row.

Epstein, R. (2016). The empty brain. Aeon.

Escalante, J., Pack, A. & Barrett, A. (2023). AI-generated feedback on writing: insights into efficacy and ENL student preference. International Journal of Educational Technology in Higher Education, 20(1), 1-20.

Fyfe, P. (2023). How to cheat on your final paper: Assigning AI for student writing. AI and Society, 38(4), 1395-1405.

Gibson, D., Kovanovic, V., Ifenthaler, D., Dexter, S. & Feng, S. (2023). Learning theories for artificial intelligence promoting learning processes. British Journal of Educational Technology, 54(5), 1125-1146.

Gombert, S., Fink, A., Giorgashvili, T., Jivet, I., Di Mitri, D., Yau, J., Frey, A. & Drachsler, H. (2024). From the Automated Assessment of Student Essay Content to Highly Informative Feedback: a Case Study. International Journal of Artificial Intelligence in Education. https://doi.org/10.1007/s40593-023-00387-6

Graesser, A. C. (2016). Conversations with AutoTutor help students learn. International Journal of Artificial Intelligence in Education, 26(1), 124–132.

Gulløv, E., Nielsen, G. B. & Winther, I. W. (2017). Indledning. I E. Gulløv, G. B. Nielsen & I. W. Winther (red.), Pædagogisk antropologi: Tilgange og begreber, (s. 1-22). Hans Reitzels Forlag.

Hammond, K. M., Lucas, P., Hassouna, A. & Brown, S. (2023). A Wolf in Sheep’s Clothing? Critical Discourse Analysis of Five Online Automated Paraphrasing Sites. Journal of University Teaching and Learning Practice, 20(7).

Hansen, J. J. & Nørgaard, R. T. (2022). Hvad er Digital pædagogik? – Konturer af et nyt praksis- og forskningsfelt. Dansk Universitetspædagogisk Tidsskrift, 17(32), 107–128.

Hasse, C. (2002). Kultur i bevægelse: Fra deltagerobservation til kulturanalyse - i det fysiske rum. Samfundslitteratur.

Hasse, C. (2015). An Anthropology of Learning. On Nested Frictions in Cultural Ecologies. Springer.

Hasse, C. (2020). Posthumanist Learning. What Robots and Cyborgs Teach us About Being Ultra-social. Routledge.

Hasse, C., Bruun, M. H. & Knaap, K. Ø. (2025). ChatGPT med Relationel Sokratisk Uvidenhed. Dansk Universitetspædagogisk Tidsskrift. 38.

Haraway, D. (1988). Situated Knowledges: The Science Question in Feminism and the Privilege of Partial Perspective. Feminist Studies 14(3), 575-599.

Hastrup, K. (1992). Det antropologiske projekt om forbløffelse. Gyldendal.,

Howard, V. A. & Barton, J. H. (1986). Thinking on paper. Quill/William Morrow.

Ihde, D. (1990). Technology and the lifeworld: from garden to earth. Indiana University Press.

Ingold, T. (2018). Anthropology and/as Education. Routledge.

Jarvis, P. (2006). Towards a comprehensive theory of human learning. Routledge.

Kaiss, W., Mansouri, K., & Poirier, F. (2023). Effectiveness of an Adaptive Learning Chatbot on Students’ Learning Outcomes Based on Learning Styles. International Journal of Emerging Technologies in Learning, 18(13), 250-261.

Kim, M. & Adlof, L. (2024). Adapting to the Future: ChatGPT as a Means for Supporting Constructivist Learning Environments. TechTrends, 68(1), 37-46.

Krause-Jensen, J. (2009). Syv fluer med et smæk! 'Aktiv deltagelse'–et eksamensforms-eksperiment. Dansk Universitetspædagogisk Tidsskrift, 4(7), 18-24.

Lave, J. & Wenger, E. (1991). Situeret læring og andre tekster. Hans Reitzels Forlag.

Lodge, J. M., Yang, S., Furze, L. & Dawson, P. (2023, 2023/07/03). It’s not like a calculator, so what is the relationship between learners and generative artificial intelligence? Learning: Research and Practice, 9(2), 117-124.

Loos, E., Gröpler, J., & Goudeau, M.-L. S. (2023). Using ChatGPT in Education: Human Reflection on ChatGPT’s Self-Reflection. Societies, 13(8), 196.

Lu, Q., Yao, Y., Xiao, L. H., Yuan, M. Z., Wang, J. & Zhu, X. H. (2024). Can ChatGPT effectively complement teacher assessment of undergraduate students' academic writing? Assessment & Evaluation in Higher Education. 49 (5), 616–633. https://doi.org/10.1080/02602938.2024.2301722

Luo, J. H. (2024). A critical review of GenAI policies in higher education assessment: a call to reconsider the "originality" of students' work. Assessment & Evaluation in Higher Education, 49(5), 651–664. https://doi.org/10.1080/02602938.2024.2309963

Malmström, H., Stöhr, C. & Ou, A. W. (2023). Chatbots and other AI for learning: A survey of use and views among university students in Sweden. Chalmers Studies in Communication and Learning in Higher Education.

Mauss, M. (2000 [1925]). Gaven. Gaveudvekslingens form og logik i arkaiske samfund. Spektrum.

Nkhobo, T., & Chaka, C. (2023). Student-Written Versus ChatGPT-Generated Discursive Essays: A Comparative Coh-Metrix Analysis of Lexical Diversity, Syntactic Complexity, and Referential Cohesion. International Journal of Education and Development using Information and Communication Technology (IJEDICT), 19(3), 69-84.

Nye, B. D., Graesser, A. C. & Hu, X. (2014). AutoTutor and family: A review of 17 years of natural language tutoring. International Journal of Artificial Intelligence in Education, 24(4), 427–469.

Pfaffenberger, B. (1988). Fetishised Objects and Humanised Nature: Towards an Anthropology of Technology. Man, 23(2), 236-252.

Puddifoot, K., & O'Donnell, C. (2018). Human Memory and the Limits of Technology in Education. Educational Theory, 68(6), 643-655.

Rancière, J. (1991 [1987]). The Ignorant Schoolmaster. Five Lessons in Intellectual Emancipation. Stanford University Press.

Rosa, H. (2014). Fremmedgørelse og acceleration. Hans Reitzel.

Selwyn, N. (2014). Digital Technology and the Contemporary University Degrees of digitization. Taylor and Francis.

Selwyn, N. (2019). Should robots replace teachers: AI and the future of education. Polity Press.

Sims, C. (2022). Learning, Technology, and the Instrumentalisation of Critique. I M. H. Bruun, A. Wahlberg, R. Douglas-Jones, C. Hasse, K. Hoeyer, D. B. Kristensen & B. R. Winthereik (red.), The Palgrave Handbook of the Anthropology of Technology, (s. 415-432). Palgrave Macmillan.

Sobo, E., Goldberg, D., Hauze, S., Mohamed, A., Ro, C. & Frazee, J. P. (2024). “I Don’t Want to Be Taught and Graded by a Robot”: Student-Teacher Relations in the Age of Generative AI. Anthropology News, American Anthropological Association. https://www.anthropology-news.org/articles/i-dont-want-to-be-taught-and-graded-by-a-robot-student-teacher-relations-in-the-age-of-generative-ai/

Strümke, I. (2023). Maskiner der tænker: algoritmernes hemmeligheder og vejen til kunstig intelligens. Politiken.

Suchman, L. (1987). Plans and Situated Actions. The problem of human-machine communication. Cambridge University Press.

Teutloff, O., Einsiedler, J., & Møller, F. S. (2024). Store sprogmodeller og det danske arbejdsmarked. Danmarks Statistik og Københavns Universitet, 8. februar 2024.

Turing, A. M. (1950). Computing Machinery and Intelligence. Mind, LIX (236), 433-460.

Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., Kaiser, Ł. & Polosukhin, I. (2017). Attention is all you need. Advances in neural information processing systems, 5998-6008.

Wambsganss, T., Janson, A. & Leimeister, J. M. (2022). Enhancing argumentative writing with automated feedback and social comparison nudging. Computers and Education, 191.

Watermeyer, R., Phipps, L., Lanclos, D. & Knight, C. (2023). Generative AI and the Automating of Academia. Postdigital Science and Education. 6, 446–466 https://doi.org/10.1007/s42438-023-00440-6

Weizenbaum, J. (1966). ELIZA-a computer program for the study of natural language communication between man and machine. Communications of the ACM, 9(1), 36-45.

Wenger, E. (1998). Communities of Practice. Learning, Meaning, and Identity. Cambridge University Press.

 


 

Forfattere

Maja Hojer Bruun

Lektor, ph.d.

Pædagogisk Antropologi, DPU, Aarhus Universitet

Leder sammen med Cathrine Hasse Forskningsprogrammet Fremtidsteknologi, Kultur og Læreprocesser ved DPU, Aarhus Universitet.

 

Jakob Krause-Jensen

Lektor, ph.d

Pædagogisk Antropologi, DPU, Aarhus Universitet

Deltager i Forskningsprogrammet Fremtidsteknologi, Kultur og Læreprocesser.

Cathrine Hasse

Professor, ph.d.

Pædagogisk Antropologi, DPU, Aarhus Universitet

Leder sammen med Maja Hojer Bruun Forskningsprogrammet Fremtidsteknologi, Kultur og Læreprocesser ved DPU, Aarhus Universitet.  

 

 

 

 



[1] Det etnografiske i vores undersøgelser ligger i vores metodologiske tilgang, hvor vi forstår de studerendes udsagn, prompthistorik og andet empirisk materiale i sammenhæng med vores øvrige viden om dem og den udannelsesmæssige kontekst, som ikke blot hidrører fra de isolerede workshops og interviews, men fra en større sammenhæng og et hverdagsliv, som vi kender som undervisere.

[2] Hovedparten af den forskning i store sprogmodeller til uddannelsesområdet, som på nuværende tidspunkt er udgivet, er drevet af datalogiske AI-forskere, som nogle gange indgår interdisciplinært samarbejde med uddannelsesvidenskabelige forskere, især kognitionspsykologer, inden for området AI in Education (AIED). Ifølge hjemmesiden af tidsskriftet International Journal of Artificial Intelligence in Education (IJAIED) beskæftiger dette tidsskrift sig med "anvendelsen af AI-teknikker og begreber til at designe systemer, som understøtter læring". Doroudi (2022) beskriver forholdet mellem AI-forskning og kognitiv uddannelsesforskning siden 1950erne, herunder udviklingen af en ny form for læringsvidenskab, ’the learning sciences’, som er kendetegnet ved sin naturvidenskabelige og design-orienterede tilgang til læring. Dette felt omfattede oprindeligt mange forskellige discipliner (herunder kognitionsvidenskab, datalogi, psykologi, antropologi og lingvistik), men siden 1990'erne, hvor International Conference of the Learning Sciences (ICLS) udskilte sig fra AIED-konferencen (AI in Education), har AIED bevæget sig i mere teknisk og kvantitativ retning.

 

[3] Tech-virksomheder frigiver løbende nye modeller af AI-chatbots, og siden vores undersøgelser fandt sted, er der udkommet modeller, som viser kildehenvisninger, oftest dog på et meget overordnet niveau.