Robotar i skolan medför etiska utmaningar

Robotar skulle i framtiden kunna fungera som sociala aktörer i skolan – interagera med elever och främja lärande. Även om robotar potentiellt skulle kunna stödja vissa aktiviteter som är centrala i lärande, finns det risk att de för med sig negativa konsekvenser som är svåra att förutse.

Den här artikeln presenterar resultat av forskning. Texten är framtagen vid ett universitet eller högskola på uppdrag av Skolverket.
Läs om hur vi sammanställer och sprider kunskap om resultat av forskning

Skolans digitalisering är en komplex förändringsprocess som speglar samhällets utveckling i vidare mening. Den roll som robotar i allmänhet och artificiell intelligens i synnerhet förväntas få i framtidens samhälle är en omdiskuterad fråga. Idag är samhället mer eller mindre byggt på teknologi i skiftande utsträckning, och detta är den verklighet som skolan förväntas förbereda dagens elever för.

Att den reviderade läroplanen som formellt börjar gälla den 1 juli 2018 har i syfte att stärka elevers digitala kompetens kan därmed ses som självklart – framtidens medborgare måste lära sig att förstå, hantera och kritiskt reflektera kring den teknik som finns och används.

Att elever ska lära sig att hantera robotar är högst aktuellt. Robotar som t ex Lego Mindstorms diskuteras som möjliga verktyg för att lära barn att programmera (se t.ex. Pålsson, 2016). Robotar kan också fungera som interaktiva verktyg som fjärrstyrs av lärare och elever som inte har möjlighet att närvara vid särskilda lektioner (Yun m fl, 2011).

Men detta är bara en del av diskussionen – parallellt undersöker man om interaktiva robotar kan främja elevers lärande på liknande sätt som lärare gör idag. Om robotar agerar utifrån egen intelligens tänker man att de kan användas som en slags lärarassistenter (Mubin m fl, 2013). I det sistnämnda fallet har robotar vanligtvis ett människoliknande utseende, såsom de ”humanoida” robotarna NAO och Zeno.

Empatisk robot testades

I den nyligen publicerade avhandlingen Child–Robot Interaction in Education vid Göteborgs universitet presenterar och problematiserar Sofia Serholt elevers interaktion med robotar i skolan. I avhandlingen betonas att denna typ av robotar är ett nytt och annorlunda sätt att interagera med teknologi i skolan som forskare fortfarande vet relativt lite om. Roboten som studerades hade utvecklats inom det numera avslutade forskningsprojektet EMOTE som var finansierat av EU.

Roboten var tänkt att vara empatisk på så vis att den kunde uppfatta elevers känslor genom ansiktsigenkänning, och försöka anpassa sig efter deras olika behov och sinnesstämningar. Ett flertal likartade EU-finansierade forskningsprojekt har uppkommit de senaste åren med liknande syfte, dvs. att utveckla och studera sociala robotar i olika skolmiljöer. Inom forskningsprojektet L2TOR arbetar man t ex med att utveckla en robot som kan undervisa barn i engelska, medan man i forskningsprojektet EASEL har studerat hur robotar kan utvecklas för att underlätta interaktion mellan barn och robotar på olika sätt.

Den empatiska roboten i EMOTE är den enda i dess slag som har studerats på en grundskola i Sverige där den placerades i ett grupprum som var tillgängligt för elever i årskurserna 4-6 under 3,5 månader. Roboten kunde undervisa eleverna i kartläsning och hållbar utveckling via ett interaktivt bord. Undervisningen kunde äga rum både individuellt och i mindre grupper.

Elevers interaktion med robotar

Resultaten från Sofia Serholts studier visar att eleverna var villiga att följa instruktioner från roboten inom strukturerade och tidsbegränsade uppgifter. Eleverna svarade också på robotens försök till social interaktion genom att prata med den och gestikulera på olika sätt. Detta skedde trots att eleverna fått information om att roboten inte kunde förstå eller svara på tilltal. Det visade sig emellertid att elevernas respons minskade något över tid.

I avhandlingen lyfts även de problem som uppstår när elever interagerar med en robot på detta sätt. En rad misslyckade interaktionstillfällen uppdagades där eleverna blev antingen märkbart upprörda, oförmögna att fortsätta med uppgifterna, eller där de sökte utomstående hjälpa för att kunna arbeta vidare med roboten.

Anledningen sågs vara kopplat till robotens oförmåga att fånga elevernas uppmärksamhet och därefter kunna identifiera att eleverna inte förstod hur de skulle genomföra uppgifterna. Det kunde också handla om att robotens undervisning var bristfällig, att den avbröt eleven när hen i själva verket behövde extra tid till att genomföra uppgiften – något som en pedagog hade kunnat förstå.

Eleverna kunder också bli upprörda över att roboten inte levde upp till deras förväntningar när det gällde samspel och samarbete. Sofia Serholt menar att robotens till synes mänskliga natur spelar en stor roll i skapandet av dessa förväntningar. Barn vill och är benägna att tro att roboten kan mer än den kan, och de blir således besvikna när detta inte är fallet. Hon menar att detta skulle kunna avhjälpas i framtiden om man lyckas göra robotar mer socialt kompetenta, men detta väcker i sin tur en rad etiska frågeställningar.

Etiska dilemman med robotar i skolan

Vill lärare och elever använda sig av denna teknik i framtidens skola, och vilka etiska förbehåll finns i relation till detta? I avhandlingen studeras robotar även utifrån just detta framtidsperspektiv. Resultaten visar att lärare och elever ser ett flertal utmaningar kring användandet av robotar i skolan, såsom hur elevers integritet kan säkerställas.

Om robotar programmeras till att vara mer förstående och socialt kompetenta i framtiden, vilket anses nödvändigt för att de ska kunna främja lärande, krävs en viss lagring av data om enskilda elever. Roboten kan behöva lagra detaljer kring vad enskilda barn behärskar, hur de reagerar på olika former av undervisning både känslomässigt och prestationsmässigt, saker som eleverna har sagt eller gjort, osv.

Utifrån lärares och elevers perspektiv uppfattas emotionella yttringar som synnerligen känsliga och dess lagring som potentiellt integritetskränkande. Frågan är vad sådana data skulle kunna användas till, och om det finns risk för otillbörligt intrång.

Frågor väcks också om hur barn kan påverkas av interaktion med robotar på sikt, och vem som kan tänkas bära ansvaret för robotar i skolan, inte bara i relation till vad som sker i klassrummet, utan även i händelse av att oförutsedda och negativa konsekvenser följer av dess användning. Sofia Serholt anser att dessa etiska utmaningar bör hanteras innan robotar kan ses som en möjlig teknologi i skolan.

Text: Sofia Serholt och Johan Lundin

Källor:

Serholt, S. (2017). Child–Robot Interaction in Education. (Avhandling), Göteborgs universitet, Göteborg.

Child–Robot Interaction in Edu Länk till annan webbplats.cation. Länk till annan webbplats.

EASEL: Expressive Agents for Symbiotic Education and Learning.

EASEL Expressive Agents for Symbiotic Education and Learning. Länk till annan webbplats.

Mubin, O., Stevens, C. J., Shahid, S., Mahmud, A. A., & Dong, J.-J. (2013). A review of the applicability of robots in education. Technology for Education and Learning, 1-7.

A review of the applicability of robots in education. Länk till annan webbplats.

Yun, S., Shin, J., Kim, D., Kim, C. G., Kim, M., & Choi, M.-T. (2011). Engkey: Tele-education Robot. In B. Mutlu, C. Bartneck, J. Ham, V. Evers & T. Kanda (Eds.), Social Robotics: Proceedings of the 3rd International Conference on Social Robotics (ICSR), Amsterdam, The Netherlands (pp. 142-152). Berlin, Heidelberg: Springer Berlin Heidelberg. 

Tele-education Robot. Länk till annan webbplats.

Publicerad 18 oktober 2017.