Går samhällsvetenskapliga kompetenser att mäta?

Vilka är de kompetenser och det innehåll vi behöver för att förstå samhällets relationer och ordningar, såväl sociala som ekonomiska och politiska? Med andra ord, vad behöver en individ för att ha ”samhällsvetenskaplig läs- och skrivkunnighet” (social science literacy)? Och hur kan vi sedan mäta och jämföra dessa kompetenser mellan individer, skolor och länder?

Den här artikeln presenterar resultat av forskning. Texten är framtagen vid ett universitet eller högskola på uppdrag av Skolverket. Refererade forskare svarar självständigt för innehållet.
Läs om hur vi sammanställer och sprider kunskap om resultat av forskning

Dessa frågor diskuteras i ett specialnummer av den tyska samhällsvetenskapsdidaktiska tidskriften Journal of Social Science Education JSSE. I denna sammanfattning beskrivs först tidskriftens sammanlagda analys utifrån de olika artiklarna och därefter granskas särskilt två artiklar som handlar om att testa och stödja politisk bedömningsförmåga.

Behöver vi testa och jämföra?

I en inledande artikel diskuterar en av tidskriftens redaktörer, Birgit Weber, både fördelarna och det problematiska med att mäta och standardisera samhällsvetenskapliga kompetenser. Genom att delta i vad Weber kallar ”Utbildningarnas olympiska spel” där ämnen och länder ska kunna jämföras på ett likvärdigt sätt riskerar det specifika ämnets unika karaktär att försvagas. Men genom att inte delta i dessa imaginära spel riskerar de samhällsvetenskapliga ämnena att tappa i status gentemot andra ämnen, att kunna mäta och jämföra ämnets kompetenser är på många plan något som anses viktigt.

Så vad göra? Weber menar att trots problemen med den rådande testkulturen är det en förutsättning att diagnostisera lärandets förutsättningar och läranderesultat för att kunna utveckla elevernas kompetenser. Genom att diskutera och problematisera vilka kompetenserna är och hur de kan mätas både generellt för de samhällsvetenskapliga ämnena och specifikt för särskilda ämnesområden vill tidskriften med detta nummer öka vår kompetens att göra sådana diagnoser.

Att testa politisk bedömningsförmåga

Det vanligaste sättet att mäta och jämföra elevers förmåga och kompetens att göra politiska bedömningar har hittills varit genom kvantitativa enkätundersökningar. Bettina Zurstrassen menar i sin artikel att detta innehåller så många problem att rankinglistor och jämförelser mellan länder måste tas med en nypa salt. Hennes slutsatser bygger främst på en analys av den stora ICCS-undersökningen (International Civic and Citizenship Education Study) där elever och lärare i 38 länder, däribland Sverige, undersöktes med hjälp av kunskapsprov och attitydundersökningar i form av enkäter. Zurstrassens analys visar på svårigheter att göra jämförelser utifrån fler aspekter:

a) Politik- och medborgarundervisningen är organiserad på olika sätt i olika länder och i till exempel Tyskland skiljer det sig också åt mellan olika delstater. Det kan vara ett eget ämne, en del av ett annat ämne eller som något övergripande som ska ingå i flertalet ämnen.

b) Skillnader i exempelvis politisk kultur eller social struktur gör att en översättning och likvärdig tolkning av olika begrepp och företeelser är omöjlig. Särskilt svårt blir det då att göra jämförelser utifrån kvantitativa metoder.

c) Flera av målen med politik- och medborgaundervisning har en komplex eller normativ karaktär som gör kvantitativa jämförelser olämpliga. Kvantitativa mätmetoder kräver att svar kan kategoriseras som rätt eller fel eller ha en tydlig gradering av färdigheter vilket inte är möjligt när det gäller exempelvis att göra egna politiska bedömningar eller att ha ett kritiskt tänkande.

Zurstrassens slutsats är att jämförelser av typen PISA-undersökningar i områden som rör ”samhällsvetenskaplig läs- och skrivkunnighet” lätt kan leda till en övertolkning av skillnader på ett sätt som troligen inte gäller för tekniska och naturvetenskapliga ämnen.

Kvalitativa diagnoser

Fenske, Klee och Lutter argumenterar för att begreppsteckningar (concept-cartoons CCs) kan vara en bra metod att stödja lärarnas elev- och ämnesinriktade instruktioner. Metoden ger möjlighet att analysera och fördjupa elevernas begreppsanvändning och begreppsförståelse på ett sätt som också tar in deras verklighet och de faktiska begrepp som används vid den tidpunkt då ett ämnesområde inleds.

CCs har tidigare främst använts inom naturvetenskaplig undervisning men i artikeln beskrivs ett exempel där några teckningar (typ serierutor) beskriver hur ett högerextremistiskt parti delar ut propaganda utanför en skola och även hur några elever reagerar på detta. I undersökningen gick det att se hur utgångspunkten i denna CC användes av eleverna för att strukturera och utveckla sina ställningstaganden i den efterföljande diskussionen. De kände igen situationen och kunde använda sina egna vardagsbegrepp för att ge situationen mening. Läraren fick också genom detta en möjlighet att diagnostisera elevernas förståelse och även att teoretisera genom att relatera olika ståndpunkter till mer ämnesteoretiska begrepp. Fenske, Klee och Lutter är noggranna med att metoden CCs är tämligen outvecklad i samhällsvetenskapliga sammanhang men visar goda förutsättningar att relatera en praktisk situation och erfarenhet till en vetenskaplig kontext.

Text: Anders Broman

Social Science Literacy II: In Search for Basic Competences and Basic Concepts for Testing and Diagnosing Political and Economic Literacy Volume 10, Number 3,

Artikeln Testing and Diagnosing Social Science Literacylänk till annan webbplats

Artikeln Sceptical Look at the Quantitative Education Research in Civic and Citizenship Educationlänk till annan webbplats

Artikeln Concept-Cartoons as a Tool to Evoke and Analyze Pupils Judgments in Social Science Educationlänk till annan webbplats

Senast uppdaterad 20 mars 2019