Att mäta och värdera samverkan

21 Aug

Sedan länge har utbildning och forskning varit huvuduppgifter för universitet och högskolor. Går man längre bakåt i tiden var uppgiften för övrigt bara utbildning; forskning som vi känner den idag kom in i bilden relativt sent.

I modern tid har även samverkan med omgivande samhälle och näringsliv dykt upp som en tredje och lika viktig uppgift. Som jag skrivit om i en tidigare blogg är dock samverkan en funktion av den utbildning och forskning som bedrivs och därmed per definition något sekundärt. Den uppgiften kan likafullt vara mycket viktig och värd att uppmärksamma och värdera bättre än hittills. Det tycker jag också.

Regeringen har givit VINNOVA och Vetenskapsrådet i uppdrag att utarbeta metoder och kriterier som ska användas som grund för att premiera och kunna fördela resurser till lärosätena baserat på hur väl de löser samverkansuppgiften. Vetenskap & allmänhet har på sin webbplats sammanfattat förutsättningarna för uppdragen och även listat de utmaningar som väntar.

Jag tycker att det vore fantastiskt om det gick att hitta en acceptabel modell för att mäta och värdera samverkan. Men efter att själv arbetat praktiskt med resursfördelningsmodeller i olika sammanhang har jag stor respekt för svårigheterna. Låt oss med hjälp av V & A syna några av dessa.

  • Indikatorer är kvantitativa och mäter det som går att mäta.
  • Indikatorer kommer inte åt processer utan bara handfasta resultat. ”Hur jämförs 300 inlägg i media, två böcker, tre nya företag och fyra etablerade samarbeten mellan organisationer?”
  • Samverkan sker åt båda hållen, indikatorer mäter främst flödet inifrån och ut.
  • Lärosäten har olika storlek, profiler och inriktning. Hur ska de kunna jämföras på ett rättvisande sätt?

Det förslag som V & A självt har fört fram bygger på att ett stort antal indikatorer sammanställs för lärosätet och sedan värderas det uppkomna utfallet mera kvalitativ av en extern bedömargrupp. Då kan även processer och strukturer vägas in i bedömningen, hävdar man.

Nja, säger jag. Om osäkerheten kring vad indikatorerna verkligen mäter är stor så minskar den ju inte om en bedömargrupp ska lägga sin subjektiva bedömning över det hela. Och det torde inte bli samma bedömargrupp som ska ge utlåtanden över alla lärosäten.

Ett av de viktigaste kraven på en resursfördelningsmodell är att den ska vara förutsägbar och stabil över tiden. Om inte skapar den förvirring och grogrund för mindre önskvärda taktiska beteenden. Dessutom kommer den knappast att accepteras om den inte uppfyller detta avgörande krav.

Nåväl, jag har ju haft fel förr 🙂 Förhoppningsvis har jag det även denna gång. Vi får se.

Lämna en kommentar