SIG: Forskningsevaluering – Research Evaluation

NARMAs Spesialinteressegruppe for forskningsevaluering

SIG ansvarlig: Tanja Strøm 

Merittering og evaluering av forskning og forskere har betydelig innflytelse på forskeres karrierer og universiteters budsjetter: evaluer og vurder forskning på en ansvarsfull måte.

Nylige initiativer som the Declaration on Research Assessment (DORA) (2018), Science in Transition (2015) og andre initiativer de senere årene har vist at vi trenger nye belønningssystemer og insentiver for forskere, og vi bør involvere samfunnsaktører i forskning. Nåværende insentiver kombinert med hyperkonkurranse om begrensede midler har alvorlige negative effekter: mange publikasjoner av dårlig kvalitet og begrenset samfunnsmessig betydning; motvilje til å ta risiko og unngå komplekse, tverrfaglige problemer; systematisk undervurdering av utdanning og andre faglige oppgaver; veldig dårlige karriereperspektiver for unge forskere.

Forskere, forskningsfinansiører, forskningsorganisasjoner og makthavere begynner å diskutere andre mer nøyaktige, transparente og ansvarlige tilnærminger til forskningsevaluering.

Arbeidsgruppen The INORMS Research Evaluation Working Group ble opprettet på INORMS kongressen i 2018 for å se på hvordan man best kan sikre at evaluering av forskningen er meningsfull, ansvarlig og effektiv. To arbeidspakker skal leveres i 2020. Den første setter søkelyset på den voksende innflytelsen til universitetsrankingene til tross for disse rankingenes mangler. Den andre pakken vil være opplæringsmateriale rettet mot toppledere i UH-sektoren: hvordan bruk av fornuftige evalueringsmetoder og ansvarlig forskningsevaluering fører til bedre beslutninger.

Hvis du ønsker å bli med i nettverket, kan du abonnere på diskusjonslisten: the INORMS-RES-EVAL.

Artikkelen «Influensing the changing world of research evaluation» beskriver noen aktuelle utfordringer innen forskningsevaluering og hvordan INORMS Working Group vil adressere dem.

 | NATURE | VOL 520 | 23 APRIL 2015

Copyright © 2015, Nature Publishing Group

Forum på LinkedIn

  • Det å identifisere nøkkelytelsesparametere for aktive forskere har alltid vært problematisk. Evaluering og sammenligning av forskere som arbeider i et gitt felt har blitt en nødvendighet siden disse konkurrerende forskerne kjemper om de samme begrensede ressursene, forfremmelsene, priser eller stipender. Uansett hvilken metode vi velger for å vurdere verdien av en forskers individuelle forskningsbidrag bør det være enkelt, rettferdig og gjennomsiktig.
  • Bibliometri handler om publikasjoner og deres siteringer. Fagfeltet dukket opp fra informasjonsteknologi og nå refererer det vanligvis til de metodene som brukes for å studere og indeksere tekster og informasjon.
  • Bibliometri og publiseringsanalyse er omstridte verktøy for å måle forskerkvalitet.
  • We believe no single metric tells the whole story — you need a basket of metrics to make informed decisions.

Presentasjoner

The Annual Conference for Association of Research Managers and Administrators, ARMA, 2019

Dr Elizabeth Gadd – Research Policy Manager (Publications) at Loughborough University:«INORMS Research Evaluation Working Group: Meaningful, responsible & effective research evaluation.»

The Changing World of Research Evaluation – Ensuring our evaluation practices are fit for purpose. (Årskonferanse 2019)

Bibliometri. (Årskonferansen 2017)

Bibliometri knyttet til Horisont2020-søknader. (Årskonferansen 2016)

 Pernille Hamburger Grøngaard fra Aarhus universitet: «Bibliometri knyttet til H2020-søknader»

Hva er bibliometri og hvordan kan vi bruke bibliometri? (Årskonferansen 2015)

Rapport fra workshop: Bibliometri som strategisk verktøy

An introduction to metrics and their use - Turning data into intelligence

NARMAs interessegruppe for bibliometri arrangerte sammen med Elsevier en workshop om bibliometri, Introduction to metrics and their use, 21. april 2016. Her kan du lese om denne.

Nedenfor finner du noen artikler, nettsider og informasjon som kan være av interesse

Dokumenter

EUA Briefing: Reflections on University Research Assessment. Key concepts, issues and actors

European Commission. Next-generation metrics: Responsible metrics and evaluation for open Science

Metric Tide report

Leiden Manifesto

Science in Transition

University of Waterloo White paper on bibliometrics

Bibliometri knyttet til H2020-søknader – Presentasjon av Pernille Grønngaard, NARMA vårkonferanse 2016

Verktøy

Siteringer

Field-normalised journal metrics:

SNIP (Source Normalised Impact per Paper)

  •  Actual citations versus expected citations
  • Calculated on a journal-by-journal basis

SJR (Schimago Journal Rank)

  • Prestige journal metric
  • Citations are weighted according to the citedness of the journal they come from

Field-weighted percentile measures:

  • Percentage outputs in top X percent most cited in their field
  • Mean Normalised Citation Scores (for individual papers or large entities)

Google Scholar citations

Publish or Perish

Incites

SciVal

Altmetrics

Altmetric

Plum Analytics

ImpactStory

Visualiseringsverktøy

VosViewer

Sci2

Rankings

THE WR

QS

Shanghai Jiao Tong

CWTS Leiden

Indikatorer

Journal Impact Factors

Annet

Responsible Metrics

The Citation Culture Blog

 

Oppdatert 05.08.2019