Standaard Boekhandel gebruikt cookies en gelijkaardige technologieën om de website goed te laten werken en je een betere surfervaring te bezorgen.
Hieronder kan je kiezen welke cookies je wilt inschakelen:
Technische en functionele cookies
Deze cookies zijn essentieel om de website goed te laten functioneren, en laten je toe om bijvoorbeeld in te loggen. Je kan deze cookies niet uitschakelen.
Analytische cookies
Deze cookies verzamelen anonieme informatie over het gebruik van onze website. Op die manier kunnen we de website beter afstemmen op de behoeften van de gebruikers.
Marketingcookies
Deze cookies delen je gedrag op onze website met externe partijen, zodat je op externe platformen relevantere advertenties van Standaard Boekhandel te zien krijgt.
Je kan maximaal 250 producten tegelijk aan je winkelmandje toevoegen. Verwijdere enkele producten uit je winkelmandje, of splits je bestelling op in meerdere bestellingen.
Rater bias is a substantial source of error in performance assessment, where raters rate examinees based on a designed rubric of a specified scale. Unfortunately, raters comprehension from the assessment criteria is dissimilar to each other despite the training sessions of using it, so that would be undermines the validity and reliability. In this study both students and teachers played a role as the raters. If such performance assessment can be shown to be valid and reliable, participating students in the process of rating could contribute to lessening the burden on teachers. This study surveyed to find whether there is any significant difference among these raters in their severity or leniency in relation to difficulty levels of descriptors in the rating scale and the ability of the students. The results of Facets analysis showed that there were bias interactions between assessor types, and these bias interactions were statistically significant.