Standaard Boekhandel gebruikt cookies en gelijkaardige technologieën om de website goed te laten werken en je een betere surfervaring te bezorgen.
Hieronder kan je kiezen welke cookies je wilt inschakelen:
Technische en functionele cookies
Deze cookies zijn essentieel om de website goed te laten functioneren, en laten je toe om bijvoorbeeld in te loggen. Je kan deze cookies niet uitschakelen.
Analytische cookies
Deze cookies verzamelen anonieme informatie over het gebruik van onze website. Op die manier kunnen we de website beter afstemmen op de behoeften van de gebruikers.
Marketingcookies
Deze cookies delen je gedrag op onze website met externe partijen, zodat je op externe platformen relevantere advertenties van Standaard Boekhandel te zien krijgt.
Je cadeautjes zeker op tijd in huis hebben voor de feestdagen? Kom langs in onze winkels en vind het perfecte geschenk!
Afhalen na 1 uur in een winkel met voorraad
Gratis thuislevering in België vanaf € 30
Ruim aanbod met 7 miljoen producten
Je cadeautjes zeker op tijd in huis hebben voor de feestdagen? Kom langs in onze winkels en vind het perfecte geschenk!
Je kan maximaal 250 producten tegelijk aan je winkelmandje toevoegen. Verwijdere enkele producten uit je winkelmandje, of splits je bestelling op in meerdere bestellingen.
From image recognition that fails to process darker skin to disadvantaging minority neighbourhoods in the credit market, examples of discrimination through artificial intelligence are easy to find, and yet it is unclear why and when such cases are wrong. Jonas Carstens shows that a concept of discrimination built on the expression of disrespect and the social status of those who are disadvantaged can help us make sense of AI discrimination. AI discrimination sparks moral unease. It poses novel questions and reopens existing debates. What if the programmers of an AI model did not intend any disadvantages, but the model learned discriminatory correlations from the data? Who, if anybody, has discriminated here? Jonas Carstens discusses existing approaches to discrimination, develops a unique synthesis, and uses it to analyse AI discrimination.