Standaard Boekhandel gebruikt cookies en gelijkaardige technologieën om de website goed te laten werken en je een betere surfervaring te bezorgen.
Hieronder kan je kiezen welke cookies je wilt inschakelen:
Technische en functionele cookies
Deze cookies zijn essentieel om de website goed te laten functioneren, en laten je toe om bijvoorbeeld in te loggen. Je kan deze cookies niet uitschakelen.
Analytische cookies
Deze cookies verzamelen anonieme informatie over het gebruik van onze website. Op die manier kunnen we de website beter afstemmen op de behoeften van de gebruikers.
Marketingcookies
Deze cookies delen je gedrag op onze website met externe partijen, zodat je op externe platformen relevantere advertenties van Standaard Boekhandel te zien krijgt.
Je kan maximaal 250 producten tegelijk aan je winkelmandje toevoegen. Verwijdere enkele producten uit je winkelmandje, of splits je bestelling op in meerdere bestellingen.
Over the last decade, statistical learning theory has achieved rapid progress due to the introduction and research of classification algorithms including support vector machines and boosting. Along with their successful applications in practice, theoretical performance of these algorithms becomes well understood in terms of margin bounds, Bayes risk consistency, and asymptotic rate analysis. This monograph provides further investigation of these algorithms within regularization frameworks and from an approximation theory point of view. Error analysis frameworks by error decomposition techniques are fully developed for two classes of regularization schemes which cover the support vector machines, regularized boosting, and support vector kernel networks by linear programming and indefinite kernels. The results presented in this monograph are by far the best. The error analysis frameworks have been shown to be wide applicable in most recent research works and should be able to shed light on future researches on related topics in machine learning and artificial intelligence.