Standaard Boekhandel gebruikt cookies en gelijkaardige technologieën om de website goed te laten werken en je een betere surfervaring te bezorgen.
Hieronder kan je kiezen welke cookies je wilt inschakelen:
Technische en functionele cookies
Deze cookies zijn essentieel om de website goed te laten functioneren, en laten je toe om bijvoorbeeld in te loggen. Je kan deze cookies niet uitschakelen.
Analytische cookies
Deze cookies verzamelen anonieme informatie over het gebruik van onze website. Op die manier kunnen we de website beter afstemmen op de behoeften van de gebruikers.
Marketingcookies
Deze cookies delen je gedrag op onze website met externe partijen, zodat je op externe platformen relevantere advertenties van Standaard Boekhandel te zien krijgt.
Je kan maximaal 250 producten tegelijk aan je winkelmandje toevoegen. Verwijdere enkele producten uit je winkelmandje, of splits je bestelling op in meerdere bestellingen.
This research monograph presents a groundbreaking unification of neural network approximation theory through the lens of Positive Linear Operators (PLOs). For the first time in the literature, neural network operators and activated convolution operators are rigorously analyzed as PLOs -- providing a comprehensive, quantitative framework based on inequalities and the modulus of continuity.The author develops a general, elegant, and highly versatile theory that applies uniformly to a wide variety of neural and convolution operators, bridging Pure and Applied Mathematics with modern Artificial Intelligence and Machine Learning. The results open new directions for mathematical understanding of neural network approximation, with applications across computational analysis, engineering, statistics, and economics.This volume is an essential resource for mathematicians, computer scientists, and engineers seeking a rigorous analytical foundation for AI and deep learning models.