Standaard Boekhandel gebruikt cookies en gelijkaardige technologieën om de website goed te laten werken en je een betere surfervaring te bezorgen.
Hieronder kan je kiezen welke cookies je wilt inschakelen:
Technische en functionele cookies
Deze cookies zijn essentieel om de website goed te laten functioneren, en laten je toe om bijvoorbeeld in te loggen. Je kan deze cookies niet uitschakelen.
Analytische cookies
Deze cookies verzamelen anonieme informatie over het gebruik van onze website. Op die manier kunnen we de website beter afstemmen op de behoeften van de gebruikers.
Marketingcookies
Deze cookies delen je gedrag op onze website met externe partijen, zodat je op externe platformen relevantere advertenties van Standaard Boekhandel te zien krijgt.
Je kan maximaal 250 producten tegelijk aan je winkelmandje toevoegen. Verwijdere enkele producten uit je winkelmandje, of splits je bestelling op in meerdere bestellingen.
We often hear,in communication engg.,that some data is lost during the message communication. The basic object of this book is to find more and more efficient channel capacity to minimize the data loss. I tried to solve so many unbalancing problems, which occures in communication engineering, and can be solved by optimization technique very easily. On the basis of entropy Rohit Kumar Verma also develop such type of mathematical models which are useful for the prediction of futuristic statistical data for making our future plan and strategy. This book covers following topics in detail : Some generating functions for the measures of entropies and directed-divergence Some logistic-type growth models based on measures of information Some multivariate normal distributions based on parametric and non-parametric measures of entropies An unorthodox parametric measures of information and corresponding measures of fuzzy information Optimization problems for the new parametric measure of entropy in the dual space Some inequalities on the basis of the new para-metric measure of information The channel capacity when the non-Shannon info. measures are maximized by normal distribution.