Please use this identifier to cite or link to this item: dspace.pdpu.edu.ua/jspui/handle/123456789/9876
Title: Relationships between the entropies of EEG, HRV, immunocytogram and leukocytogram
Other Titles: Відносини між ентропії ЕЕГ, ВСР, імуноцитограми та лейкоцитограми
Authors: Popadynets, Oleksandr Oleksiyovych
Попадинець, Олександр Олексійович
Gozhenko A, AI
Попадинец, Александр Алексеевич
Keywords: EEG
HRV
leukocytogram
immunocytogram
entropy
correlations
women and man
ЕЕГ
ВСР
лейкоцитограма
імуноцитограма
ентропія
кореляція
жінки та чоловіки
Issue Date: 2020
Publisher: Державний заклад «Південноукраїнський національний університет імені К. Д. Ушинського»
Citation: Popadynets O. O. Relationships between the entropies of EEG, HRV, immunocytogram and leukocytogram / O. O. Popadynets // Journal of Education, Health and Sport. 2019; 9(5): 651-666.
Abstract: In mathematics the entropy is a measure of uncertainty of a random function; in the theory of information entropy is a measure of uncertainty in a situation, any experience (test) that can have different consequences. The entropy is also a measure of disorder, the degree of chaos present in the system. CE Shannon linked the mathematical dependence of the concept of information and entropy, which characterizes the degree of ordering of the system. This estimate of the amount of information coincides with the estimation of the quantitative measure of elimination of uncertainty of entropy, the degree of organization of the system. It is well known about functional interactions between central and autonomic nervous and immune systems. In the context of this concept, we have prioritized research on the interconnections between the entropies of these systems. В математиці ентропія є мірою невизначеності випадкової функції; в теорії інформаційної ентропії - це міра невизначеності в ситуації, будь-який досвід (тест), який може мати різні наслідки. Ентропія - це також міра безладу, ступеня хаосу, який присутній у системі. К. Е. Шеннон пов'язував математичну залежність поняття інформації та ентропії, яка характеризує ступінь упорядкованості системи. Ця оцінка обсягу інформації збігається з оцінкою кількісного показника усунення невизначеності ентропії, ступеня організації системи. Добре відомо про функціональну взаємодію між центральною та вегетативною нервовою та імунною системами. У контексті цієї концепції ми надали пріоритет дослідженню взаємозв’язків між ентропіями цих систем.
URI: dspace.pdpu.edu.ua/jspui/handle/123456789/9876
Appears in Collections:Загальних дисциплін та клінічної медицини

Files in This Item:
File Description SizeFormat 
Popadynets. 2020.pdf566 kBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.