Будь ласка, використовуйте цей ідентифікатор, щоб цитувати або посилатися на цей матеріал:
http://dspace.pdpu.edu.ua/handle/123456789/9876
Назва: | Relationships between the entropies of EEG, HRV, immunocytogram and leukocytogram |
Інші назви: | Відносини між ентропії ЕЕГ, ВСР, імуноцитограми та лейкоцитограми |
Автори: | Popadynets, Oleksandr Oleksiyovych Попадинець, Олександр Олексійович Gozhenko, A. I. |
Ключові слова: | EEG HRV leukocytogram immunocytogram entropy correlations women and man ЕЕГ ВСР лейкоцитограма імуноцитограма ентропія кореляція жінки та чоловіки |
Дата публікації: | 2020 |
Видавництво: | Державний заклад «Південноукраїнський національний університет імені К. Д. Ушинського» |
Бібліографічний опис: | Popadynets O. O. Relationships between the entropies of EEG, HRV, immunocytogram and leukocytogram / O. O. Popadynets // Journal of Education, Health and Sport. 2019; 9(5): 651-666. |
Короткий огляд (реферат): | In mathematics the entropy is a measure of uncertainty of a random function; in the theory of information entropy is a measure of uncertainty in a situation, any experience (test) that can have different consequences. The entropy is also a measure of disorder, the degree of chaos present in the system. CE Shannon linked the mathematical dependence of the concept of information and entropy, which characterizes the degree of ordering of the system. This estimate of the amount of information coincides with the estimation of the quantitative measure of elimination of uncertainty of entropy, the degree of organization of the system. It is well known about functional interactions between central and autonomic nervous and immune systems. In the context of this concept, we have prioritized research on the interconnections between the entropies of these systems. В математиці ентропія є мірою невизначеності випадкової функції; в теорії інформаційної ентропії - це міра невизначеності в ситуації, будь-який досвід (тест), який може мати різні наслідки. Ентропія - це також міра безладу, ступеня хаосу, який присутній у системі. К. Е. Шеннон пов'язував математичну залежність поняття інформації та ентропії, яка характеризує ступінь упорядкованості системи. Ця оцінка обсягу інформації збігається з оцінкою кількісного показника усунення невизначеності ентропії, ступеня організації системи. Добре відомо про функціональну взаємодію між центральною та вегетативною нервовою та імунною системами. У контексті цієї концепції ми надали пріоритет дослідженню взаємозв’язків між ентропіями цих систем. |
URI (Уніфікований ідентифікатор ресурсу): | http://dspace.pdpu.edu.ua/handle/123456789/9876 |
Розташовується у зібраннях: | Загальних дисциплін та клінічної медицини |
Файли цього матеріалу:
Файл | Опис | Розмір | Формат | |
---|---|---|---|---|
Popadynets. 2020.pdf | 566 kB | Adobe PDF | Переглянути/Відкрити |
Усі матеріали в архіві електронних ресурсів захищені авторським правом, всі права збережені.