Je viens de rentrer de l'Ethiopie et de parler avec certaines personnes clés dans les ministères concernés remarqué une grande importance étant place sur postérieure (après enquête) les vérifications sur la qualité des données. Les contrôles étant effectués (ou évaluées) au niveau du gouvernement central et utilisés comme un facteur décisif de savoir si les résultats de l'enquête peuvent être publiés et / ou utilisés comme une base pour la planification et l'action. Si je me félicite des initiatives sur la qualité des données recueillies dans les évaluations Je sens que l'accent mis sur les contrôles a posteriori est un peu égaré, car il ne semble pas être accompagné par une attention similaires payées à la définition des populations, la validité des bases de sondage, & c.
Le problème qui semblait être donné un accent particulier est "préférence de chiffres" dans l'enregistrement de la hauteur et les mesures de longueur. Cela semble être venu à propos, car il est maintenant inclus dans le logiciel SMART plutôt que parce qu'il est un procédé de contrôle de qualité extrêmement importante. Je peux me tromper sur ce point. Quoi qu'il en soit ... Voici venir la question (s) ...
Je pensais que si la préférence de chiffres est systématique en ce sens que toutes les mesures sont arrondies au centimètre à tout ou la demi-centimètre alors aucune partialité sera introduit dans l'estimation de la prévalence. Je comprends que l'arrondissement systématique peut être encouragée par la conception de cartes de hauteur. Y at-il des preuves que ce soit le cas? Y at-il des preuves de biais introduit? Est-W / H vraiment sensible que 2 mm d'ici, il y aura modifier radicalement les résultats?
Tout d'abord, de la planification de cours pour assurer des bases de sondage, populations, etc., une exécution du plan sont essentielles. Un test a posteriori ne change pas. Cependant, la connaissance préalable que les résultats de l'enquête seront examinées après la collecte et l'analyse a fait une grande différence à la formation de chemin et enquêtes sont supervisées et menée. Préférence de chiffres est seulement un des nombreux contrôles de qualité des données qui sont automatisées dans SMART.
Deuxièmement, vous avez fait une hypothèse erronée commune - que l'erreur aléatoire rend pas générer une différence pour le résultat parce que ceux qui se déplacent jusqu'à l'équilibre ceux qui se déplacent vers le bas - en fait la moyenne n'a pas changé - mais il ne faire une différence dans la prévalence observée. Totalement erreur aléatoire dans la réalisation de mesures affecte la "dispersion des résultats", augmente la SD et gonfle le nombre dans les queues (et donc ci-dessous un point coupé près - ce qui est pire encore le point de coupure est dans la queue). En effet, avec une erreur aléatoire sujets peuvent monter ou descendre la distribution (en supposant un nombre égal monter et descendre). Le nombre qui se déplacent à partir de la queue à une partie plus centrale de la distrubution sont beaucoup moins nombreux que ceux qui se déplacent à partir d'une position centrale dans la queue (proportionnel à l'aire sous la courbe en un point quelconque). Je l'ai testé en imposant une erreur aléatoire de la hauteur avec une moyenne de 0cm et une carte SD de 1 cm (l'erreur a été imposée normalement distrubuted). De même pour le poids signifie erreur a été imposée 0g avec les cartes SD de 100 g (la précision de nombreuses échelles). La prévalence de la SAM passe de 2 à 3% - une augmentation de 50%! Lorsque d'autres erreurs typiques (enregistrement, etc.) ont été ajoutés la prévalence a augmenté à 6% (après le nettoyage avec des drapeaux PEV / OMS).
Préférence de chiffres était la raison principale pour le fameux argument de Pickering-Plat sur l'hypertension dans les années 1960. L'étude MONICA de l'OMS de la pression artérielle méthodes d'évaluation de préférence de chiffres et de ses effets sur le résultat imaginé, et nous avons utilisé les mêmes méthodes statistiques dans SMART pour évaluer la gravité de la préférence de chiffres.
Les mêmes problèmes se produisent avec le PB, Hb et toute autre mesure qui est prise et la proportion de la population qui se trouve dans la queue évalué / signalés.
Répondu:
il y a 15 annéesMerci pour l'explication. Il me semble, cependant, que vous avez modélisé quelque chose de différent de l'erreur d'arrondissement (par exemple 0,1; 0,2 -> 0,0, 0,3; 0,4; 6; 7 -> 0,5 et 0,8;.. 0,9 - > 0) mais peut-être je mal compris.
Ma première pensée était ... est W / H vraiment sensible à de petites erreurs? Si oui, alors nous avons un problème.
Répondu:
il y a 15 annéesPoids précis, la hauteur et l'âge de l'information est très important pour les mesures anthropométriques. L'effet de l'arrondissement peut entraîner une estimation biaisée (si l'arrondissement a tendance à être dans un sens, comme arrondi vers le bas) et / ou une mauvaise précision (arrondi se produit aussi fréquemment que arrondi vers le bas et de la même ampleur). Sur ce dernier, cela peut être clairement vu pour le poids-pour-âge distributions z-score dans les populations où l'âge est pas connue avec précision - la distribution z-score sera semblait être écrasé vers le bas. Comme l'a noté Michael Golden, ce qui a pour effet d'augmenter la proportion classés comme ayant un z-score inférieur à -2 SD. Ce dernier peut être un peu évaluée par l'écart-type de la z-score dans la population de l'étude - dans la population de référence l'écart type est de 1,0. Si il y a des imprécisions dans la collecte de données, l'écart type de la population d'étude serait plus grand que 1,0.
Répondu:
il y a 15 annéesUne entrée de Fiona Watson:
La correspondance relative à la «préférence de chiffres" par rapport à des enquêtes nutritionnelles en Ethiopie est d'intérêt pour les scientifiques impliqués dans le développement de la méthodologie d'enquête. Cependant, il ne doit pas occulter les problèmes pratiques très réels auxquels sont confrontés ceux qui sont impliqués dans l'évaluation de la nutrition en Ethiopie. Ayant été en Ethiopie travailler avec le gouvernement Unité de coordination de la nutrition (le ENCU) au cours des derniers mois et ayant eu l'occasion d'interviewer la plupart des organismes impliqués dans l'évaluation de la nutrition, les questions suivantes ont été mises en évidence.
Trop de données sont collectées (en particulier sur les indicateurs «contextuelles», tels que la sécurité alimentaire, les stratégies d'adaptation, accès à la santé, eau et assainissement, les pratiques de soins, etc.), dont la plupart ne sont pas utilisés.
Interprétation des résultats de l'enquête est problématique. Les seuils utilisés pour définir la gravité d'un problème ne sont pas assez précis (circonstances aggravantes probablement à la plupart de l'Ethiopie) et de toute façon ne se rapportent pas toujours aux recommandations formulées. En outre, le manque de données de base ou de la tendance pour l'état nutritionnel ainsi que des indicateurs «contextuelles» rendent l'interprétation difficile.
Certains donateurs exigent que les enquêtes sont menées, mais les résultats ne sont pas vraiment pas d'impact sur la programmation et pourtant il prend le temps de personnel et est coûteux. Juste à noter, plus de 500 ont été réalisées en Ethiopie dans les 5 dernières années, chacun coûtant environ 15.000 $ (coût total donc au-delà de 7,5 millions $) et de prendre environ 1 mois pour compléter.
Le processus de faire des enquêtes est enquêtes du temps et de la nutrition norme ne sont pas un outil utile pour l'évaluation d'urgence rapide. Cependant, les évaluations d'urgence rapide d'échantillonnage les plus mal lotis kebeles (districts) et en utilisant MUAC peuvent entraîner des résultats non généralisables qui ne permettent pas la programmation.
Il ya de la frustration parmi tant d'agence et le personnel du gouvernement qui enquêtes fournissent "un brouillard de l'information» qui ne contribue pas à déterminer la réponse ou de l'adresse de la malnutrition. Certaines des questions prioritaires pour les praticiens sont:
1. enquêtes nutritionnelles peuvent être «simplifié» de sorte que des données essentielles pour la prise de décision peuvent être collectées de façon précise, mais rapidement?
2. faire d'autres formes d'évaluation de la nutrition Outre les enquêtes doivent être introduites (par exemple la surveillance de la nutrition et / ou des méthodes d'évaluation rapide de la nutrition efficaces et précis), de sorte que les enquêtes ne sont pas répétées trop souvent?
3. Comment pouvons-nous développer des lignes de base et / ou ensembles de données de tendance (pas seulement anthropométriques, mais pour d'autres indicateurs «contextuelles» qui peuvent être comparés avec les résultats de l'enquête pour aider à interpréter?
4. Y at-il des cadres seuil de réponse réalisables qui peuvent être utilisés / développés pour aider le personnel régional avec une capacité limitée à faire pression pour des interventions?
En examinant ces questions opérationnelles plus larges, il est important d'assurer un équilibre entre la rigueur scientifique et l'application pratique si nous sommes de mieux servir les utilisateurs de l'information de l'enquête de la nutrition.
Répondu:
il y a 15 annéesCe sont des questions intéressantes que vous soulevez. Je vais vous donner quelques réflexions initiales ...
(1) Il ya une possibilité de rationaliser les enquêtes. Les plans de sondage et de cas DEFINITIONS que nous utilisons à l'heure actuelle (c.-à-enquêtes en grappes échantillonnées à deux étages et W / H définitions de cas fondées) ne sont pas les seules options. Dans le Biafra urgence (par exemple) l'échantillonnage spatial et PB / H ont été utilisés et cela est avéré rapide, pas cher, et utile.
(2) La surveillance nutritionnelle a une histoire mouvementée. Il a été tenté dans de nombreux contextes, mais n'a pas été soutenue. La plupart des systèmes souffert de problèmes de conception (par exemple l'utilisation des cohortes vieillissantes, mauvais indicateur, le manque de liens avec les données de marché, & c.) Et étaient chers. Avec quelques-uns que je l'ai vu, ils semblaient avoir été traités comme des fins en eux-mêmes avec collecte de données et l'analyse se fait, mais rarement décider action. Il peut être possible de créer un système de surveillance vialable imbriqué dans un programme GMP. Je suis à présent esquisser une note sur un système de surveillance nutritionnelle à l'aide des enquêtes répétées des échantillons de petite et je serais très intéressé par des idées, des expériences, besoins, & c.
(3) Ce sont généralement disponibles et, même si pas, la plupart sont assez faciles à collecter (par exemple les indicateurs du commerce). Généralement, ils ne sont pas largement utilisés par les OING.
(4) Les seuils sont l'objet d'un "thread" distinct sur ce forum.
Répondu:
il y a 15 annéesHelen Keller International a effectué des essais pilotes, un programme de surveillance nutritionnelle à base urbaine à Conakry, en Guinée en utilisant 200 sites sentinelles, financés par le Bureau du Foreign Disaster Assistance (gouvernement américain). Bien qu'il y ait toujours des questions concernant la qualité des données et d'utilisation, il possède l'avantage d'être pas cher (200 USD par mois) et rapide (mesure des changements et la production de rapports mensuels), donnant une indication de changements (haut ou bas) dans la nourriture globale état de la sécurité des populations très vulnérables. L'idée est que les résultats de ce système pourraient être utilisés pour indiquer où et quand enquêtes SMART sont nécessaires. Si vous souhaitez plus d'informations ou un exemple des résultats ou de la méthodologie, nous serions heureux de le partager.
À votre santé -
Jen Peterson
Répondu:
il y a 15 annéesJe voudrais avoir plus d'informations sur le système de surveillance. Vous pouvez me contacter par le modérateur du forum
Répondu:
il y a 15 annéesCher Jen Peterson,
En ce qui concerne le programme de surveillance nutritionnelle HKI à Conakry pourriez-vous partager des informations sur la méthodologie et les données recueillies sur une base mensuelle? Ai-je bien compris: 200 sites pour 200USD / mois? Merci beaucoup d'avance.
Chris
De Christoph Andert, la Tanzanie
Répondu:
il y a 15 annéesChers tous
Pour ceux qui sont intéressés dans le système de la nutrition et de la surveillance de la sécurité alimentaire en milieu urbain à base de HKI, Jen Peterson a posté la documentation complète, qui peut être consulté via le lien ci-dessous:
http://www.ennonline.net/resources/view.aspx?resid=695
HKI travaille sur une méthodologie finalisé raffinée donc ce travail est en cours. La plupart des documents sont en français.
De la note: "nous nous attendions à l'aide de quatre sources de données pour informer l'ensemble
système de sécurité alimentaire, mais nous étions seulement directement responsable de la collecte
les données au niveau des ménages (qui est présenté ici, dans les outils et les
présentation Powerpoint). Nous avons seulement eu 9 mois ou plus pour obtenir cette place et
courir, comme notre financement a été limitée à 12 mois. Cependant, je comprends
financement a été prolongé, et nous espérons les autres sources de données (mensuelle
prix, SENAH informations qualitatives, et les informations de la SNIG)
finira par devenir disponibles, de développer une image de sécurité alimentaire plus complète. "
Si vous souhaitez plus d'informations, ou plus en anglais, s'il vous plaît ne pas hésiter à
contacter Jen et / ou Lanfia Dr Touré, HKI / Guinée, Dr Mary Hodges ou Shawn Baker, qui peuvent être en mesure de fournir une mise à jour depuis Jen ne travaille plus à HKI.
S'il vous plaît me contacter via post@en-net.org.uk si vous souhaitez leur adresse de courriel.
Merci beaucoup
Tamsin
Répondu:
il y a 15 annéesUne requête d'un client à propos de chiffres préférence dans certaines données de dépistage MUAC m'a fait penser à la question de la préférence de chiffres un peu plus.
Je suis arrivé à penser que l'estimateur PROBIT qui est utilisé dans la mémoire vive, RAM-OP, S3M, et le système de surveillance de la LP pourrait être plus résistant à chiffres préférence que l'estimateur classique qui est utilisé dans SMART, MICS, DHS, et le reste.
Je décidai de tester cela avec une simple simulation de langage R, qui je le répète ici.
Ici, nous générons une population:
pop <- rnorm (n = 1000, moyenne = 140, sd = 11)
Résumé (pop)
Le résumé est:
Min. 1er Qu. Moyenne Médiane 3e Qu. Max.
104,0 131,7 139,2 139,4 146,6 173,8
Voir la figure à la fin de ce post.
GAM est:
table (pop <125)
qui donne:
FAUX VRAI
902 98
qui est de 9,8%.
Sam est:
table (pop <115)
qui donne:
FAUX VRAI
985 15
qui est de 1,5%.
MAM est:
9,8% - 1,5% = 8,3%
Ce que nous considérons comme les véritables prévalences.
Si nous «polluer» ces données en forçant toutes les données à la fin avec "0" ou "5"
popDP <- ronde (pop / 5) * 5
Les 20 premières valeurs popDP:
popDP [1:15]
montre:
145 160 125 135 150 135 150 145 120 155 155 145 135 135 135
Ceci est une préférence de chiffres extrême. Le score de préférence Digite (de SMART) pour ces données est 66.68. Nous aurions probablement rejeter ces données comme indésirable.
La "pollution" ne modifie pas les statistiques sommaires beaucoup:
Résumé (popDP)
donne:
Min. 1er Qu. Moyenne Médiane 3e Qu. Max.
105,0 130,0 140,0 139,4 145,0 175,0
Voir aussi la figure à la fin de ce post.
GAM est maintenant:
table (popDP <125)
qui donne:
FAUX VRAI
935 65
qui est de 6,5% (baisse de la vraie 9,8%).
Sam est:
table (popDP <115)
qui donne:
FAUX VRAI
991 9
qui est de 0,9% (baisse de la vraie 1,5%).
MAM est:
6,5% - 0,9% = 5,6%
vers le bas de la vraie 8,3%.
Extreme préférence de chiffres dans cette simulation provoque de grandes sous-estimations. Pas bon.
Si nous utilisons PROBIT estimateurs ... pour GAM:
pnorm (125, moyenne = moyenne (popDP), sd = sd (popDP)) * 100
on a:
10,01426
C'est de 10,0% (près de la vraie 9,8%)
Pour SAM:
pnorm (115, moyenne = moyenne (popDP), sd = sd (popDP)) * 100
on a:
1.499806
qui est de 1.5% (exactement le même que le vrai 1,5%).
MAM est:
MAM = 10,0% - 1,5% = 8,5% (proche de la vraie 8,3%)
Ceci est un modèle simple qui suppose la normalité et l'arrondi à la plus proche 0 ou 5. Dans les données de la vie réelle, nous pourrions avoir une certaine déviation par rapport à la normalité. Dans ce cas, nous pouvons transformer les données vers la normalité et ensuite appliquer l'estimateur PROBIT.
PROBIT semble être robuste aux problèmes de préférence de chiffres. Il me semble que, si elle est vraie, cette constatation est importante.
Voici le vrai (pop) et (popDP) distributions "polluées":
Répondu:
il y a 8 années