Peu de questions

1. Dans quelle mesure devraient les résultats des tests de plausibilité ENA être utilisés pour rejeter les enquêtes qui collectent plus de données anthropométriques, en premier lieu a été plauasibility destiné à être utilisé pour rejeter ou d'accepter surveys.i estiment que ces ne sont pas claires à niveau de la grappe nationale examinateurs de l'enquête qui sont plus préoccupés par l'% au bas de variables comme SD etc

2.Le la proportion des moins de cinq ans la matière lors du calcul de la taille de l'échantillon pour les enquêtes nutritionnelles

Please visit COD-02 - Conduire une étude FRAT en République Démocratique du Congo for ToR and application information.

James Lual

Répondu:

il y a 11 années

1) Les résultats des tests ENA plausibilité évaluer la qualité globale des données recueillies à partir de votre enquête anthropométrique. Le score global est pas destiné à être utilisé comme un outil de validation immédiatement, mais plutôt pour le responsable de l'enquête à regarder plus en profondeur dans le rapport de distinguer les erreurs de la réalité du terrain. Par exemple, si vous obtenez un score élevé de pénalité pour la distribution de l'âge, le responsable de l'enquête serait d'abord vérifier avec vos équipes d'enquête pour voir ce qui est arrivé dans le champ, puis à regarder les sondages précédents dans cette région si si une distribution d'âge a été trouvé; alors ce serait considéré comme la réalité de cette région donnée, et ces points de pénalité peut donc être «ignoré», comme ils sont maintenant justifiées dans la partie de la discussion de votre rapport d'enquête. Les tests les plus pénalisés sont manquants / marqué données et l'écart-type qui évaluent les biais de mesure en termes de la qualité des mesures anthropométriques. Le contrôle de plausibilité assure comparabilité entre les enquêtes avec des contrôles de qualité normalisés et donc il est important d'exécuter cet outil lors de l'analyse de vos données d'enquête.

2) La proportion des moins de cinq ans fait en effet la matière lors du calcul de la taille de l'échantillon pour les enquêtes nutritionnelles. Si vous surestimez cette proportion, cela conduirait à avoir moins de ménages à visiter, mais vous ne pouvez pas avoir assez de ménages pour atteindre la taille de votre échantillon dans nombre d'enfants.

Pour d'autres questions concernant la méthodologie SMART, s'il vous plaît visitez www.smartmethodology.org

Merci.

Victoria Sauveplane

Répondu:

il y a 11 années

Calcul de la taille de l'échantillon sont très crucial, pour décider comment les ménages à être visité par cluster et combien proportion de vos ressources serait appliqué à être des mesures ...... ainsi que la conception de l'enquête est concerné ...... Meilleur James Lual Garang

James Lual

Répondu:

il y a 11 années

1. Tout d'abord, l'ENA plausibilité est important car une vérification de la qualité des données pour les équipes de l'enquête lors de la collecte de données; afin de noter les faiblesses à l'avance et prendre les mesures appropriées pour éviter impact possible sur la qualité globale des données.

Deuxièmement, il ne détermine la qualité globale des données et définit en outre les niveaux, comme excellente, bonne, acceptable ou problématique; plus le score plus vous devriez vous inquiéter de la qualité de données. De cours basé sur ce que vous pouvez rejeter enquête anthropométrique si les données sont de mauvaise qualité.

Cependant, je suis d'avis que le rapport de vraisemblance ne devrait pas être utilisée pour rejeter toutes les autres données recueillies aux côtés de l'anthropométrie. Toute personne de réfuter cela?

2. La proportion de U5s dans une population (%) est très important dans la phase de planification afin de déterminer votre taille de l'échantillon (nombre d'enfants à couvrir) et plus important que le nombre de ménages à visiter au cours de l'enquête. Sans cela, le nombre de ménages à être inclus dans l'enquête ne peut pas être généré.

Espérons que cela est utile.

Otieno K Musumba

Répondu:

il y a 11 années

principale de l'ENA avantage SMART contrôle quotidien de la qualité de la collecte de données, il vous donnera des indicateurs sur les équipes Sondage sur le rendement et d'examen des erreurs, alors vous pouvez traiter toutes les erreurs de sensibilisation qui auront une incidence sur la qualité de l'enquête entière
si vous avez fait, vérifiez pas tous les jours pour la saisie des données et avis miss elle sera augmentée puis en finale votre score d'enquête sera problématique (plus de 14%), alors vous ne serez jamais approuver pour cette enquête et vous perdu de l'argent et du temps
proportion de moins de cinq ans est très important (étape 2) au sein des ménages calculé

Hamid Hussien

Répondu:

il y a 11 années

Afin de déterminer le nombre de ménages d'être visité, bien sûr, il est bon d'avoir des informations comme le pourcentage de U5 et la taille du ménage. Mais que faire si il n'y a pas de telles informations? Je pense que vous ne devriez pas arrêter de faire votre enquête en raison du manque de telles informations. Pourtant, vous pouvez mener l'enquête. Pour calculer la taille de l'échantillon vous ne devez pourcentage de moins de cinq populations. Une fois que vous déterminez la taille de l'échantillon et de la répartition des grappes, alors vous pouvez suivre la procédure d'échantillonnage suivant. Disons que vous décidez de 20 enfants par grappe. Une fois que l'équipe arrive au village particulier / cluster, ils choisiront le premier ménage basé sur la méthode d'échantillonnage possible. Ensuite, ils doivent continuer à visiter la maison la plus proche jusqu'à ce qu'ils obtiennent 20 enfants. Avant l'arrivée de SMART, la plupart des agences ont eu recours à cette approche et je pense encore cela fonctionne.

Anonymous

Répondu:

il y a 11 années

En réponse à (1) ...

Je ne suis pas totalement convaincu par le type de vérifier pressé sur nous par les bonnes gens à SMART.

Certains d'entre elle est utile ... Par exemple:

Vérifie préférence de chiffres sont utiles: Si il est compatible arrondi vers le haut ou vers le bas puis arrondi cela est susceptible d'introduire un biais. Vérifie préférence de chiffres peuvent identifier si cela peut être un problème. Il est pas un test définitif que vous obtenez toujours la préférence de chiffres si bon arrondi avaient lieu (et qui introduirait peu ou pas de biais).

Tests de performance de recenseurs sont utiles: Nous pouvons voir comment chaque recenseur est bonne en termes de précision et de fiabilité. Nous pouvons l'utiliser pour prendre le personnel de l'enquête ou sélectionnez les superviseurs de l'enquête et décider si plus de formation ou une formation complémentaire est nécessaire.

Certains d'entre elle est (OMI) tout simplement stupide. Le test de normalité fait une très grande hypothèse que sera presque toujours faux. Nous risquons de condamner une enquête parce qu'une hypothèse déraisonnable ne tient pas. Le résultat est que nous marginaliser davantage un plus marginaux des populations à risque qui seront les responsables de la graisse queue gauche de la distribution (qui invite le rejet de l'enquête). Qu'est-ce que SMART condamne aussi mauvais données est très probable des données utiles et précises. Voir ce post.

Le pire des cas est que nous avons un personnel d'enquête ajout d'éléments aléatoires aux données de façon à "éviter" âge-comble et la censure des données précises pour faire un ajustement de l'enquête avec un ou d'autres hypothèses illusoires sur la façon dont les données doivent se comporter.

En réponse à (2) ...

Dans de nombreux enquête que nous faisons, il ya quelques différentes tailles d'échantillon:

Le nombre de grappes (m): Nous aimons que ce soit aussi grande que possible.

Le nombre d'enfants par groupe (n): Nous aimons ce soit petite que possible.

Est-il vrai qu'en général plus «m» et petit 'n' réduit l'effet de conception associée à une enquête.

Nous compromettons généralement sur la taille de «m» et essayer d'avoir aussi peu de groupes que possible. Cela permet de maintenir les coûts bas. Nous conservons généralement présent à environ 30 m = si nous utilisons la proximité d'échantillonnage pour sélectionner les ménages avec enfants admissibles. Les travaux sur cette (en regardant l'enquête "30-par-30" qui a précédé SMART) suggère qu'un minimum utile de M = 25 grappes est probablement OK.

Nous avons aussi une taille globale de l'échantillon qui est le produit de «m» et «n». Voilà ce que nous calculons habituellement lorsque vous faites un calcul de taille de l'échantillon, puis de remonter à «m» et «n».

La proportion d'enfants âgés de 6-59 mois peut affecter à la fois «m» et «n». Si cela est petit et villages sont petits alors il ne peut être (par exemple) n = 15 enfants admissibles dans la plupart des villages. Ceci est souvent le cas dans les milieux pastoraux. Dans ces endroits, il ne serait pas raisonnable d'avoir n = 25 parce que nous ne pouvons pas l'échantillon n = 25 enfants de n = 15 enfants. Dans ce cas, vous pourriez avoir n = 10, (ou n = 11, 12, 13, 14, ou 15). Depuis 'n' est maintenant petit, nous aurons besoin d'augmenter 'm' pour répondre à votre exigence globale de taille de l'échantillon. Dans ce cas, les deux «m» et «n» sont l'influence de la taille de la population.

Notez que avec un grand «M» et un petit 'n' (et en particulier lorsque n est près de prendre un recensement des clusters), nous allons avoir un petit effet de conception. Cela peut conduire à des économies. Voici un exemple illustratif:
COMMENCE AVEC: deviner prévalence = 10% précision requise = 3% taille de l'échantillon global (échantillon aléatoire simple) = 384 deviner effet de conception = 2.0 la taille globale de l'échantillon (échantillon en grappes) = 384 * 2.0 = 768 nombre de grappes = 25 taille intragrappe échantillon = 31 MAIS: population moyenne du village = 90 proportion âgés de 6 - 59 mois = 17% population moyenne du village âgés de 6 - 59 mois = 90 * 0,17 = 15 AINSI : Nouveau design effet = 1,25 (nous avons plus petits groupes) Nouvelle taille de l'échantillon = 384 * 1,25 = 480 size = 15 intragrappe échantillon nombre de grappes = 480/15 = 32

La proportion âgés de 6 - 59 mois peut également affecter la taille globale de l'échantillon.

Exemples de formules de taille ont tendance à supposer que nous échantillon à partir d'une population infiniment grand. Cette hypothèse est raisonnable si la fraction d'échantillonnage (par exemple le rapport de la taille de l'échantillon à la taille de la population) est faible. L'erreur (par exemple, la largeur de l'IC à 95%) est essentiellement la même quel que soit la taille de la population, tant que le taux d'échantillonnage est inférieur à environ 5%.

Dans l'exemple ci-dessus, nous avons n = 480. Si la taille de la population âgée de 6 - 59 mois étaient d'environ:
N = 480 * 20 = 9600

ou plus alors nous inquiétez pas.

Si la fraction d'échantillonnage est supérieure à environ 5%, puis nous appliquons une «correction de la population finie" (FPC) afin de tenir compte de la précision ajoutée acquise par l'échantillonnage d'une proportion importante de la population. La FPC peut être calculée comme suit:
FPC = sqrt ((Population - Taille de l'échantillon) / (Population - 1))

Si nous supposons une population de 4800 et d'une taille de 480 de l'échantillon alors nous avons un taux d'échantillonnage de 10%. Depuis ce est supérieure à environ 5%, nous devrions calculons un FPC:
FPC = sqrt ((4800 - 480) / (4800-1)) = 0,95

La taille de l'échantillon nécessaire est maintenant:
n = 480 * 0,95 = 456

Continuons avec notre exemple ... nous pourrions recueillir ce que 30 grappes de 15 (n = 450 est assez proche de n = 456 faire aucune différence) et nous sauver un peu de travail et un peu d'argent.

Nous ne l'appliquons pas habituellement une FPC dans les enquêtes SMART que (1) les économies sont généralement de petite taille et (2) le logiciel SMART ne règlent pas de résultats pour tenir compte de la fraction d'échantillonnage.

Je espère que cela est d'une certaine utilité.

Mark Myatt
Expert technique

Répondu:

il y a 11 années

Oups ... juste vérifier sur moi-même ... La FPC que je donne ci-dessus est la FPC pour régler la CI pour expliquer une grande partie de l'échantillonnage.

La FPC pour une taille de l'échantillon est:
new.n = (old.n * population) / (old.n + (population - 1))
En continuant avec l'exemple que nous obtenons:
new.n = (480 * 4800) / (480 + (4,800 - 1)) = 436
que nous pourrions recueillir 29 ou 15 grappes.

Désolé pour la confusion.

La morale ici (pour moi) est de vérifier ce que je vous écris avant de poster.

Je crains mon esprit va.

Mark Myatt
Expert technique

Répondu:

il y a 11 années

En réponse à la suggestion de sélectionner le premier ménage au hasard, puis procéder au ménage suivant le plus proche jusqu'à ce que les données sont recueillies sur le nombre d'enfants souhaité. Ceci est la première méthode recommandée par le Programme élargi de vaccination (PEV) il ya plusieurs années. Ce type d'échantillonnage par quotas de proximité a certains préjugés intégrés.

Bias # 1: La plupart des petits villages et des établissements relativement rurales ont une plus grande densité de logements dans le centre. Ainsi, en sélectionnant le ménage suivant le plus proche se déplace toujours l'équipe d'enquête vers le centre du village. Les gens qui vivent dans le centre d'un village sont généralement différents des gens qui vivent dans la périphérie. En conséquence, l'échantillon dans chaque village est sollicité vers ces personnes. (voir Luman ET et al Comparaison de deux méthodes d'enquête pour évaluer la couverture vaccinale Int J Epidemiol 2007; 36:.. 633-641 pour une comparaison sur le terrain).

Bias # 2: Si on commence à sélectionner les ménages d'un côté du village (qui est couramment fait pour rendre la collecte de données plus efficace) et arrête lorsque atteindre le nombre souhaité d'enfants, l'équipe ne peut jamais atteindre l'autre côté du village. En conséquence, les ménages de ce côté du village ont aucune chance d'être inclus dans l'échantillon de l'enquête. Si pour certains ménages raison à une extrémité du village différer des ménages de l'autre côté du village, un biais d'échantillonnage est introduit.

Pour ces raisons, je recommande fortement de choisir ménages par échantillonnage aléatoire systématique ou simple à partir d'une liste de tous les ménages admissibles dans cette unité d'échantillonnage primaire. Calculer la taille de l'échantillon nécessaire qui représente le nombre moyen d'individus cibles dans les ménages et les ménages prédite et non-réponse individuelle. Puis visite de chaque ménage sélectionné indépendamment du nombre d'enfants dont les données sont collectées. Cela permettrait de minimiser les biais d'échantillonnage inhérentes à la méthode PEV.

Bradley A. Woodruff
Expert technique

Répondu:

il y a 11 années

Cher Brad, merci pour le détail des éclaircissements. quand je dis sélectionnez ménages fondées "sur la méthode d'échantillonnage possible», je faisais allusion modifiés ou PEV systématique ou aléatoire.

Anonymous

Répondu:

il y a 11 années

Pour compléter le post précédent concernant la correction de la population finie pour les proportions, s'il vous plaît voir les équations 3 et 4 sur le lien suivant: http://edis.ifas.ufl.edu/pd006

La proportion des moins de cinq ans fait en effet la matière lors du calcul de la taille de l'échantillon pour les enquêtes nutritionnelles. Si vous surestimez la proportion des moins de cinq ans, il sera sous-estimé le nombre de ménages que vous devez visiter pour atteindre le nombre souhaité d'enfants. (Pour une discussion de savoir pourquoi il est recommandé de calculer la taille de l'échantillon en termes de nombre d'enfants, s'il vous plaît consulter le manuel SMART). S'il vous plaît noter que dans les enquêtes SMART, un FPC est généralement pas appliquée comme (1) des économies sont généralement de petite taille et (2) le logiciel SMART ne règlent pas de résultats pour tenir compte de la fraction d'échantillonnage. Le logiciel de l'ENA ne ajuste avec une correction de la population finie (voir bouton pour la correction de la faible population sur l'onglet Planification de l'ENA).

En ce qui concerne la première partie de la question initiale de ce fil, les résultats des tests ENA plausibilité évaluer la qualité globale des données recueillies à partir de votre enquête anthropométrique. Le test de plausibilité est un outil standard qui assure la comparabilité entre les enquêtes et donne aux gestionnaires un outil facile pour évaluer les données. Il est important d'exécuter cet outil lors de l'analyse de vos données d'enquête.
Cela dit, le score global est pas destiné à être utilisé comme un outil pour la validation définitive, mais plutôt une invite à mettre en évidence les questions clés de préoccupation. Un responsable de l'enquête qualifié doit lire chaque test et l'utiliser pour évaluer la qualité des données de l'enquête. Les tests sont un outil pour identifier à la fois biais de sélection et de mesure. Les tests peuvent également mettre en évidence les réalités du terrain. Par exemple, si votre enquête a identifié plus d'enfants plus jeunes et est donc pénalisé pour la distribution de l'âge (et a une valeur de p hautement significatif), le responsable de l'enquête doit évaluer si il ya vraiment des enfants plus jeunes dans la population cible ou si il ya un problème de biais de sélection où les enfants les plus jeunes étaient plus susceptibles d'être interrogés que les enfants plus âgés dans la population. Pour le déterminer, les gestionnaires d'enquête devraient d'abord discuter avec les réalités sur le terrain avec les équipes d'enquête et contre-vérification avec les enquêtes précédentes dans cette région. Si il ya des raisons de croire que l'échantillon peut ne pas être représentative de la population en termes d'âge, tenir compte des points de pénalité. Sinon, ces points de pénalité peuvent ainsi être «ignorés», mais la répartition par âge devraient être discutés dans la section de discussion de votre rapport d'enquête.

Pour d'autres questions relatives à la méthodologie SMART, s'il vous plaît se référer eux pour le site Web SMART: www.smartmethodology.org

Victoria Sauveplane

Répondu:

il y a 11 années


Cher Brad, je suis d'accord avec les commentaires ci-dessus, le PEV est statistiquement valide car il ne donne pas une chance égale d'unités de l'échantillon ou le sujet. Il est en train de faire sens!

James Lual

Répondu:

il y a 11 années

Cher Mark, à seulement deux commentaires à votre dernier message. Dans ENA pour SMART il ya une option pour faire une correction pour de petits échantillons et il ya longtemps que nous avons changé le mot rejet d'une enquête auprès de problématique afin d'éviter que les utilisateurs du logiciel sont poussés à manipuler des données. Il est juste une indication qu'il pourrait y avoir un problème, mais si un plus élevé que la normale SD peut être expliqué par le genre de sujets mesurées la qualité des données ne doit pas être critiqué.

Juergen Erhardt

Répondu:

il y a 11 années

Juergen, Merci pour les précisions. Je entends encore des rejets et des enquêtes rapports détenus ou soumis à un embargo par les ministères en raison d'écarts mineurs par la normalité. Un pays se vante même qu'ils ne permettent pas l'utilisation de sondages qui «échec» les tests SMART. Je ai eu assez vaste correspondance avec un poussoir SMART de la CDC qui est le plus emphatique que tout écart par rapport à la normalité ne peut être le résultat d'une erreur et croit tout autre point de vue d'être pervers. Cette personne en particulier fait beaucoup de formation SMART. Peut-être que quelqu'un doit dire aux bonnes personnes à SMART pour tuyau de descente sur cette ou, mieux encore, émettre une correction parce que le problème existe toujours.

Mark Myatt
Expert technique

Répondu:

il y a 11 années

M. Mark a présenté justifications à cet égard ..

1.
Je crois personnellement que les tests de vraisemblance ne devraient pas être utilisés pour rejeter les enquêtes. Il ya des vérifications préliminaires de surveillance, avant que les données sont analysées et le rapport de vraisemblance est préparé, basé sur ce que vous pouvez décider si l'enquête devrait être rejetée ou non 1) calcul .... de mauvais âge, 2) éligibles au titre de cinq enfants sans anthropométrique mesure 3) répétée invraisemblables les enregistrements de hauteur 4) enregistre MUAC invraisemblables


Le rapport de vraisemblance, d'autre part, mieux si utilisé à des fins de surveillance, rapport ENA plausibilité vous donne un score global de l'enquête, mais cela ne représente pas le scénario réel. Il résume le score individuel de chaque paramètre (par exemple taille, le poids et l'âge). Maintenant, considérons ce qui se passe quand vous mesurez le poids avec une balance numérique calibré, il n'y a aucune erreur humaine du tout, mais quand vous voyez au chiffre de préférence, il ya des chances le rapport serait vous montrer supérieur Poids Digit score de préférence et est compté dans le score total de l'enquête ..

Je suggère de son mieux pour utiliser les tests de vraisemblance à des fins de surveillance, en particulier l'équipe et regrouper sage.

2.
La proportion des enfants de moins de cinq ans est important à prendre dans le calcul de la taille de l'échantillon, car ceci est votre échantillonnage Univers et sans goûter dessin univers d'échantillonnage est pas possible.

Tariq Khan

Répondu:

il y a 11 années

Je me suis trompé sur le logiciel de l'ENA. Il le fait de mettre en œuvre une correction de la population finie.

Je pense que Tariq a raison de souligner le "monitoring". Il est de bonne pratique de vérifier les données dès qu'il est recueilli (superviseur et pratiques équipe tels que l'enregistreur écho des valeurs), quand il arrive pour la saisie de données (data manager, superviseur de l'enquête), à ??la saisie de données (en utilisant les valeurs morales, gamme-chèques, double entrée ou relecture), lot de contrôle (valeurs juridiques, la gamme des contrôles, y compris l'ajout d'indices et de vérification des dossiers marqués). Le point est d'identifier rapidement les problèmes et de les corriger rapidement plutôt que d'attendre jusqu'à la fin de l'enquête. Si les contrôles de plausibilité ENA aider ici, alors nous devrions certainement les utiliser.

WRT un rapport d'enquête ensemble. Il ya des questions tests WRT de signification. Si nous rejetons l'hypothèse nulle à p = 0,05, nous risquons de rejet 1 dans toutes les 20 bonnes enquêtes juste à cause de la variation d'échantillonnage. Ce code de R:
failureCount <- 0 pour (test en 1: 100000) { randomHeights <- ronde (runif (n = 500, min = 650, max = 1100), 0) finalDigits <- substr (randomHeights, nchar (randomHeights), nchar (randomHeights)) table (finalDigits) p <- chisq.test (table (finalDigits)) $ Val.par si (p <0,05) { failureCount <- failureCount + 1 } } failedProportion = failureCount / 100000 failedProportion
Simule 100.000 enquêtes sans préférence de chiffres (un peu de variation aléatoire). Le résultat est que la nulle est rejetée (comme prévu) à 5% (en réalité 4,968% dans la simulation que je courais) des enquêtes. Cela signifie que 1 à 20 bonnes enquêtes sont rejetées.

Comme la taille de l'échantillon augmente même de petits écarts de distributions prévues peuvent être statistiquement significative. Ce sera généralement seulement être un problème avec de très grandes tailles d'échantillon. L'inverse est également vrai. Avec de petits échantillons, nous ne pourrions pas détecter préférence de chiffres clairs.

Voici quelques exemples ... préférence de chiffres clair pour dernier chiffre = 0 ou 5:
dernier décompte de chiffres ---------- ----- 10 0 1 5 2 5 3 5 4 5 5 10 5 6 7 5 8 5 9 5 ---------- ----- 60 ----- chi-carré = 6,6667, df = 9, p-value = 0,6718
mais nous ne parvenons pas à rejeter l'hypothèse nulle de non-préférence de chiffres.

Voici le même modèle mais avec 10 fois la taille de l'échantillon:
dernier décompte de chiffres ---------- ----- 0 100 1 50 2 50 3 50 4 50 5 100 6 50 7 50 8 50 9 50 ---------- ----- 600 ----- chi-carré = 66,6667, df = 9, p = 0.0000
nous rejetons l'hypothèse nulle d'aucune préférence de chiffres.

Cela rend très difficile d'utiliser les tests de signification simples pour la surveillance lorsque (par exemple) une équipe pourrait apporter dans les données de deux grappes par jour (soit n = 60 ou moins).

Depuis des tests de plausibilité peuvent «détecter» les problèmes qui ne sont pas là (environ 5% du temps) et peut (avec de petits échantillons) ne parviennent pas à détecter des problèmes réels que nous devons être prudents lorsque nous les utilisons. Il est probablement mieux de "globe oculaire" (inspecter visuellement) les données pour voir si nous avons (par exemple) de trop ".0" ou "5" chiffres définitifs de hauteur.

Je espère que cela est d'une certaine utilité.

Mark Myatt
Expert technique

Répondu:

il y a 11 années

Je voulais juste être fortement d'accord avec les intervenants qui militent en faveur de ne pas utiliser le score de plausibilité pour rejeter enquêtes.

Comme l'a dit Mark, certains si le rapport est extrêmement utile alors que certains d'elle l'est moins. Le fait que le SD est un contributeur solide pour le score et donc de la chance d'enquêtes étant décrit comme problématique, est, à mon avis problématique. Oui, la quantité de variance dans un échantillon peut être un indicateur d'erreur aléatoire dans les mesures, mais également, on peut décrire la véritable nature de la distribution hétérogène.

Tout simplement parce que beaucoup de la plupart des échantillons / de l'enquête sont distribuées normalement ne signifie pas qu'ils doivent être par nature ou que ceux qui ne sont pas normale ou avoir un plus grand SD ont tort! Cette pensée est une illustration classique du problème, ou la limitation, du raisonnement inductif et pourquoi la théorie du cygne noir est si important. Autrement dit, la théorie statistique devrait aider à décrire la biologie, et ne pas essayer de définir ce qu'il est.

Donc, mon plaidoyer est pour les coordinateurs de l'enquête d'utiliser les fonctionnalités très utiles de la plausibilité de l'ENA pour aider à surveiller et à améliorer la qualité des données lors de la mise en œuvre de l'enquête, mais ne jamais utiliser le score de plausibilité par lui-même de rejeter, ou accepter, un rapport d'enquête.

Andy Seal
Expert technique

Répondu:

il y a 11 années

Vous, Mark Merci pour l'excellente démonstration des limites de prise de disque et des décisions rapides basées uniquement sur des valeurs de p. Comme un vieux superviseur fois conseillé, "Ne soyez pas ap valeur médecin!" Évaluation de la qualité des données d'enquête doit presque toujours faire appel au jugement. Utilisation des points à tronçonner quantitatifs définis arbitrairement d'accepter ou de rejeter quelque chose, que ce soit une enquête complète ou à une conclusion particulière, est trop simpliste et généralement une mauvaise idée, ce qui conduit alors à de mauvaises décisions.

Bradley A. Woodruff
Expert technique

Répondu:

il y a 11 années

Désolé pour le poste de répétition. Je oublié de mentionner que quantitatifs des contrôles de qualité des données en général, et plus particulièrement celles calculées par l'ENA, de ne mesurer que quelques-unes des nombreuses sources potentielles de biais qui peuvent interférer avec la validité des données de l'enquête. En fait, la préférence de chiffres pour les mesures longueur / hauteur, déviations standard plus grandes pour z-scores, etc. peut ni ne peut être associée à la polarisation et certainement ne mesurent pas les sources potentielles les plus forts de partialité. Seulement une conception correcte de l'enquête, la formation et la supervision attentive, et l'analyse correcte des données qui réduisent la probabilité de l'injection de biais dans les résultats de l'enquête.

Bradley A. Woodruff
Expert technique

Répondu:

il y a 11 années

Salut ... il n'y a pas beaucoup d'études sur la nutrition des adolescents dans mon pays, et aucune étude réalisée dans l'endroit où j'ai l'intention de mener mes recherches. Est-il conseillé de faire des études transversales avant de commencer l'étude d'intervention pour savoir le fossé et les sujets qui seront pertinents pendant l'intervention et également pour comparer les résultats à la fin? Je vous remercie

Andy Seal
Expert technique

Répondu:

il y a 11 années

Chers collègues, les contributions sur des tests de plausibilité sont très clear.i pense qu'il est temps que ces messages sont forés correctement dans la tête des auteurs de l'enquête, groupes de travail d'information de la nutrition et des grappes de nutrition de la campagne qui je me sens comme Mark mentionné ont soit mal compris son utilisation ou ont décidé à en abuser en menaçant les rejets de l'enquête etc.data a ensuite été overcleaned, ou manipulés et avec SMART, les enfants malnutris ont souffert plus que avant que je pense n'a pas l'intention

Josek

Répondu:

il y a 11 années

Salut, je suis Dr.Baidar Bakht Habib
i poser une question, au moins pour le nombre d'échantillons HHS nous avons besoin d'inclure dans l'évaluation SMART dans le rabotage pour nous donner la nutrition GAM résultats de taux .as standard ou nous ne disposons pas standard pour l'échantillonnage.

DR. Baidar Bakht Habib

Répondu:

il y a 8 années
Veuillez vous connecter pour poster une réponse:
Se connecter