ArticlePDF Available

Validez de contenido y juicio de expertos: Una aproximación a su utilización

Authors:
Avances en Medición, 6, 27–36
2008
VALIDEZ DE CONTENIDO Y JUICIO DE EXPERTOS: UNA
APROXIMACIÓN A SU UTILIZACIÓN
Jazmine Escobar-Pérez*
Universidad El Bosque, Colombia
Ángela Cuervo-Martínez**
Institución Universitaria Iberoamericana, Colombia
Resumen
El presente artículo se centra en la validez de contenido, específicamente, en la utilización del juicio de
expertos como parte del proceso para su estimación. Se presenta una conceptualización de la validez de
contenido, seguida de la definición y caracterización del juicio de expertos. Finalmente se propone una guía
para la realización del juicio que incluye una planilla de calificación con indicadores y la aplicación e
interpretación de los estadísticos Kappa y Kendall como índices de concordancia.
Palabras clave: Juicio de expertos, validez de contenido, estadística Kappa, Coeficiente de Kendall.
Abstract
This paper focuses on the content validity, specifically, on the use of experts judgments as part of the process
to estimate it. First, a content validity conceptualization is introduced, followed by the definition and
characterization of the experts judgment. Finally, a guide to carry out the judgment is proposed including a
grade chart with indicators and the application and interpretation of the Kappa and Kendall statistics as
concordance indexes.
Key words: Experts judgment, content validity, Kappa’s statistics Kendall’s coefficient.
Introducción
Una pregunta que surge cuando se intenta medir el comportamiento es qué tan válida y confiable es la
medición. El presente escrito se centra en la validez de contenido, específicamente, en la utilización del
juicio de expertos como parte del proceso para su estimación. Esta técnica debe realizarse de manera
adecuada, ya que muchas veces constituye el único indicador de la validez de contenido. Actualmente el
juicio de expertos es una práctica generalizada que requiere interpretar y aplicar sus resultados de manera
acertada, eficiente y con toda la rigurosidad metodológica y estadística, para permitir que la evaluación
basada en la información obtenida de la prueba pueda ser utilizada con los propósitos para la cual fue
diseñada.
La validez de contenido se establece en diferentes situaciones, siendo dos de las más frecuentes: (a) el
diseño de una prueba, y (b) la validación de un instrumento que fue construido para una población
diferente, pero que se adaptó mediante un procedimiento de traducción (equivalencia semántica). Hyrkäs,
Appelqvist--Schmidlechner y Oksa (2003) plantean que es muy frecuente que instrumentos que ya han
sido estandarizados en países de habla inglesa sean utilizados en países de habla no inglesa, por lo cual se
debe realizar el proceso de traducción, adaptación y estandarización del instrumento para dichos países.
Estos procesos presentan dificultades importantes, ya que la sola adaptación del instrumento no
necesariamente genera una equivalencia cultural debido a las barreras del idioma, a significados culturales
* Facultad de Psicología Universidad El Bosque, Bogotá-Colombia. E-mail: escobarjazmine@unbosque.edu.co
** Facultad de Psicología Institución Universitaria Iberoamericana, Bogotá-Colombia. E-mail: cuervomla@hotmail.com
28 Escobar-Pérez & Cuervo-Martínez
diferentes de un constructo particular o a una variedad de interpretaciones de un comportamiento
observado basado en normas culturales. Es por esto que se hace necesario validar dichos instrumentos en
términos de su contenido, y es allí donde la evaluación realizada por expertos cobra especial relevancia,
pues son ellos quienes deben eliminar los ítems irrelevantes y modificar los ítems que lo requieran, como
en el caso de expresiones idiomáticas.
En este contexto surgen los objetivos del presente artículo: (a) Realizar una aproximación a la
conceptualización de la validez de contenido y del juicio de expertos, (b) proponer un procedimiento para
su realización, y (c) brindar algunas alternativas estadísticas para el análisis de los datos obtenidos del
proceso que permitan tomar decisiones.
Validez de contenido
La validez de contenido consiste en qué tan adecuado es el muestreo que hace una prueba del universo
de posibles conductas, de acuerdo con lo que se pretende medir (Cohen & Swerdik, 2001); los miembros
de dicho universo U pueden denominarse reactivos o ítems. Para autores como Ding y Hershberger
(2002), la validez de contenido es un componente importante de la estimación de la validez de inferencias
derivadas de los puntajes de las pruebas, ya que brinda evidencia acerca de la validez de constructo y
provee una base para la construcción de formas paralelas de una prueba en la evaluación a gran escala.
Para establecer un posible universo de reactivos se requiere tener una adecuada conceptualización y
operacionalización del constructo, es decir, el investigador debe especificar previamente las dimensiones a
medir y sus indicadores, a partir de los cuales se realizarán los ítems. Los ítems deben capturar las
dimensiones que la prueba pretende medir, por ejemplo, en la prueba de procesos lectores (PROLEC) de
Cuetos, Rodríguez y Ruano (2001) el constructo procesos lectores está evaluado en las dimensiones de
procesos sintácticos, semánticos y pragmáticos. Los ítems seleccionados deben por tanto medir las
dimensiones del constructo: Un error de validez de contenido sería que la dimensión semántica no tuviera
ningún ítem que la evaluara, o que los ítems de la dimensión sintáctica sólo evaluaran una parte de ésta, al
contrastar con lo que se pretende evaluar en dicha dimensión.
El constructo medido por el instrumento y el uso que se les dará a las puntuaciones obtenidas son
aspectos fundamentales tanto para la estimación como para la conceptualización de la validez de
contenido. En efecto, en la evaluación de un instrumento debe tenerse en cuenta su función, es decir, si
será utilizado para el diagnóstico, la medición de habilidades o la medición de desempeño, entre otros; los
índices de validez para una función de un instrumento no son necesariamente generalizables a otras
funciones del mismo instrumento (Ding & Hershberger, 2002). A su vez, la validez de contenido no sólo
puede variar de acuerdo con las poblaciones en las cuales será utilizado el instrumento, sino que puede
estar condicionada por un dominio particular del constructo; diferentes autores pueden asignarle el mismo
nombre a un constructo, pero poseer diferentes dimensiones y conceptualizaciones, por lo tanto, un
instrumento puede tener una validez de contenido satisfactoria para una definición de un constructo pero
no para otras. En síntesis, el concepto esencial de validez de contenido es que los ítems de un instrumento
de medición deben ser relevantes y representativos del constructo para un propósito evaluativo particular
(Mitchell, 1986, citado en Ding & Hershberger, 2002)
Juicio de expertos
La validez de contenido generalmente se evalúa a través de un panel o un juicio de expertos, y en muy
raras ocasiones la evaluación está basada en datos empíricos (Ding & Hershberger, 2002). En
concordancia con esto, Utkin (2005) plantea que el juicio de expertos en muchas áreas es una parte
importante de la información cuando las observaciones experimentales están limitadas. Esta aseveración
Validez de contenido y juicio de expertos 29
es particularmente cierta en el caso de la psicología, donde dicho juicio se ha convertido en la estrategia
principal para la estimación de la validez de contenido.
El juicio de expertos se define como una opinión informada de personas con trayectoria en el tema, que
son reconocidas por otros como expertos cualificados en éste, y que pueden dar información, evidencia,
juicios y valoraciones. La identificación de las personas que formarán parte del juicio de expertos es una
parte crítica en este proceso, frente a lo cual Skjong y Wentworht (2000) proponen los siguientes criterios
de selección: (a) Experiencia en la realización de juicios y toma de decisiones basada en evidencia o
experticia (grados, investigaciones, publicaciones, posición, experiencia y premios entre otras), (b)
reputación en la comunidad, (c) disponibilidad y motivación para participar, y (d) imparcialidad y
cualidades inherentes como confianza en sí mismo y adaptabilidad. También plantean que los expertos
pueden estar relacionados por educación similar, entrenamiento, experiencia, entre otros; y en este caso la
ganancia de tener muchos expertos disminuye. Otros autores como McGartland, Berg, Tebb, Lee y Rauch
(2003), proponen como criterio básico de selección únicamente el número de publicaciones o la
experiencia. Para una discusión sobre educación vs. experiencia en los jueces, ver Summers, Williamson y
Read (2004).
De otra parte, el número de jueces que se debe emplear en un juicio depende del nivel de experticia y
de la diversidad del conocimiento; sin embargo, la decisión sobre qué cantidad de expertos es la adecuada
varía entre autores. Así, mientras Gable y Wolf (1993), Grant y Davis (1997), y Lynn (1986) (citados en
McGartland et al. 2003) sugieren un rango de dos hasta 20 expertos, Hyrkäs et al. (2003) manifiestan que
diez brindarían una estimación confiable de la validez de contenido de un instrumento. Si un 80 % de los
expertos han estado de acuerdo con la validez de un ítem éste puede ser incorporado al instrumento
(Voutilainen & Liukkonen, 1995, citados en Hyrkäs et al. (2003).
El juicio de expertos se usa en múltiples ámbitos de la evaluación psicológica, desde la medición de la
confiabilidad de los profesionales en salud mental para evaluar la competencia de pacientes psiquiátricos
respecto al consentimiento informado (Kitamura & Kitamura, 2000), hasta la validación de contenido de
pruebas estandarizadas de altas especificaciones. Existen muchos ejemplos de la utilización específica del
juicio de expertos, entre ellos se encuentran Olea, Abad y Ponsoda (2002), quienes diseñaron y calibraron
un banco de ítems (635) de conocimiento en gramática inglesa; y Lobo et al. (2003), quienes realizaron la
primera validación en español del método INTERMED (sistema de detección temprana de problemas
biopsicosociales) y del uso de servicios en pacientes médico- quirúrgicos, asimismo se encuentran
aplicaciones del juicio de expertos en el área de detección de riesgos y fiabilidad de procesos.
Pasos para realizar un juicio de expertos
Varios autores como Skjong y Wentworht (2000), y de Arquer (1995) han propuesto diversos pasos
para la realización del juicio de expertos: (a) Preparar instrucciones y planillas, (b) seleccionar los
expertos y entrenarlos, (c) explicar el contexto, (d) posibilitar la discusión, y (e) establecer el acuerdo
entre los expertos por medio del cálculo de consistencia. Además de estos pasos comunes a los diferentes
autores, se debe instruir claramente al juez en la dimensión y el indicador que mide cada ítem o un grupo
de ellos. Es de especial relevancia brindar información sobre el uso que tendrán los resultados de la
prueba, ya que como se mencionó en un apartado anterior, estos están estrechamente relacionados con la
validez de contenido. En efecto, utilizaciones diferentes de las puntuaciones harán que varíe la pertinencia
y suficiencia de los ítems.
Si tomamos el caso de una prueba de autoestima para deportistas de alto rendimiento, por ejemplo, es
diferente el valor que se le atribuye a los ítems si la prueba se va a usar para seleccionar a los deportistas
que asistirán a competencias de alta exigencia por primera vez, que si se van a usar para describir un perfil
de los diferentes aspectos psicológicos que pueden tener efecto en el desempeño del deportista. En el
primer caso los ítems de autoeficacia (una dimensión de la autoestima) deben tener una ponderación más
30 Escobar-Pérez & Cuervo-Martínez
alta o ser mayor en número frente a otras dimensiones como el autoconcepto y la autoimagen; en el
segundo caso, la prueba de autoestima debe medir equilibradamente todas las dimensiones.
Existen varios métodos para la obtención de juicios de expertos, que pueden clasificarse según si la
evaluación se realiza de manera individual o grupal. En el primer grupo se encuentran algunos como el
método de agregados individuales y el método Delphi, en ambos métodos cada juez realiza la evaluación
individualmente, pero en el Delphi, luego de analizar las respuestas se le envía a cada juez la mediana
obtenida y se le pide que reconsidere su juicio hasta que se logre un consenso (de Arquer, 1995). Según
Van Der Fels-Klerx, Gossens, Saaticamp y Horst (2002) esta técnica ofrece un alto nivel de interacción
entre los expertos, evitando las desventajas de la dinámica grupal.
Entre las técnicas grupales se encuentra la nominal y el consenso, en ambas se requiere reunir a los
expertos, pero en la última se exige mayor nivel de acuerdo. Estas técnicas pueden tener problemas si se
generan discusiones tensas o si existen variables individuales como la personalidad y las habilidades
sociales de los jueces que generen sesgos. Otro procedimiento utilizado para el juicio de expertos se basa
en el emparejamiento de los ítems con el dominio. En este caso se entrega a los jueces una lista de
objetivos (categorías) y se les presenta cada ítem en una ficha separada. El juez compara cada ítem con la
lista y registra el resultado en una hoja de respuestas, indicando al lado de cada ítem el mero del
objetivo. (Martínez, 1995). La precisión de los juicios según Stewart, Roebber y Bosart, (1997) depende
tanto de las características de los jueces y de su experiencia, como de las características de la tarea. Dentro
de esta última, la teoría cognitiva sugiere tres categorías importantes: (a) La complejidad de la estructura
de la tarea, (b) la ambigüedad en el contenido de la tarea, y (c) la forma de la presentación de la tarea.
Guía para la realización de un juicio de expertos
El juicio de expertos es un procedimiento que nace de la necesidad de estimar la validez de contenido
de una prueba. Para realizarlo se debe recabar información de manera sistemática. A continuación se
proponen una serie de pasos que permiten organizar la información, de manera que el proceso de juicio de
expertos sea más eficiente.
1. Definir el objetivo del juicio de expertos. En este apartado los investigadores deben tener clara la
finalidad del juicio, ya que puede utilizarse con diferentes objetivos: (a) Establecer la equivalencia
semántica de una prueba que se encuentra validada en otro idioma, (b) evaluar la adaptación cultural, es
decir, el objetivo de los jueces es evaluar si los ítems de la prueba miden el mismo constructo en una
cultura distinta; así por ejemplo, los ítems que midan agresividad en una prueba validada en el Tibet,
pueden no estar midiendo lo mismo en Alemania, y (c) validar contenido en una prueba diseñada por un
grupo de investigadores.
2. Selección de los jueces. Para ello han de tomarse en cuenta los criterios especificados anteriormente
para la selección, considerando la formación académica de los expertos, su experiencia y reconocimiento
en la comunidad. Se propone un mínimo de cinco jueces, dos de los cuales deben ser expertos en medición
y evaluación, y para el caso de traducciones y adaptaciones de pruebas, se requiere por lo menos un
experto en lingüística.
3. Explicitar tanto las dimensiones como los indicadores que está midiendo cada uno de los ítems de
la prueba. Esto le permitirá al juez evaluar la relevancia, la suficiencia y la pertinencia del ítem. No hay
que dar por sentado que el juez únicamente con la descripción del constructo a medir pueda identificarlo
claramente, ya que como se mencionó anteriormente, es posible que existan diferentes definiciones de un
mismo constructo.
4. Especificar el objetivo de la prueba. El autor debe proporcionar a los jueces la información
relacionada con el uso de la prueba, es decir, para qué van a ser utilizados los puntajes obtenidos a partir
Validez de contenido y juicio de expertos 31
de ésta. Esto aumenta la contextualización del juez respecto a la prueba, incrementando a su vez el nivel
de especificidad de la evaluación; ya que la validez de los ítems está directamente relacionada con su
utilización, por ejemplo, para hacer un diagnóstico o un tamizaje, o evaluar desempeño, entre otros.
5. Establecer los pesos diferenciales de las dimensiones de la prueba. Esto sólo se hace cuando
algunas de las dimensiones tienen pesos diferentes. Por ejemplo, si una prueba va a ser utilizada para el
diagnóstico y asignación a un programa de rehabilitación de una adicción, se debe dar mayor peso a las
dimensiones que midan la calidad de vida que a las que evalúen personalidad adictiva.
6. Diseño de planillas. La planilla se debe diseñar de acuerdo con los objetivos de la evaluación. No
obstante, en el Anexo 1 proponemos una planilla que puede ser utilizada en la gran mayoría de juicios de
expertos, con sus respectivos indicadores para la calificación.
7. Calcular la concordancia entre jueces. Para esto se utilizan los estadísticos Kappa y Kendall que se
describirán a continuación. La información sobre cada estadístico, las hipótesis de trabajo y los criterios de
interpretación, se muestran en la tabla 1.
8. Elaboración de las conclusiones del juicio que serán utilizadas para la descripción psicométrica de la
prueba.
Estadísticos para análisis
Para estimar la confiabilidad de un juicio de expertos, es necesario conocer el grado de acuerdo entre
ellos, ya que un juicio incluye elementos subjetivos (Aiken, 2003). Cuando la medida de acuerdo obtenida
es alta indica que hay consenso en el proceso de clasificación o asignación de puntajes entre los
evaluadores, igualmente da cuenta de la intercambiabilidad de los instrumentos de medición y
reproducibilidad de la medida. (Ato, Benavente & López, 2006).
Para determinar el grado de acuerdo entre los jueces se han utilizado diferentes procedimientos, una
aproximación inicial fue calcular el porcentaje de acuerdo, medida que resulta insuficiente ya que no
incluye el acuerdo esperado por el azar (Jakobsson & Westergren, 2005). Luego se incluyeron medidas de
correlación que eran interpretadas como índices de acuerdo; sin embargo un alto índice de correlación no
necesariamente implica que el acuerdo sea alto también. Artstein y Poesio (2005) adaptaron un ejemplo de
Barko y Carpenter (1976) (citados en Artstein & Poesio, 2005) que refleja esta situación: En dos
evaluaciones, dos codificadores asignaban a cada ítem una puntuación entre uno y diez, en la primera
evaluación los codificadores A y B están completamente de acuerdo; en la segunda evaluación los
codificadores C y D están en desacuerdo en todos los ítems, pero les asignan valores que están linealmente
correlacionados. En los dos casos se obtiene el mismo índice, con lo que queda claramente expresada la
inconveniencia de medidas únicamente de correlación para la estimación del acuerdo.
Posteriormente se propuso el coeficiente Kappa, que se convirtió rápidamente en el índice de acuerdo
más utilizado en ciencias biológicas y sociales. Inicialmente el coeficiente se utilizaba únicamente en
datos nominales, después se hizo una generalización para incluir datos ordinales a este nuevo coeficiente
al que se le denominó weighted k-coefficient. Kendall también propuso un coeficiente de acuerdo para
datos ordinales, basado en el grado de varianza de la suma de los rangos obtenidos de los diferentes
jueces. Actualmente se vienen investigando otros procedimientos para estimar el acuerdo, se están
aplicando los modelos log-lineales y los mixtos (mezcla de distribuciones). En el primero se analizan tanto
la estructura del acuerdo como la del desacuerdo que se presentan en los datos, con este enfoque se puede
conocer el ajuste del modelo y se puede aplicar a datos ordinales; mientras que en el segundo se incluyen
variables latentes (Ato et al., 2006).
32 Escobar-Pérez & Cuervo-Martínez
Estadístico Kappa. Este estadístico genera una medida de acuerdo entre evaluadores y se utiliza
cuando las variables están dadas en una escala nominal, es decir únicamente clasifican. Por ejemplo, un
juez clasifica los ítems de una prueba de conocimientos en contestables o no contestables por una persona
que tenga un nivel adecuado de conocimiento en el área, o el caso de psicólogos clínicos que tienen que
clasificar a pacientes entre los que requieren seguimiento permanente y los que no.
El estadístico tiene un rango entre -1 y 1, pero generalmente se ubica entre 0 y 1. Si el coeficiente es 1
indica acuerdo perfecto entre los evaluadores, si es 0 indica que el acuerdo no es mayor que el esperado
por el azar, y si el valor del coeficiente es negativo el nivel se acuerdo es inferior al esperado por el azar
(Sim & Wright, 2005). No obstante, obtener estos valores extremos es improbable, lo común es obtener un
amplio espectro de valores intermedios que se interpretan teniendo como referencia la complejidad de la
evaluación y el número de categorías a evaluar, es decir, la interpretación es relativa al fenómeno medido.
En el caso de los psicólogos que deciden cuáles pacientes requieren supervisión y cuáles no, como la
complejidad de la evaluación es moderada (con sólo dos categorías de clasificación), se espera un alto
acuerdo entre ellos. Un acuerdo de 0.55 sería considerado bajo, y se podría inferir que hay dificultad en la
clasificación, o que incluso, pueden tener ambigüedad en los indicadores que les permiten decidir en uno u
otro sentido. En otro caso, si en un colegio el objetivo es clasificar los alumnos con trastornos de
aprendizaje y discapacidad, para identificar el número de casos de dislexia, discalculia, disgrafía,
discapacidad cognoscitiva, y discapacidad sensorial; obtener 0.55 se interpretaría como un índice de
acuerdo moderado, atendiendo a la mayor complejidad de la evaluación. Sin embargo si dicha
clasificación se va a realizar con el objetivo de enviarlos a terapia o a aulas de apoyo se requiere un
acuerdo mayor, al igual que si se trata de ítems para validación de una prueba.
El coeficiente de Kappa tiene como ventaja que corrige el porcentaje de acuerdo debido al azar y es
muy sencillo de calcular. Sin embargo, se han realizado varias críticas principalmente relacionadas con
que el índice de acuerdo se ve afectado por el número de categorías y por la forma en la que están
distribuidas las observaciones.
Coeficiente de concordancia W de Kendall: Este coeficiente se utiliza cuando se quiere conocer el
grado de asociación entre k conjuntos de rangos (Siegel & Castellan, 1995), por lo cual es particularmente
útil cuando se les solicita a los expertos asignarle rangos a los ítems, por ejemplo de 1 a 4. El mínimo
valor asumido por el coeficiente es 0 y el máximo 1, y su interpretación es la misma que para el
coeficiente de Kappa. Sin embargo, hay que hacer la salvedad que hay que revisar la calificación dada a
cada ítem, ya que puede haber una alta concordancia en los aspectos, un ejemplo de ello es que el ítem no
sea adecuado. Obviamente en este caso se debe eliminar o modificar el ítem completamente hasta que
ajuste a los objetivos de la medición de forma acertada.
Según Siegel y Castellan (1995), un valor alto de la w puede interpretarse como un reflejo de que los k
observadores o jueces están aplicando los mismos estándares al asignar rangos a los ítems. Esto no
garantiza que los ordenamientos observados sean correctos, ya que todos los jueces pueden concordar si
todos están utilizando un criterio incorrecto para clasificar. Es debido a esto último que el criterio de
selección de jueces cobra especial relevancia al igual que la independencia entre los mismos.
Para estimar en SPSS 14 el coeficiente de Kappa siga estos pasos: a) Haga clic en Analizar y
seleccione Estadísticos descriptivos, b) Haga clic en Tablas de contingencia, allí encontrará un cuadro de
diálogo y c) Haga clic en Estadísticos y seleccione Kappa.
Para estimar en SPSS 14 el coeficiente de Kendall siga estos pasos: a) Haga clic en Analizar y
seleccione Pruebas no paramétricas, b) Haga clic en k muestras relacionadas y seleccione W de Kendall y
c) seleccione Kendal (ver tabla 1).
Validez de contenido y juicio de expertos 33
Tabla 1.
Resumen de estad´siticos para el análisis de los datos
COEFICIENTES ESCALA
DE LOS
DATOS
INFORMACIÓN
QUE PROVEE
HIPÓTESIS RECHAZO DE H0 E
INTERPRETACIÓN
Coeficiente de
concordancia W de
Kendall
Escala
ordinal.
El grado de
concordancia entre
varios rangos de n
objetos o individuos.
Aplicable a estudios
interjuicio o
confiabilidad
interprueba.
H0: Los rangos son
independientes, no
concuerdan.
H1: Hay concordancia
significativa entre
los rangos.
Se rechaza H0 cuando el valor
observado excede al valor crítico
(con un α de 0.05). El SPSS
indica el nivel de significancia, y
cuando es inferior al 0.05, se
rechaza la H0 y se concluye que
hay concordancia significativa
entre los rangos asignados por los
jueces. Además se interpreta la
fuerza de la concordancia, que
aumenta cuando W se acerca a 1.
Estadístico Kappa
(K) para datos en
escalas nominales.
Escala
nominal
El grado de acuerdo
entre evaluadores
H0: El grado de
acuerdo es 0, es
decir no hay
acuerdo.
H1: Existe un
acuerdo significativo
entre evaluadores, es
decir K >0
Al igual que en el caso anterior se
rechaza H0 cuando el valor
observado excede al valor crítico
(con un α de 0.05). El SPSS
indica el nivel de significancia, y
cuando es inferior al 0.05, se
rechaza la H0 y se concluye que
hay acuerdo entre los
evaluadores, el valor de k brinda
la proporción de acuerdo
quitándole el acuerdo que puede
darse por azar.
Recomendaciones finales
Hay aspectos dentro del juicio de expertos que no pueden ser controlados por el investigador, como por
ejemplo la complejidad o el nivel de dificultad de la tarea; sin embargo, los factores de ambigüedad del
contenido de la tarea y su forma de presentación deben manejarse en el procedimiento de juicio de
expertos de manera que no aumenten el error ni disminuyan la confiabilidad. Otro aspecto a considerar es
que el investigador debe propiciar el contexto adecuado para obtener la mayor cantidad de información
posible de los jueces expertos y solicitar opiniones adicionales sobre la prueba que pueden dar
información sobre aspectos que no se evaluaron en el juicio. Finalmente, se debe recordar que aunque una
prueba obtenga una muy buena evaluación de los jueces y un alto índice de concordancia, debe estar en
continua revisión y mejoramiento.
Referencias
Aiken, Lewis (2003). Test psicológicos y evaluación. México: Pearson Education.
Artstein, R. & Poesio, M. (2005). Kappa3 = Alpha (or Beta). (Technical Report CSM-437). Department of
Computer Science: University of Essex.
Ato, M., Benavente, A., & López, J. J. (2006). Análisis comparativo de tres enfoques para evaluar el acuerdo entre
observadores. Psicothema, 18(3), 638 – 645.
Cohen, R. & Swerdlik, M. (2001). Pruebas y evaluación psicológicas: Introducción a las pruebas y a la medición. (4ª
ed.). México: Mc Graw Hill.
Cuetos, F., Rodríguez, B & Ruano, E (2001). PROLEC, Batería de evaluación de los procesos lectores de los niños
de educación primaria. Madrid: TEA Ediciones.
34 Escobar-Pérez & Cuervo-Martínez
de Arquer, M. (1995). Fiabilidad Humana: métodos de cuantificación, juicio de expertos. Centro Nacional de
Condiciones de Trabajo. Recuperado el 3 de Junio de 2006, de http://www.mtas.es/insht/ntp/ntp_401.htm
Ding, C. & Hershberger, S. (2002). Assessing content validity and content equivalence using structural equation
modeling. Structural Equation Modeling: A Multidisciplinary Journal, 9 (2), 283-297.
Hyrkäs, K., Appelqvist-Schmidlechner, K & Oksa, L. (2003). Validating an instrument for clinical supervision using
an expert panel. International Journal of nursing studies, 40 (6), 619 -625.
Jakobsson, U. &y Westergren, A. (2005). Statistical methods for assessing agreement for ordinal data. Scandinavian
Journal of sCaring Science, 19(4), 427-431.
Kitamura, T. & Kitamura, F. (2000). Reliability of clinical judgment of patients’ competency to give informed
consent: A case vignette study. Psychiatry and Clinical Neurosciences, 54(2), 245-247.
Lobo, E. Bellido, M. Campos, R., Saz, P., Huyse, F., De Jonge, P. & Lobo, A. (2003). Primera validación en
español del método INTERMED: Un sistema de temprana detección de problemas biopsicosociales y de
consumo de servicios en pacientes médico-quirúrgicos. Cuadernos de Medicina Psicosomática y Psiquiatría de
Enlace, 67/68, 89- 97.
Martínez, R. (1995). Psicometría: teoría de los test psicológicos y educativos. Madrid: Editorial Síntesis.
McGartland, D. Berg, M., Tebb, S. S., Lee, E. S. & Rauch, S. (2003). Objectifying content validity: Conducting a
content validity study in social work research. Social Work Research, 27 (2), 94-104.
Olea, J, Abad, F. J. & Ponsoda, V. (2002). Elaboración de un banco de ítems, predicción de la dificultad y diseño de
anclaje. Metodología de las ciencias del comportamiento, Vol. Especial, 427-430.
Siegel, S. & Castellan, N. J. (1995) Estadística no paramétrica aplicada a las ciencias de la conducta. México: Trillas.
Sim, J. & Wright, C. (2005) The Kappa statistic in reliability studies: Use, interpretation, and sample size
requirements. Physical Therapy, 85 (3), 257-268.
Skjong, R. & Wentworth, B. (2000). Expert Judgement and risk perception. Recuperado el 15 de Enero de 2006, de
http://research.dnv.com/skj/Papers/SkjWen.pdf
Stewart, T., Roebber, P. & Bosart, L. (1997). The importance of the task in analyzing expert judgment.
Organizational Behavior and Human Decision processes, 69 (3), 205-219.
Summers, B., Williamson, T. & Read, D. (2004). Does method of acquisition affect the quality of expert judgment?
A comparison of education with on-the-job learning. Journal of Occupational and Organizational Psychology.
77(2), 237-258.
Utkin, L. V. (2006). A method for processing the unreliable expert judgments about parameters of probability
distributions. [Versión Electrónica]. European Journal of Operational Research. 175(1), 385-398.
Van Der Fels-Klerx, I. Gossens, L. Saaticamp, H & Horst, S. (2002). Elicitation of quantitative data from a
heterogeneous Expert Panel: Formal process and application in animal health. Risk Analisis, 22 (1), 67-81.
Manuscrito recibido en Septiembre de 2006
Aceptado para publicación en Noviembre de 2007
Validez de contenido y juicio de expertos 35
Anexo 1: Planillas Juicio de Expertos
Respetado juez: Usted ha sido seleccionado para evaluar el
instrumento_________________________________ que hace parte de la investigación
________________________________. La evaluación de los instrumentos es de gran relevancia para
lograr que sean válidos y que los resultados obtenidos a partir de éstos sean utilizados eficientemente;
aportando tanto al área investigativa de la psicología como a sus aplicaciones. Agradecemos su valiosa
colaboración.
NOMBRES Y APELLIDOS DEL JUEZ: ___________________________________________________________
FORMACIÓN ACADÉMICA ___________________________________________________________________
AREAS DE EXPERIENCIA PROFESIONAL______________________________________________________
TIEMPO_________ CARGO ACTUAL _____________________________________________
INSTITUCIÓN_______________________________________
Objetivo de la investigación:
______________________________________________________________________
Objetivo del juicio de expertos: ___________________________________________________________________
Objetivo de la prueba: ___________________________________________________________________________
De acuerdo con los siguientes indicadores califique cada uno de los ítems según corresponda.
CATEGORIA CALIFICACIÓN INDICADOR
SUFICIENCIA
Los ítems que pertenecen a
una misma dimensión
bastan para obtener la
medición de ésta.
1 No cumple con el criterio Los ítems no son suficientes para medir la dimensión
2. Bajo Nivel Los ítems miden algún aspecto de la dimensión pero no
corresponden con la dimensión total
3. Moderado nivel Se deben incrementar algunos ítems para poder evaluar la
dimensión completamente.
4. Alto nivel Los ítems son suficientes
CLARIDAD
El ítem se comprende
fácilmente, es decir, su
sintáctica y semántica son
adecuadas.
1 No cumple con el criterio El ítem no es claro
2. Bajo Nivel El ítem requiere bastantes modificaciones o una
modificación muy grande en el uso de las palabras de
acuerdo con su significado o por la ordenación de las
mismas.
3. Moderado nivel Se requiere una modificación muy específica de algunos
de los términos del ítem.
4. Alto nivel El ítem es claro, tiene semántica y sintaxis adecuada.
COHERENCIA
El ítem tiene relación
lógica con la dimensión o
indicador que está
midiendo.
1 No cumple con el criterio El ítem no tiene relación lógica con la dimensión
2. Bajo Nivel El ítem tiene una relación tangencial con la dimensión.
3. Moderado nivel El ítem tiene una relación moderada con la dimensión que
esta midiendo.
4. Alto nivel El ítem se encuentra completamente relacionado con la
dimensión que está midiendo.
RELEVANCIA 1 No cumple con el criterio El ítem puede ser eliminado sin que se vea afectada la
medición de la dimensión
2. Bajo Nivel El ítem tiene alguna relevancia, pero otro ítem puede estar
incluyendo lo que mide éste.
36 Escobar-Pérez & Cuervo-Martínez
El ítem es esencial o
importante, es decir debe
ser incluido.
3. Moderado nivel El ítem es relativamente importante.
4. Alto nivel El ítem es muy relevante y debe ser incluido.
DIMENSIÓN ITEM SUFICIENCIA* COHERENCIA RELEVANCIA CLARIDAD OBSERVACIONES
X1
X2
X3
¿Hay alguna dimensión que hace parte del constructo y no fue evaluada? ¿Cuál?____________________________
____________________________________________________________________________________________
*Para los casos de equivalencia semántica se deja una casilla por ítem, ya que se evaluará si la traducción o el
cambio en vocabulario son suficientes.
... The content validation method provided an instrument to measure the verdicts of the judges on the items and the stages of the content validation process (18). The experts were selected based on their knowledge and experience: two in conduct, one in nutrition and one in tourism. ...
... The 4 expert judges come from different states in the north, center and south of the country (Baja California Sur, Jalisco and Veracruz). In the first stage, the four judges evaluated each item of the first version of the instrument in terms of its congruence (whether the item has a logical relationship with the dimension or indicator it measures) and clarity (whether the item is easily understood; whether the syntax and semantics are adequate) on a scale of 1 to 4, according to a widely used instrument (18). For the judges' evaluations, the mode and median of each item were obtained, and the agreement between judges was calculated using Kendall's W to validate the content of the congruence criteria (Kendall's W = 0.501, X 2 = 318.24 ...
Article
Full-text available
Background and aim: Tourist travels are an excellent setting to study eating behavior's dimensions. Multiple factors of the food system can affect these dimensions, such as companions, food availability, weather, food environment, and lodging options. The Travelers' Feeding Behavior Change Questionnaire (TFBCQ) validated for Mexican Travelers (MxT) is a multidisciplinary analysis instrument that integrates different study areas: tourism, nutrition, and psychology for behavior analysis. The aim was to validate a virtual instrument to assess eating behavior in Mexican travelers based on theoretical constructs. Methods: The scale's content validity reached significant values when evaluated by expert judges, with moderate intensity in Kendall's W congruence (Kendall's W = 0.462; p = 0.000). Participants were 312 Mexican adults; 63% were women, 36% were men, 3% identified as gender fluid, and another 3% did not give gender information. We performed a factorial analysis (FA) with 53 items grouped into 12 factors, which explained 73% of the accumulated variance. Results: Factors in this questionnaire were (1) Consumption behavior before travel, (2) Eating behavior during outbound transfer, (3) Eating behavior during the stay, (4) Eating behavior during the return transfer, (5) Eating behavior back home, (6) consumption schedule, (7) consumption duration, (8) Consumption companion, (9) consumption motivation, (10) Physical Activity, (11) BMI, (12) Future consumption behavior. Cronbach's alpha value was 0.759. Conclusions: the TFBCQ questionnaire is an excellent instrument to evaluate changes in eating behavior in a feeding episode due to modification of spaces and temporalities in Mexican travelers.
... Así, se contó con 10 expertos (tres profesores ayudantes doctores de universidad, un pro-29 Alfabetización ambiental en la formación inicial docente: diseño y validación de un cuestionario ENSEÑANZA DE LAS CIENCIAS, 40-1 (2022), 25-46 fesor asociado de universidad, tres catedráticos de universidad, dos profesores titulares de universidad y un experto en EA). Se les proporcionó una plantilla de validación de la claridad y pertinencia de cada ítem empleando una escala Likert, tomando como referencia el modelo de cuestionario inicial (Escobar-Pérez y Cuervo-Martínez, 2008). Además, se habilitó un último apartado para expresar cualquier tipo de reflexión, observación o propuesta de mejora. ...
... Uno de los procesos que consideramos necesarios para su utilización con garantías de éxito, fue la validación de los ítems y los constructos que lo componen. Para ello, hemos utilizado el juicio de expertos y la prueba piloto (Ding y Hershberger 2002, Cabero y Llorente 2013, Escobar y Cuervo 2008. La validación por juicio de expertos es un método ampliamente utilizado para este tipo de instrumentos, siendo muy frecuente en el terreno de las investigaciones educativas (Bakieva et al. 2018, Cabello y Carrera 2017, Dorantes-Nova et al. 2016, López de Arana et al. 2020, del Pino et al. 2019. ...
... The research data were validated using an expert judgement technique that was conducted by a senior lecturer in the field. According to Escobar-Pérez & Cuervo-Martínez (2008). Validez de contenido y juicio de expertos: una aproximación a su utilización. ...
... también permite el cálculo del coeficiente W en forma completa, aunque su interfaz es menos amigable que PSPP o SPSS®.Los ejemplos mostrados pusieron de manifiesto que pueden presentarse diversas situaciones en la práctica: acuerdo bajo, alto o máximo(Aiken, 1985;Arízaga Piedra, Monge Loja & Muñoz Pauta, 2019;Escobar-Pérez & Cuervo-Martínez 2008;Siegel & Castellán, 1995). ...
Article
Full-text available
23 Esta obra está bajo la Licencia Creative Commons Atribución 4.0 Internacional Se puede citar: Maskavizan, A. J., Poco, A. N., Calzolari, A. (2023). Aspectos prácticos del uso del coeficiente de concordancia W de Kendall para el jueceo de cuestionarios en enfermería. Arandu Poty; 2(2):23-32. RESUMEN La adaptación de un cuestionario es un proceso necesario en diversas áreas disciplinares, que en forma creciente se está aplicando en la Enfermería. Siempre se plantea el interrogante acerca de la calidad y cantidad de las preguntas que lo conforman, su redacción o su contenido. Previo al análisis de validez de contenido, es necesario determinar el grado de acuerdo que existe entre un grupo de personas expertas que evalúan un instrumento. Para esto existen diferentes herramientas, entre las que se destaca el coeficiente de concordancia W de Kendall. En este trabajo se analizó el uso de este coeficiente para medir el acuerdo entre un grupo de personas evaluadoras, con detalle del procedimiento de cálculo mediante distintos softwares. Se describieron casos que pueden ocurrir en la práctica, con análisis de resultados de la prueba y la metodología para extraer conclusiones de ellos, de modo que no se requiera un profundo manejo estadístico para conceptualizar los resultados. Se muestra la utilidad del coeficiente, métodos para su cálculo de manera sencilla mediante los softwares PSPP® o SPSS® y un complemento del software Excel®. Asimismo, se proponen soluciones de interpretación que ocurren en la práctica de enfermería y se exponen las limitaciones que posee. ABSTRACT The adaptation of a questionnaire is a necessary process in various disciplinary areas, which is increasingly being applied in Nursing. Concerns still arise about the quality and quantity of the questions that compose it, its formulation or content. Prior to the content validity analysis, it is necessary to determine the degree of agreement that exists among a group of experts who evaluate an instrument. There are different tools for this, among which Kendall's coefficient of concordance W stands out. In this paper, the use of this coefficient to measure agreement among a group of evaluators was analyzed, detailing the calculation procedure using different software. Cases that can occur in practice were described, with analysis of test results and the methodology to draw conclusions from them, so that deep statistical management is not required to conceptualize the results. It shows the utility of the coefficient, methods for its calculation in a simple way using PSPP® or SPSS® software and an Excel® software complement. Likewise, interpretation solutions that occur in nursing practice are proposed and its limitations are exposed.
... En este caso, se aplica análisis de contenido y co-ocurrencias de los informantes, y se incorporan pruebas cuantitativas para validar la elección de las propuestas finalmente seleccionadas. Se aplican dos estadísticos, cuyo uso está ampliamente respaldados por la bibliografía: Coeficiente de Variación y coeficiente de concordancia W de Kendall (Escobar-Pérez y Cuervo-Martínez, 2008;Silvestre, 2018). La decisión de su elección se justifica por su capacidad de medir el grado de convergencia y acuerdo entre las posturas de los participantes con el propósito de estimar la confiabilidad de los resultados (Aiken, 2003). ...
Article
Full-text available
Los países desarrollados presentan, en un futuro próximo, un escenario de sociedades envejecidas que implica afrontar complejos problemas socioeconómicos. Entre ellos nos ocupamos, en la presente investigación, de abordar la vivienda adaptada a personas mayores. Cada vez una proporción menor de estas personas convivirá con sus hijos/as o nietos/as, dados los nuevos patrones que se imponen en nuestra sociedad. Además, el modelo de la residencia tradicional de personas mayores -la gran alternativa a finales del siglo XX- está en retroceso. Frente a estas formas, emerge como principal alternativa el ageing in place (envejecer en casa), siendo secundado por otros modelos como las viviendas tuteladas y el cohousing. Planteamos, por lo tanto, el reto de adaptar el sistema a estas nuevas tendencias e identificar las estrategias con mejor adaptación al caso andaluz. Para tal fin, se ha planteado la aplicación de un grupo de expertos, que ha permitido obtener propuestas específicas y justificadas de cara a futuras investigaciones e intervenciones en este ámbito. Entre ellas, destacan aspectos relacionados con la adaptación de las viviendas para el envejecimiento en casa, el uso de las nuevas tecnologías, así como estrategias de envejecimiento activo para atenuar los efectos de la soledad no deseada y la dependencia.
Article
Full-text available
El estudio de la historia de la educación desde la perspectiva de género y desde el entorno rural supone una línea de investigación novedosa. El objetivo del presente estudio es analizar el papel del contexto familiar y de la escuela en la continuidad y transformación de la educación femenina en el medio rural durante el franquismo. La recogida de información se ha realizado a través de 29 entrevistas a mujeres con edades comprendidas entre los 45 y 95 años. Los resultados obtenidos revelan que ambos elementos cumplieron un papel fundamental: en la primera etapa del franquismo (1939-1959) la educación femenina se vio condicionada a la escasa concienciación familiar, lo que derivó en un absentismo generalizado del género femenino, al sistema patriarcal y a unas políticas educativas ligadas al nacionalcatolicismo que impulsaron una nueva feminización de la mujer vinculada al hogar. Es a partir de los años sesenta cuando nace la primera generación de alumnas del medio rural que finalizan los estudios primarios y continúan con las Enseñanzas Medias gracias a las escuelas hogares, al bachiller “por libre”, las universidades laborales femeninas y, sobre todo, a la influencia de las familias, especialmente de las madres, que les animaron a estudiar y a dejar atrás el antiguo modelo de mujer.
Article
Full-text available
El objetivo del presente estudio fue evaluar la validez y confiabilidad de la escala de estrés percibido (PSS) en estudiantes de la Universidad Autónoma de Guerrero, México. El estudio transversal incluyó a 116 mujeres y 24 hombres, de las licenciaturas de Enfermería y Ciencias de la Educación, a quienes se les aplicó un cuestionario que incluyó la realización de estadísticos descriptivos e inferenciales, con respecto a las variables socioeconómicas exploradas, además incluyó el análisis del estrés percibido entre hombres y mujeres, con valores significativos (p < 0,05). La segunda parte, incluyó el análisis del estrés percibido, a partir del diseño original de la Perceived Stress Scale (PSS-14) implementada en población estadounidense, así como versiones adaptadas a otros países. La validez del constructo incluyó el fundamento teórico sobre el sentido positivo y negativo de los ítems: 0 = nunca, 1= casi nunca, 2 = de vez en cuando, 3 = a menudo y 4 = muy a menudo para los negativos, y con sentido inverso para los positivos. La confiabilidad (alfa de Cronbach) fue de 0,767 considerado como un valor adecuado. En conclusión, la adaptación del cuestionario resultó fiable y válido para el análisis del estrés percibido en poblaciones culturalmente similares.
Thesis
Full-text available
This research aims to explore Costa Rican Spanish intonation through the lens of sociolinguistic variation, focusing on differences among speakers stereotypically identified as pipis† and non-pipis. Within the framework of Autosegmental Metrical model and Sp- ToBI labeling scheme, intonation patterns in three types of utterances (statements, yes/no questions, and wh- questions) elicited from 16 young adults in the Great Metropolitan Area are assessed. Following a methodological approach that integrates the collection of speech data and sociolinguistic information, initial results reveal variations in nuclear configurations based on gender and the socio-cultural stereotypes linked to each group. The main findings of this exploratory work illustrate the continuum of intonational variation within a sociolinguistic function. Regarding declarative statements, a prevailing inclination towards a falling nuclear configuration is evident, with its peak reached in a prenuclear position. Likewise, yes/no questions exhibit a falling contour, with the pitch anchored on the last stressed syllable. Wh- questions are highly variable in their nuclear configurations, presenting both rising and falling mono- or bitonal accents. Furthermore, it was observed that the selected intonational patterns are inherently intertwined with speakers’ social and gender identities. Across all types of utterances, women—especially those identified as pipis—are most likely to choose upstepped and bitonal contours, which are linguistically marked, and expressive. Conversely, men—particularly non-pipis—show a preference for monotonal, unmarked, and conservative forms.
Article
Full-text available
Resumen Este estudio tuvo como objetivo validar la "Opening Minds Scale for Health Care Providers" (OMS-HC-15), una escala que evalúa estigmas hacia la enfermedad mental, en una muestra de 299 médicos de primer nivel en México. La escala, traducida al español y evaluada por expertos, fue sometida a análisis factorial exploratoria y confirmatoria. Se consideraron dos modelos: uno de tres factores (Actitud, Divulgación y Búsqueda de Ayuda, y Distanciamiento Social) y otro de dos (Actitud y Distanciamiento Social). Ambos modelos demostraron bondad de ajuste y consistencia adecuada, aunque la solución de dos factores presentó una mayor coherencia con las dimensiones originales y mejores índices de consistencia interna. Las limitaciones del estudio incluyeron la falta de información sobre la especialidad médica y la capacitación de los participantes, así como la dependencia de autoinformes, lo que puede subestimar el estigma debido a la deseabilidad social. Además, la escala REVISTA DE PSICOLOGÍA DE LA UNIVERSIDAD AUTÓNOMA DEL ESTADO DE MÉXICO VOLUMEN 13, NÚMERO 37, FASCICULO. 2, enero-junio 2024 / ISSN: 2007-7149
Article
Full-text available
Risk assessments are valuable for identifying, analysing and evaluating risks. However, there seem to be a general tendency to accept the analyses as objective measures of risks, when in reality a fair amount of subjectivity is involved. The primary reason for this subjectivity results from utilising expert judgement. Experts exhibit the same types of biases as lay people with respect to perception of risk, especially when forced to go beyond the limits of their observable expertise. Problems associated with using expert judgements stem from the lack of adequate understanding and treatment of biases. As risk analyses are rational procedures for evaluating risks, values and limitations should be taken into account in a realistic and well documented manner. The contributions from the risk analyses may then be combined with considerations of subjective perceptions of risk and value judgements in the decision making process.
Article
Full-text available
Social scientists frequently study complex constructs. Despite the plethora of measures for these constructs, researchers may need to create their own measure for a particular study. When a measure is created, psychometric testing is required, and the first step is to study the content validity of the measure. The purpose of this article is to demonstrate how to conduct a content validity study, including how to elicit the most from a panel of experts by collecting specific data. Instructions on how to calculate a content validity index, factorial validity index, and an interrater reliability index and guide for interpreting these indices are included. Implications regarding the value of conducting a content validity study for practitioners and researchers are discussed.
Article
Content validity is rarely evaluated based on empirical data, independent of that from a panel of content experts. In this article, procedures are used to construct parallel test forms based on statistical equivalence rather than content equivalence. This article describes an alternative approach to assessing content validity and content equivalence in terms of item-content structures and content area constructs. Structural equation modeling is applied to item-response data from 2 Regents College examinations to empirically verify content constructs developed by a panel of content experts and to examine content equivalence across-parallel test forms. The results suggest the different degrees of inconsistency and bias of content experts in assigning items to their corresponding content areas. The results also show that content equivalence across-parallel test forms is disputable based on randomly splitting methods. The implication and importance of the study is discussed in terms of test development.
Article
Expertise can be acquired through experience or through education, and many occupations demand a mixture of both. In this paper we evaluate the level of expertise acquired through these two routes by comparing credit decisions made by professional credit managers (who have learned through experience rather than education) and lecturers and students in management, (who have no experience but have learned the relevant concepts). We also tested a control group of laypeople with neither relevant formal education nor experience. Participants assumed the role of credit manager and made creditworthiness predictions and credit granting decisions for six companies with known performance. Lecturers and students generally outperformed credit managers on the prediction tasks, and the credit managers performed only slightly better than laypeople. In short, for at least one domain, it appears to be more efficient to learn from formal education than from experience. We argue that the prerequisites for successful learning are largely absent from the everyday experience of credit managers, but are present in an educational context.
Article
A method for combining two types of judgments about an object analyzed, which are elicited from experts, is considered in the paper. It is assumed that the probability distribution of a random variable is known, but its parameters may be determined by experts. The method is based on the use of the imprecise probability theory and allows us to take into account the quality of expert judgments, heterogeneity and imprecision of information supplied by experts. An approach for computing “cautious” expert beliefs under condition that the experts are unknown is studied. Numerical examples illustrate the proposed method.