SciELO - Scientific Electronic Library Online

 
vol.27 número2¿Cómo puede el méto do bayesiano contribuir a la investigación en psicología y educación? índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Articulo

Indicadores

Links relacionados

Bookmark

Paradígma

versión impresa ISSN 1011-2251

Paradìgma v.27 n.2 Maracay dic. 2006

 

Validez y confiabilidad en la metodología cualitativa

 Miguel Martínez Miguélez

Universidad Simón Bolívar

 Resumen

Este artículo trata de clarificar la frecuente confusión que tienen muchos investigadores al utilizar los criterios relacionados con la validez y la confiabilidad en una investigación, ya sea de orientación cuantitativa tradicional o cualitativa. Se hace énfasis en el enfoque epistemológico de cada una como base de todo, en sus características propias y, principalmente, se resalta el proceso eminentemente crítico que acompaña a la metodología cualitativa en todas sus fases: procesos de acopio de la información, de categorización, de estructuración, de contrastación y de teorización, y, de una manera especial, en los criterios de evaluación de los resultados o estructuras teóricas como objetivo final de la investigación.

Palabras Clave: validez, confiabilidad, epistemología, metodología cualitativa

Abstract

This article tries to clarify the frequent confusion that many investigators have when using the approaches related to the validity and reliability in an investigation of the traditional quantitative orientation or the qualitative one. Emphasis is made on the epistemological focus of each one like base of everything, on its own characteristics and, mainly, on the eminently critical process that accompanies the qualitative methodology in all its phases: processes of information gathering, of categorization, of structuring, of “contrasting”, and of teorization, and, in a special way, in the approaches to the evaluation of results or theoretical structures as final objective of the investigation.

Key words: validity, reliability, epistemology, cualitative metodology.

Recibido: 02/09/2006  Aceptado: 02/11/2006

Introducción

En los medios académicos actuales, que cada vez más están usando métodos y técnicas de orientación cualitativa para sus diferentes tipos de investigación, se ha ido presentando reiteradamente una dificultad relacionada con la validez y confiabilidad de sus resultados.

En general, los conceptos de validez y confiabilidad que residen en la mente de una gran mayoría de investigadores, siguen siendo los utilizados en la orientación epistemológica positivista tradicional, ya más que superada en la segunda mitad del siglo XX. De aquí nace un conflicto, pues la metodología cualitativa adopta, como base y postulado fundamental de su teoría del conocimiento y de la ciencia, el paradigma epistémico postpositivista.

El paradigma postpositivista se ha instalado en el campo académico después de muchos estudios en simposios internacionales sobre la filosofía de la ciencia (ver Suppe, 1977, 1979) en los que se levantó “el acta de defunción de la concepción heredada (el positivismo lógico) la cual, a partir de ese momento, quedó abandonada por casi todos los epistemólogos" (Echeverría, 1989, p. 25), debido, como señala Popper (1977, p. 118), a sus “dificultades intrínsecas insuperables”.

Evidentemente, no es suficiente que en este alto nivel científico se llegue a esas conclusiones para que de inmediato se adopten en la práctica por la mayoría de los investigadores, como tampoco se adoptaron las ideas heliocentristas de Copérnico y Galileo en forma completa sino hasta después de un siglo por ilustres astrónomos de las universidades de Bolonia, Padua y Pisa. Según Galileo (1968) eso requería “cambiar la cabeza a la gente, lo cual sólo Dios podía realizar” (p. 119).

La epistemología postpositivista hace ver que no existe, en el “proceso cognoscitivo” de nuestra mente, una relación directa entre la imagen empírica visual, auditiva, olfativa, etc. y la realidad externa a que se refieren, sino que siempre está mediada e interpretada por el horizonte personal e individual del investigador: sus valores, intereses, creencias, sentimientos, etc., y, por esta misma razón, los conceptos tradicionales positivistas de validez (como relación fisiológica mente-cosa) y de confiabilidad (como repetición de un mismo proceso mental) deben ser revisados y redefinidos.

1. Base epistemológica para una redefinición de la Validez y la Confiabilidad

1.1  Ontología sistémica

Cuando una entidad es una composición o agregado de elementos (diversidad de partes no relacionadas), puede ser, en general, estudiada y medida adecuadamente bajo la guía de los parámetros de la ciencia cuantitativa tradicional, en la que la matemática y las técnicas probabilitarias juegan el papel principal; cuando, en cambio, una realidad no es una yuxtaposición de elementos, sino que sus "partes constituyentes" forman una totalidad organizada con fuerte interacción entre sí, es decir, constituyen un sistema, su estudio y comprensión requiere la captación de esa estructura dinámica interna que la caracteriza y, para ello, requiere una metodología estructural-sistémica. Ya Bertalanffy había señalado que "la teoría general de sistemas –como la concibió él originariamente y no como la han divulgado muchos autores que él critica y desautoriza (1981, p. 49)– estaba destinada a jugar un papel análogo al que jugó la lógica aristotélica en la ciencia de la antigüedad" (Thuillier, 1975, p. 86).

Hay dos clases básicas de sistemas: los lineales y los no-lineales. Los sistemas lineales no presentan "sorpresas", ya que fundamentalmente son "agregados", por la poca interacción entre las partes: se pueden descomponer en sus elementos y recomponer de nuevo, un pequeño cambio en una interacción produce un pequeño cambio en la solución, el determinismo está siempre presente y, reduciendo las interacciones a valores muy pequeños, puede considerarse que el sistema está compuesto de partes independientes o dependientes linealmente. El mundo de los sistemas no-lineales, en cambio, es totalmente diferente: puede ser impredecible, violento y dramático, un pequeño cambio en un parámetro puede hacer variar la solución poco a poco y, de golpe, variar a un tipo totalmente nuevo de solución, como cuando, en la física cuántica, se dan los "saltos cuánticos", que son un suceso absolutamente impredecible que no está controlado por las leyes causales, sino solamente por las leyes de la probabilidad.

Estos sistemas no-lineales deben ser captados desde adentro y su situación debe evaluarse paralelamente con su desarrollo. Prigogine afirma (1986) que el mundo no-lineal contiene mucho de lo que es importante en la naturaleza: el mundo de las estructuras disipativas.

hora bien, nuestro universo está constituido básicamente por sistemas no-lineales en todos sus niveles: físico, químico, biológico, psicológico y socio­cultural.

Si observamos nuestro entorno vemos que estamos inmersos en un mundo de sistemas. Al considerar un árbol, un libro, un área urbana, cualquier aparato, una comunidad social, nuestro lenguaje, un animal, el firmamento, en todos ellos encontramos un rasgo común: se trata de entidades complejas, formadas por partes en interacción mutua, cuya identidad resulta de una adecuada armonía entre sus constituyentes, y dotadas de una sustantividad propia que transciende a la de esas partes; se trata, en suma, de lo que, de una manera genérica, denominamos sistemas” (Aracil, 1986, p. 13). De aquí, que von Bertalanffy (1981) sostenga que “desde el átomo hasta la galaxia vivimos en un mundo de sistemas” (p. 47).

Según Capra (1992), la teoría cuántica demuestra que “todas las partículas se componen dinámicamente unas de otras de manera autoconsistente, y, en ese sentido, puede decirse que ‘contienen’ la una a la otra”. De esta forma, la física (la nueva física) es un modelo de ciencia para los nuevos conceptos y métodos de otras disciplinas. En el campo de la biología, Dobzhansky (1967) ha señalado que el genoma, que comprende tanto genes reguladores como operantes, trabaja como una orquesta y no como un conjunto de solistas.

También Köhler (1967), para la psicología, solía decir que "en la estructura (sistema) cada parte conoce dinámicamente a cada una de las otras". Y Ferdinand de Saussure (1931), para la lingüística, afirmaba que "el significado y valor de cada palabra está en las demás", que el sistema es "una totalidad organizada, hecha de elementos solidarios que no pueden ser definidos más que los unos con relación a los otros en función de su lugar en esta totalidad”.

Si la significación y el valor de cada elemento de una estructura dinámica o sistema está íntimamente relacionado con el de los demás, si todo es función de todo, y si cada elemento es necesario para definir a los otros, no podrá ser visto ni entendido ni medido "en sí", en forma aislada, sino a través de la posición y de la función o papel que desempeña en la estructura. Así, Parsons señala que "la condición más decisiva para que un análisis dinámico sea válido, es que cada problema se refiera continua y sistemáticamente al estado del sistema considerado como un todo" (en: Lyotard, 1989, p. 31).

La necesidad de un enfoque adecuado para tratar con sistemas se ha sentido en todos los campos de la ciencia. Así fue naciendo una serie de enfoques modernos afines como, por ejemplo, la cibernética, la informática, la teoría de conjuntos, la teoría de redes, la teoría de la decisión, la teoría de juegos, los modelos estocásticos y otros; y, en la aplicación práctica, el análisis de sistemas, la ingeniería de sistemas, el estudio de los ecosistemas, la investigación de operaciones, etc. Aunque estas teorías y aplicaciones difieren en algunos supuestos iniciales, técnicas matemáticas y metas, coinciden, no obstante, en ocuparse, de una u otra forma y de acuerdo con su área de interés, de "sistemas", "totalidades" y "organización"; es decir, están de acuerdo en ser "ciencias de sistemas" que estudian aspectos no atendidos hasta ahora y problemas de interacción de muchas variables, de organización, de regulación, de elección de metas, etc. Todas buscan la "configuración estructural sistémica" de las realidades que estudian.

En un “sistema” se da un conjunto de unidades interrelacionadas de tal manera que el comportamiento de cada parte depende del estado de todas las otras, pues todas se encuentran en una estructura que las interconecta. La organización y comunicación en el enfoque de sistemas desafía la lógica tradicional, reemplazando el concepto de energía por el de información, y el de causa-efecto por el de estructura y realimentación. En los seres vivos, y sobre todo en los seres humanos, se dan estructuras de un altísimo nivel de complejidad, las cuales están constituidas por sistemas de sistemas cuya comprensión desafía la agudeza de las mentes más privilegiadas; estos sistemas constituyen un todo "físico-químico-biológico-psicológico-cultural y espiritual". Solamente refiriéndonos al campo biológico, hablamos de sistema sanguíneo, sistema respiratorio, sistema nervioso, sistema muscular, sistema óseo, sistema reproductivo, sistema inmunológico y muchísimos otros. Imaginemos el alto nivel de complejidad que se forma cuando todos estos sistemas se interrelacionan e interactúan con todos los otros sistemas de una sola persona y, más todavía, de enteros grupos sociales.

Ahora bien, ¿qué implicaciones tiene la adopción del paradigma sistémico para el cultivo de la ciencia y su tecnología? Cambian completamente los cimientos de todo el edificio científico: sus bases, su estructura conceptual y su andamiaje metodológíco. Ése es el camino que tratan de seguir hoy las metodologías que se inspiran en los enfoques hermenéuticos, en la perspectiva fenomenológica y en las orientaciones etnográficas, es decir, las metodologías cualitativas.

1.2. La validez y confiabilidad positivistas

La literatura positivista tradicional define diferentes tipos de validez, (validez de construcción, validez interna, validez externa); pero todas tratan de verificar si en realidad medimos lo que nos proponemos medir. Igualmente, esta orientación epistemológica busca determinar un buen nivel de confiabilidad, es decir, su posibilidad de repetir la misma investigación con idénticos resultados. Todos estos indicadores tienen un denominador común: se calculan y determinan por medio de "una medida aislada, independiente de las realidades complejas a que se refieren”.

La validez de construcciones hipotéticas (de ‘constructos’), que es la más importante, trata de establecer una medida operacional para los conceptos usados; en el campo psicológico, por ejemplo, se trataría de que el instrumento mida la propiedad o propiedades psicológicas aisladas que subyacen a la variable. Esta validez no es fácil de entender, ya que se encuentra inmersa en el marco de referencia científico de la investigación y su metodología. Éstos son los que le dan sentido.

La validez interna está relacionada específicamente con el establecimiento o búsqueda de una relación causal o explicativa; es decir, si el evento x lleva al evento y; excluyendo la posibilidad de que sea causado por el evento z. Esta lógica no es aplicable, por ejemplo, a un estudio descriptivo o exploratorio (Yin, 2003, p. 36).

La validez externa trata de verificar si los resultados de un determinado estudio son generalizables más allá de los linderos del mismo. Esto requiere que se dé una homología o, al menos, una analogía entre la muestra (caso estudiado) y el universo al cual se quiere aplicar. Algunos autores se refieren a este tipo de validez con el nombre de validez de contenido, pues la definen como la representatividad o adecuación muestral del contenido que se mide con el contenido del universo del cual es extraída (Kerlinger, 1981a, p. 322).

Igualmente, la confiabilidad tiene por objeto asegurarse de que un investigador, siguiendo los mismos procedimientos descritos por otro investigador anterior y conduciendo el mismo estudio, puede llegar a los mismos resultados y conclusiones. Nótese que se trata de rehacer el mismo estudio, no una réplica del mismo.

1.3. Análisis crítico de los criterios positivistas

Todos estos indicadores desconocen que cada realidad o entidad humana, ya sea un pensamiento, una creencia, una actitud, un interés, un comportamiento, etc., no son entidades aisladas, sino que reciben su sentido o significado, es decir, se configuran como tales, por el tipo y naturaleza de los otros elementos y factores del sistema o estructura dinámica en que están insertos y por el papel y la función que desempeñan en el mismo; todo lo cual puede ir cambiando con la variable temporal, pues nunca son estáticos. Un elemento aislado no podrá nunca conceptualizarse o categorizarse adecuadamente, ya que podrá tener muchos sentidos de acuerdo a esa constelación de factores o estructura de la cual proviene.

Si nos adentramos más en el fenómeno “partes-todo”, y enfocamos más de cerca su aspecto gnoseológico, diremos que hay dos modos de aprehensión intelectual de un elemento que forma parte de una totalidad. Michael Polanyi (1966) lo expresa de la siguiente manera:

...no podemos comprender el todo sin ver sus partes, pero tampoco podemos ver las partes sin comprender el todo... Cuando comprendemos como parte de un todo a una determinada serie de elementos, el foco de nuestra atención pasa de los detalles hasta ahora no comprendidos a la comprensión de su significado conjunto. Este pasaje de la atención no nos hace perder de vista los detalles, puesto que sólo se puede ver un todo viendo sus partes, pero cambia por completo la manera como aprehendemos los detalles. Ahora los aprehendemos en función del todo en que hemos fijado nuestra atención. Llamaré a esto aprehensión subsidiaria de los detalles, por oposición a la aprehensión focal que emplearíamos para atender a los detalles en sí, no como partes del todo (pp. 22-23).

Lamentablemente, la filosofía analítica y su orientación positivista siguió el consejo que Descartes pone como idea rectora y como segunda máxima, en el Discurso del Método: "fragmentar todo problema en tantos elementos simples y separados como sea posible". Esta orientación ha aceptado sistemáticamente el supuesto (falso) de que la realidad total se captaría desmembrándola (análisis desintegrador) en sus diferentes componentes.

Este enfoque constituyó el paradigma conceptual de la ciencia durante casi tres siglos; pero rompe o desconoce el conjunto de nexos y relaciones que cada entidad humana, y, a veces, aun en los mismos entes físicos o químicos, tiene con el resto. Y ese resto o contexto es precisamente el que le da la naturaleza que lo constituye, sus características, sus propiedades y sus atributos. Esta descontextualización de las realidades las vuelve amorfas, ambiguas y, la mayoría de las veces, sin sentido alguno o, también, con muchos posibles significados. Como señala muy apropiadamente el creador de la “Teoría General de Sistemas”, Ludwig von Bertalanffy (1976), "todo modelo matemático es una sobresimplificación, y es discutible si reduce a los huesos los acontecimientos reales o si arranca partes vitales de su anatomía" (p. 117).

Para una ejemplificación mayor, pensemos en lo que está pasando en los últimos tiempos en el campo de la medicina. Excelentes profesionales de esta ciencia, a veces guiados por su especialización o superespecialización, recetan una medicina que parece magnífica para una determinada dolencia o afección, pero desconocen que, para algunas personas en particular, puede ser hasta fatal, ya que tienen una alergia especial, por ejemplo, a la penicilina o hacia algún componente de la misma. Esto sin puntualizar que la etiología de una determinada enfermedad tiene, a veces, su origen en áreas no biológicas, como un alto nivel de estrés por razones psicológicas, problemas familiares o dificultades socioeconómicas; áreas todas que el insigne especialista puede desconocer hasta en sus temas más simples, pero que podrían dar la pista de hacia dónde hay que dirigir la necesaria terapéutica.

2. Visión Postpositivista de la Validez y Confiabilidad

2.1  La Validez.

En sentido amplio y general, diremos que una investigación tendrá un alto nivel de “validez” en la medida en que sus resultados “reflejen” una imagen lo más completa posible, clara y representativa de la realidad o situación estudiada.

Pero no tenemos un solo tipo de conocimiento. Las ciencias naturales producen un conocimiento que es eficaz para tratar con el mundo físico; ellas han tenido éxito con la producción de un conocimiento instrumental que ha sido explotado política y lucrativamente en aplicaciones tecnológicas. Pero el conocimiento instrumental es sólo una de las tres formas cognitivas que contribuyen a la vida humana.

Las ciencias histórico-hermenéuticas (ciencias interpretativas) producen el conocimiento interactivo que subyace en la vida de cada ser humano y de la comunidad de que forma parte; igualmente, la ciencia social crítica produce el conocimiento reflexivo y crítico que el ser humano necesita para su desarrollo, emancipación y autorrealización.

Cada forma de conocimiento tiene sus propios intereses, sus propios usos y sus propios criterios de validez; por esto, debe ser justificada en sus propios términos, como se ha hecho tradicionalmente con la 'objetividad' para las ciencias naturales, como hizo Dilthey para la hermenéutica, y como hicieron Marx y Engels para la teoría crítica. En las ciencias naturales, la validez está relacionada con su capacidad para controlar el ambiente físico con nuevas invenciones físicas, químicas y biológicas; en las ciencias hermenéuticas la validez se aprecia de acuerdo al nivel de su habilidad para producir relaciones humanas con alto sentido de empatía y vinculación; y en la ciencia social crítica esta validez estará relacionada con su capacidad de superación de obstáculos para favorecer el crecimiento y desarrollo de seres humanos más autosuficientes en sentido pleno.

Como señalamos, una investigación tiene un alto nivel de validez si al observar o apreciar una realidad, se observa o aprecia esa realidad en sentido pleno, y no sólo un aspecto o parte de la misma.

Si la confiabilidad ha representado siempre un requisito difícil para las investigaciones cualitativas, debido a la naturaleza peculiar de éstas (imposibilidad de repetir, stricto sensu, el mismo estudio), no ha ocurrido lo mismo en relación con la validez. Al contrario, la validez es la fuerza mayor de estas investigaciones. En efecto, la aseveración de los investigadores cualitativos de que sus estudios poseen un alto nivel de validez deriva de su modo de recoger la información y de las técnicas de análisis que usan. Esos procedimientos los inducen a vivir entre los sujetos participantes en el estudio, a recoger los datos durante largos períodos de tiempo, revisarlos, compararlos y analizarlos de manera continua, a adecuar las entrevistas a las categorías empíricas de los participantes y no a conceptos abstractos o extraños traídos de otro medio, a utilizar la observación participativa en los medios y contextos reales donde se dan los hechos y, finalmente, a incorporar en el proceso de análisis una continua actividad de realimentación y reevaluación. Todo esto garantiza un nivel de validez que pocas metodologías pueden ofrecer. Sin embargo, también la validez es perfectible, y será tanto mayor en la medida en que se tengan en cuenta algunos problemas y dificultades que se pueden presentar en la investigación cualitativa. Entre otros, para una buena validez interna, habrá que prestar especial atención a los siguientes:

a) Puede haber un cambio notable en el ambiente estudiado entre el principio y el fin de la investigación. En este caso, habrá que recoger y cotejar la información en diferentes momentos del proceso.

b) Es necesario calibrar bien hasta qué punto la realidad observada es una función de la posición, el estatus y el rol que el investigador ha asumido dentro del grupo. Las situaciones interactivas siempre crean nuevas realidades o modifican las existentes.

c)  La credibilidad de la información puede variar mucho: los informantes pueden mentir, omitir datos relevantes o tener una visión distorsionada de las cosas. Será necesario contrastarla con la de otros, recogerla en tiempos diferentes, etc.; conviene, asimismo, que la muestra de informantes represente en la mejor forma posible los grupos, orientaciones o posiciones de la población estudiada, como estrategia para corregir distorsiones perceptivas y prejuicios, aunque siempre seguirá siendo cierto que la verdad no es producida por el ejercicio azarístico y democrático en la recolección de la información general, sino por la información de las personas más capacitadas y fidedignas.

En cuanto a la validez externa, es necesario recordar que a menudo las estructuras de significado descubiertas en un grupo no son comparables con las de otro, porque son específicas y propias de ese grupo, en esa situación y en esas circunstancias, o porque el segundo grupo ha sido mal escogido y no le son aplicables las conclusiones obtenidas en el primero.

2.2   La Confiabilidad.

Una investigación con buena confiabilidad es aquella que es estable, segura, congruente, igual a sí misma en diferentes tiempos y previsible para el futuro. También la confiabilidad tiene dos caras, una interna y otra externa: hay confiabilidad interna cuando varios observadores, al estudiar la misma realidad, concuerdan en sus conclusiones; hay confiabilidad externa cuando investigadores independientes, al estudiar una realidad en tiempos o situaciones diferentes, llegan a los mismos resultados. 

El concepto tradicional de “confiabilidad” externa implica que un estudio se puede repetir con el mismo método sin alterar los resultados, es decir, es una medida de la replicabilidad de los resultados de la investigación. En las ciencias humanas es prácticamente imposible reproducir las condiciones exactas en que “un comportamiento” y su estudio tuvieron lugar. Ya Heráclito dijo en su tiempo que "nadie se bañaba dos veces en el mismo río"; y Cratilo le añadió que "no era posible hacerlo ni siquiera una sola vez", ya que el agua está fluyendo continuamente (Aristóteles, Metafísica, iv, 5).

En los estudios realizados por medio de investigaciones cualitativas, que, en general, están guiados por una orientación sistémica, hermenéutica, fenomenológica, etnográfica y humanista, la confiabilidad está orientada hacia el nivel de concordancia interpretativa entre diferentes observadores, evaluadores o jueces del mismo fenómeno, es decir, la confiabilidad será, sobre todo interna, interjueces. Se considera un buen nivel de esta confiabilidad cuando alcanza un 70%, es decir, que, por ejemplo, de 10 jueces, hay consenso entre 7.

Dada la naturaleza particular de toda investigación cualitativa y la complejidad de las realidades que estudia, no es posible repetir o replicar un estudio en sentido estricto, como se puede hacer en muchas investigaciones experimentales. Debido a ello, la confiabilidad de estos estudios se logra usando otros procedimientos rigurosos y sistemáticos. 

La confiabilidad interna es muy importante. En efecto, el nivel de consenso entre diferentes observadores de la misma realidad eleva la credibilidad que merecen las estructuras significativas descubiertas en un determinado ambiente, así como la seguridad de que el nivel de congruencia de los fenómenos en estudio es fuerte y sólido. 

Los investigadores cualitativos suelen utilizar varias estrategias (LeCompte-Goetz, 1982) para reducir las amenazas que se le presentan a la confiabilidad interna:

a)  Usar categorías descriptivas de bajo nivel de inferencia, es decir, lo más concretas y precisas posible. Los datos son algo ya interpretado (Hanson, 1977); por esto, es conveniente que estén cercanos a la realidad observada: quién hizo qué cosa y en qué circunstancias. Los comentarios interpretativos pueden añadirse, eliminarse o modificarse más tarde. Además, la mayoría de los autores coinciden en señalar que los procedimientos cualitativos son ricos en datos primarios y frescos, que ofrecen al lector múltiples ejemplos extraídos de las notas de campo, y son, por esto, generalmente consideradas como más creíbles.

b) El mejor aval para la confiabilidad interna de un estudio cualitativo es la presencia de varios investigadores. El trabajo en equipo, aunque es más difícil y costoso, garantiza un mejor equilibrio de las observaciones, los análisis y la interpretación.

c) Pedir la colaboración de los sujetos informantes para confirmar la "objetividad" de las notas o apuntes de campo. Asegurarse de que lo visto o registrado por el investigador coincide o es consistente con lo que ven o dicen los sujetos del grupo estudiado.

d) Utilizar todos los medios técnicos disponibles en la actualidad para conservar en vivo la realidad presenciada: grabaciones de audio y de vídeo, fotografías, diapositivas, etc. Este material permitirá repetir las observaciones de realidades que son, de por sí, irrepetibles, y que las puedan "presenciar" otros observadores ausentes en el momento en que sucedieron los hechos. Su aporte más valioso radica en que nos permiten volver a los "datos brutos" y poder categorizarlos y conceptualizarlos de nuevo.

Para alcanzar un buen nivel de confiabilidad externa, se aconseja (LeCompte y Goetz, 1982) recurrir, entre otras, a las siguientes estrategias:

a) Precisar el nivel de participación y la posición asumida por el investigador en el grupo estudiado; cierta información puede ser diferente de acuerdo con el sexo de quien la dé (las mujeres pueden ocultar ciertos datos íntimos si el investigador, por ejemplo, es de sexo masculino); igual sucede si el investigador ha hecho amigos dentro del grupo; éstos le darán informaciones que no les dan otros. 

b) Identificar claramente a los informantes. Éstos pueden representar grupos definidos y dar información parcial o prejuiciada. Los miembros que simpatizan y colaboran más con los investigadores pueden ser, por esto mismo, miembros atípicos. Esta situación se puede advertir al hacer una buena descripción del tipo de personas que han servido como informantes.

c) Un tercer elemento que puede influir en los datos es el contexto en que se recogen. Debido a ello, conviene especificar el contexto físico, social e interpersonal de que se derivan. Esto aumentará la replicabilidad de los estudios.

d) Para que sea posible una “cierta réplica” es imprescindible la identificación de los supuestos y metateorías que subyacen en la elección de la terminología y los métodos de análisis. Los conceptos de "cultura", "ciencia", "método", "análisis", "dato", "codificación" y muchos otros pueden diferir sustancialmente entre diferentes investigadores.

e) Precisar los métodos de recolección de la información y de su análisis, de tal manera que otros investigadores puedan servirse del reporte original como un manual de operación para repetir el estudio. La replicabilidad se vuelve imposible sin una precisa identificación y cuidadosa descripción de las estrategias de procedimiento.

La triangulación. En sentido amplio, en las ciencias humanas, también se pueden realizar varias "triangulaciones” que mejoran notablemente los resultados de la investigación y su validez y confiabilidad. De una manera particular, se pueden combinar, en diferentes formas, técnicas y procedimientos cualitativos y cuantitativos. La idea central es utilizar todo lo que se considere pertinente, tenga relación y se considere  útil.

Más concretamente, se pueden identificar varios tipos básicos de triangulación:

a) Triangulación de métodos y técnicas: que consiste en el uso de múltiples métodos o técnicas para estudiar un problema determinado (como, por ejemplo, el hacer un estudio panorámico primero, con una encuesta, y después utilizar la observación participativa o una técnica de entrevista).

b) Triangulación de datos: en la cual se utiliza una variedad de datos para realizar el estudio, provenientes de diferentes fuentes de información.

c) Triangulación de investigadores: en la cual participan diferentes investigadores o evaluadores, quizá con formación, profesión y experiencia también diferentes.

d) Triangulación de teorías: que consiste en emplear varias perspectivas para interpretar y darle estructura a un mismo conjunto de datos (por ejemplo, una teoría basada en las técnicas de correlación, análisis de varianza, análisis de regressión, análisis factorial o cluster analysis y otra que utilice la observación participativa). 

e) Triangulación interdisciplinaria: con la cual se invocan múltiples disciplinas a intervenir en el estudio o investigación en cuestión (por ejemplo, la biología, la psicología, la sociología, la historia, la antropología, etc.)

Conviene, sin embargo, advertir que no se puede dar, hablando con precisión epistemológica, una triangulación de paradigmas, como insinúan algunas personas empleando ciertos procedimientos que llaman "pluriparadigmáticos". No se puede jugar al ajedrez, ni a ningún otro juego, utilizando dos o más cuerpos de reglas diferentes o, peor aún, antagónicos. Lo menos que se puede decir de esas personas es que están usando el concepto de "paradigma epistémico" en forma errónea, es decir, como "punto de vista". Los puntos de vista sí son complementarios y se pueden integrar, los paradigmas epistémicos no, ya que uno se configura negando al otro: si sostengo que la Tierra es redonda estoy negando que sea plana.

En conclusión, podríamos afirmar que las realidades, especialmente las humanas, constituyen un todo polisistémico que se rebela cuando es reducido a sus elementos, aunque sea con la intención de medirlos; es más, precisamente en esos momentos, porque se pone en práctica un reduccionismo desnaturalizador. Y se rebela, precisamente, porque, así, reducido, pierde las cualidades emergentes del "todo" y la acción de éstas sobre cada una de las partes.  Este "todo polisistémico", que constituye la naturaleza global, nos obliga, incluso, a dar un paso más en esta dirección. Nos obliga a adoptar una metodología interdisciplinaria para poder captar la riqueza de la interacción entre los diferentes subsistemas que estudian las disciplinas particulares.

Por estas razones, la confiabilidad, sobre todo la externa, no está dentro del círculo de intereses inmediatos de las investigaciones cualitativas, pues el fin de éstas es el mejoramiento y aplicación a una situación particular, que puede ser una persona, un grupo, una comunidad o una empresa, y no la generalización a otras áreas, de la misma manera que el médico está interesado en curar a su paciente. Si ese estudio, ese tratamiento y ese plan de acción o patrón teórico pueden, después, transferirse y aplicarse en otros pacientes o a otros campos similares, tanto mejor: se irá haciendo una ciencia más universal; pero ése no es el fin primario de una investigación cualitativa.

3.  Procesos que refuerzan la Validez y la Confiabilidad

3.1.Categorización, Contrastación, Estructuración y Teorización

Estos procesos tienen por finalidad permitir la emergencia de la posible estructura teórica, "implícita" en el material recopilado en las entrevistas, observaciones de campo, grabaciones, filmaciones, etc. El proceso completo implica la categorización, la estructuración propiamente dicha, la contrastación y la teorización. Precisamente, todos estos procesos son esencialmente críticos y evaluativos; es decir, que, en su devenir, se juega continuamente con alternativas posibles para elegir la mejor categoría para una determinada información, la estructura que da explicaciones más plausibles para un conjunto de categorías y la teoría que mejor integra las diferentes estructuras en un todo coherente y lógico.

La categorización. Este proceso trata de asignar categorías o clases significativas, de ir constantemente diseñando y rediseñando, integrando y reintegrando el todo y las partes, a medida que se revisa el material y va emergiendo el significado de cada sector, párrafo, evento, hecho o dato; y como nuestra mente salta velozmente de un proceso a otro tratando de hallarle un sentido a las cosas que examina, como se adelanta y vuelve atrás con gran agilidad para ubicar a cada elemento en un contexto y para modificar ese contexto o fondo de acuerdo con el sentido que va encontrando en los elementos, se aconseja una gran tolerancia a la ambigüedad y contradicción (que, quizá, sean sólo aparentes), una gran resistencia a la necesidad de dar sentido a todo con rapidez, y una gran oposición a la precipitación por conceptualizar, categorizar o codificar las cosas de acuerdo con los esquemas que nos son ya familiares.

 Por ello, se recomienda también al investigador “alejar” todo lo que no “emerja” de la descripción protocolar (es decir, de la fuente primaria de la información); de otra manera, no veremos más de lo que ya sabemos y no haremos más que confirmarnos en nuestras viejas ideas y aun en nuestros propios prejuicios. En efecto, todo símbolo verbal o categoría aspira a representar a su referente, pero no hay símbolo que sea capaz de describir todos los rasgos del referente; en consecuencia, está obligado a omitir uno o varios de ellos. Por eso, todo símbolo es abstracto en sus representaciones de la naturaleza, pierde algo (o mucho) de ella y no es estrictamente adecuado o representativo.

Esta dialéctica entre la figura y el fondo es continua y permanente; la toma de conciencia de la dinámica de este proceso ayudará a facilitar su actividad normal y efectiva, como también ayudará a demostrar al lector del trabajo cuál fue el camino que el investigador siguió para llegar a sus resultados o conclusiones.

La palabra análisis, en su origen etimológico, quiere decir "separar" o "dividir" las partes de un todo con el fin de entender los principios y elementos que lo componen. Hoy día se ha vuelto muy corriente tender a analizarlo todo, analizar todas las cosas "para comprenderlas". Pero cuando una entidad es un sistema o constituye una estructura, la división o separación puede también destruir su naturaleza y llevarnos a no entender la nueva realidad "emergente" que la hace tal. Así, por ejemplo, nunca podríamos conocer las propiedades del agua descomponiendo sus moléculas en átomos de hidrógeno y oxígeno, ya que las propiedades de la molécula de agua aparecen o emergen sólo al unirse dos átomos de hidrógeno con uno de oxígeno. Lo mismo sucedería con cualquier otro sistema o estructura, ya sea del campo natural como del área social. Por estas razones, al ponderar, apreciar o categorizar un párrafo escrito o una actividad humana cualquiera, se trata siempre de ubicarla en posibles diferentes contextos, escenarios u horizontes para elegir el que se considera más adecuado, pero siempre dispuestos a cambiarlo al examinar el resto de la información. Todo esto aumentará mucho la validez del estudio.

La estruturación. Todo el proceso de estructuración es también un ejercicio continuo que tiende a validar una comprensión realista y auténtica del tópico estudiado. El ser humano es superior a los animales, no por la riqueza de su información sensorial, ya que la mayoría de los animales poseen una agudeza visual, auditiva, olfativa, etc., muy superior a la del hombre, sino por su capacidad de relacionar, interpretar y teorizar con esa información. La inteligencia humana tiene una propensión natural innata a buscar regularidades y la capacidad básica de ordenar las cosas, según sean semejantes o diferentes, de acuerdo con su naturaleza y características y según la interacción que se dé entre ellas. Esta actividad mental está en acción continuamente y puede sorprendernos con sus hallazgos hasta en el mismo sueño.

Al reflexionar y tratar de descubrir la dinámica psicológica de nuestra mente en el momento en que conoce algo, comprobaremos la importancia de una determinada condición previa y la naturaleza del proceso en sí mismo. La condición previa es una inmersión lo más completa posible en el campo fenoménico que se va a estudiar. Cuanto más completa y duradera sea esta inmersión, cuanto más se estime y aprecie el campo objeto de nuestro conocimiento, cuanto más abierto se esté a los detalles, matices y sutilezas del mismo, más fácil será la captación de una nueva red de relaciones, es decir, de un nuevo conocimiento.

Los psicólogos de la Gestalt han demostrado que cuando la mente humana contempla serena y atentamente un determinado fenómeno, en medio de esa quietud comienza como a “jugar” con sus elementos, y “de golpe” algo llega a la mente: puede ser una relación, un ritmo, una estructura o una configuración. “El organismo humano, cuando obra libre y no defensivamente, es quizá el mejor instrumento científico que existe, y es capaz de sentir esta configuración mucho antes de poderla formular de manera consciente” (Rogers, 1968, págs. 62-63). Kepler, Einstein y muchos otros grandes científicos tenían gran confianza en esa captación intuitiva.

Por todo ello, al reflexionar y concentrarse, en esa contemplación, irán apareciendo en nuestra mente diversas constelaciones formadas por las categorías y, poco a poco, también una prevalente estructura que las integra. De esta forma, se logrará llevar a cabo apropiadamente el proceso de estructuración que se inició en el mismo momento de comenzar la recolección de información.

El investigador cualitativo sabe que este proceso, eminentemente creador, de análisis-categorización-interpretación, necesita, para su buen funcionamiento, que se tengan presentes algunos consejos que se derivan del estudio de la naturaleza del proceso creativo:

§  que no debe precipitarse, pues las ideas tienen su propio camino;

§ que no debe dirigir o presionar el pensamiento en una sola dirección;

§ que su imaginación debe estar en libertad de utilizar las analogías, metáforas, comparaciones, símiles y hasta alegorías que crea útiles o convenientes (la moda científica de hoy los llama modelos);

§ que debe albergar una gran confianza en sí mismo y en la propia capacidad, ya que esta confianza elimina ciertos constreñimientos mentales que imposibilitan, en el nivel neurofisiológico cerebral, el flujo de ideas y sus relaciones;

§ que toda persona normal puede ser muy creativa, si se dan ciertas condiciones;

§ que el buen investigador siente oposición a las presiones conformistas y le agrada el riesgo de enfrentarse a lo desconocido; lo ama; le agrada vivir una cierta osadía intelectual.

Todo esto hace que el investigador se aproxime a cualquier expresión de la vida humana, no con la famosa tabula rasa de John Locke, sino con expectativas y prejuicios sobre lo que pudiera ser el objeto observado. Debido a ello, la interpretación implica una "fusión de horizontes", una interacción dialéctica entre las expectativas del intérprete y el significado de un texto o acto humano. En términos de la psicología de la Gestalt, aunque no siempre, diríamos que la realidad exterior tiende a sugerirnos la figura, mientras que nosotros le ponemos el fondo (contexto, horizonte, marco teórico).

Heidegger sostiene que “ser humano es ser interpretativo”; es decir, que la interpretación, más que un “instrumento” para adquirir conocimientos, es el modo natural de ser de los seres humanos, y todos los intentos cognoscitivos para desarrollar conocimientos no son sino expresiones de la interpretación sucesiva del mundo.

La contrastación.  Esta etapa de la investigación consiste en relacionar y contrastar sus resultados con aquellos estudios paralelos o similares que se presentaron en el marco teórico-referencial (ver Martínez, 2004, p.77), para ver cómo aparecen desde perspectivas diferentes o sobre marcos teóricos más amplios y explicar mejor lo que el estudio verdaderamente significa. Es, por consiguiente, también un proceso típicamente evaluativo, que tiende a reforzar la validez y la confiabilidad.

Aunque el “marco teórico-referencial” sólo nos informa de lo que han realizado otras personas, en otros lugares, en otros tiempos y, quizá, también con otros métodos, sin embargo, el comparar y contraponer nuestras conclusiones con las de otros investigadores, igualmente rigurosos, sistemáticos y críticos, no sólo nos permitirá entender mejor las posibles diferencias, sino que hará posible una integración mayor y, por consiguiente, un enriquecimiento del cuerpo de conocimientos del área estudiada, como se verá en el sector siguiente de la teorización.

Esta comparación y contrastación pudieran llevarnos hacia la reformulación, reestructuración, ampliación o corrección de construcciones teóricas previas, logrando con ello un avance significativo en el área; es decir, que algunas teorizaciones ya existentes cumplirían en gran parte la función de proveer algunas líneas directrices para interpretar los nuevos datos.

De aquí, se deriva la importancia que tiene el diálogo con los autores que nos han precedido en nuestra área de estudio, no para seguir ciegamente lo que ellos digan (marco teórico tradicional), sino para corregir, mejorar, ampliar o reformular nuestras conclusiones; es decir, para enfocarlas desde otros puntos de vista y con el uso de otras categorías, lo cual enriquecerá y profundizará nuestra comprensión de lo que estamos estudiando.

La Teorización. Einstein solía decir que "la ciencia consistía en crear teorías". Pero una teoría es un modo nuevo de ver las cosas, y puede haber muchos modos diferentes de verlas. De aquí, también la idea de que toda teorización es un ejercicio continuo de validación y de creación de credibilidad en nuestros resultados.

El proceso de teorización utiliza todos los medios disponibles a su alcance para lograr la síntesis final de un estudio o investigación. Más concretamente, este proceso trata de integrar en un todo coherente y lógico los resultados de la investigación en curso, mejorándolo con los aportes de los autores reseñados en el marco teórico-referencial después del trabajo de contrastación.

En el campo de las ciencias humanas, la construcción y reconstrucción, la formulación y reformulación de teorías y modelos teóricos o de alguna de sus partes, mediante elementos estructurales de otras construcciones teóricas, es el modo más común de operar y de hacer avanzar estas ciencias.

Einstein mismo llegó a afirmar en repetidas ocasiones que su teoría de la relatividad especial no encontró entidades aisladas nuevas ni hechos anteriormente desconocidos, ya que todos sus elementos (los conceptos de espacio, tiempo, materia, fuerza, energía, partículas, gravitación, aceleración, onda, corpúsculo, velocidad y otros) estaban en el ambiente desde hacía cincuenta años; lo que él propuso fue una nueva manera de clasificar y relacionar cosas ya conocidas. Y Leibniz afirmó: "mi sistema toma lo mejor de todas partes".

La mayoría de los investigadores manifiestan dificultades en describir qué es lo que hacen cuando teorizan; pero un análisis cuidadoso de sus actividades mentales hará ver que son similares a las actividades cotidianas de una persona normal: las actividades formales del trabajo teorizador consisten en percibir, comparar, contrastar, añadir, ordenar, establecer nexos y relaciones y especular; es decir, que el proceso cognoscitivo de la teorización consiste en descubrir y manipular categorías y sus relaciones y las posibles estructuras que se pueden dar entre ellas.

La transición de los datos a la teoría requiere de imaginación creadora. Popper observa que las teorías son el “resultado de una intuición casi poética” (1963, p. 192). Las hipótesis y teorías científicas no se derivan de los hechos observados, sino que se inventan para dar cuenta de ellos; son conjeturas relativas a las conexiones que se pueden establecer entre los fenómenos estudiados y las uniformidades y regularidades que subyacen a éstos. Las “conjeturas felices” de este tipo requieren gran inventiva, especialmente si suponen una desviación radical de los modos ordinarios del pensamiento científico, como ocurrió con las grandes teorías que fundamentan a cada una de las ciencias.

Einstein precisa que “están en un error aquellos teóricos que creen que la teoría se obtiene inductivamente a partir de la experiencia” (Hanson, 1977, p. 229). Al contrario, una teoría es una construcción mental simbólica, verbal o icónica, de naturaleza conjetural o hipotética, que nos obliga a pensar de un modo nuevo al completar, integrar, unificar, sistematizar o interpretar un cuerpo de conocimientos que hasta el momento se consideraban incompletos, imprecisos, inconexos o intuitivos.

La teoría es, por tanto, un modelo ideal, sin contenido observacional directo, que nos ofrece una estructura conceptual inteligible, sistemática y coherente para ordenar los fenómenos; de manera más concreta, suele consistir en un sistema de hipótesis, fórmulas legaliformes y hasta leyes ya establecidas, de modo que su síntesis puede incluir desde lo plenamente conocido hasta lo meramente sospechado.

La historia de la ciencia nos permite ver en forma palpable que sus avances más revolucionarios y significativos no provienen de investigaciones empíricas aisladas o de la acumulación de hechos y experimentos, sino de teorías novedosas inicialmente desconcertantes.

Como vemos, este análisis integrador, que tratamos de ilustrar, está muy lejos de consistir en separar, dividir, aislar, atomizar o viviseccionar una realidad, ya que ello llevaría a su incomprensión. En este enfoque, que es hermenéutico, fenomenológico y etnográfico, se considera que el significado es el verdadero dato, es decir, que la magnitud de un dato está dada por su nivel de significación y que este dato se presenta en un contexto individual y en una estructura personal y social que es necesario conocer para interpretarlo. Así, el proceso teorizador es un esfuerzo eminente del investigador por aumentar los niveles de validez y de confiabilidad de los resultados de su investigación.

4. Evaluación de las estructuras teóricas formuladas

El intento de evaluar una estructura teórica es un proceso epistemológico muy arduo. Depende mucho del concepto de “validez” que se tenga y también del concepto de “verdad”. Por ello, también este proceso refuerza el valor de toda investigación.

En efecto, la evidencia racional es la última instancia de validación de toda prueba o verificación. La "validación empírica" debe apoyarse siempre, en último análisis, en una validación "racional"; dicho de otro modo, no existe, en sentido estricto, algo que podamos llamar "evidencia empírica"; la evidencia será siempre intelectual, racional, algo que es "visto" en un contacto directo, inmediato, en un acto "intuitivo". Este acto implica invariablemente una interpretación, es decir, la captación de una relación en el marco de un contexto, y este contexto puede ser, en gran parte, construcción o añadidura del sujeto. La mente humana no puede trabajar de manera distinta; ésa es su forma natural de operar. Por supuesto, la evidencia racional y su consiguiente "validación" tienen la fragilidad de la limitación humana y, en fin de cuentas, valdrán tanto como la agudeza intelectual del investigador.

Todo esto nos lleva a una conclusión lógica que no debemos olvidar en nuestra “validación” de las teorías: todas las teorías científicas serán siempre parciales (tratan sólo algunos aspectos de la realidad) y aproximadas (contienen errores o apreciaciones parcialmente erróneas). Una teoría perfecta (completa y precisa en su totalidad) no existe ni existirá nunca: resulta algo contradictorio con el mismo concepto de teoría.

Cualquiera que sea la posición adoptada, una determinada teoría nunca tendrá una aceptación universal por parte de todos los científicos, para todos los propósitos y en todos sus contextos posibles de aplicación. Siempre ha habido insignes científicos que no han aceptado teorías famosas: Huygens, por ejemplo, no estaba satisfecho con la mecánica de Newton y, para Einstein, la validez de la indeterminación cuántica sostenida por Planck, Heisenberg, Niels Bohr y muchos otros notables científicos, siempre estuvo en duda. En las ciencias humanas se sostiene, más como regla que como excepción, que la aceptabilidad de una teoría sea una cuestión de grados.

Criterios para evaluar las teorías. A continuación señalamos algunos criterios que, a nuestro juicio y de muchos otros autores, se han revelado más importantes y útiles en la "validación" y evaluación de las teorías o estructuras teóricas (verlos más ampliamente en Martínez, 2004).

1. Coherencia interna: éste es el criterio básico. Indica que todos los elementos y partes constituyentes de una teoría se relacionan entre sí sin contradicciones, es más, que forman un todo coherente y bien integrado.

2. Consistencia externa: es la compatibilidad que hay entre la doctrina que constituye la teoría y el conocimiento ya establecido en el mismo campo o en campos adyacentes o afines. Sin embargo, la consistencia externa es un criterio esencialmente conservador. Las teorías revolucionarias rompieron drásticamente con lo establecido y aceptado. Por eso, debe ser usado con prudencia, es decir, no es absoluto, sino que está sujeto a un juicio más básico y fundamental, derivado del examen y apreciación del contexto.

3. Comprehensión: en igualdad de condiciones, una teoría será mejor que otra si abarca o se relaciona con un amplio campo de conocimientos, es decir, si logra integrar y unificar un vasto espectro de ideas en el área.

4. Capacidad predictiva: una buena teoría debe ofrecer la capacidad de hacer predicciones sobre lo que sucederá o no sucederá si se dan ciertas condiciones especificadas en ella, aunque la confirmación o contrastación de esas predicciones pueda resultar en extremo difícil, debido a la naturaleza de esa teoría.

5. Precisión conceptual y lingüística: debe haber unidad conceptual, es decir, el universo del discurso debe estar definido y sus predicados deben ser semánticamente homogéneos y conexos. No debe haber vaguedad ni ambigüedad.

6. Originalidad: las más fecundas revoluciones del conocimiento han consistido en la introducción de teorías que, lejos de limitarse a condensar lo sabido, nos obligaron a pensar de un modo nuevo, a formular nuevos problemas y a buscar nuevas clases de relaciones y de conocimiento.

7. Capacidad unificadora: es la capacidad de reunir dominios cognoscitivos que aún permanecen aislados. Así lo hicieron hombres como Newton, Maxwell, Niels Bohr y, sobre todo, Einstein con las teorías físicas  que propusieron.

8. Simplicidad y parsimonia: en igualdad de condiciones, es preferible la teoría más simple, por su claridad y diafanidad, como hace Carl Rogers en Psicología.

9. Potencia heurística: una  buena teoría debe sugerir, guiar y generar nuevas investigaciones, planteando nuevos problemas interesantes y facilitando el diseño de estudios y experimentos de gran proyección en el área.

10. Aplicación práctica: una teoría fácil de aplicar será mejor que otra que, en igualdad de condiciones, es de difícil aplicación.

11. Contrastabilidad: es una ventaja para una teoría que sus postulados, axiomas y derivados sean susceptibles de contrastación, es decir, de un examen, crítica y control que lleven o permitan confirmarla o refutarla. Todo esto depende mucho de la naturaleza del objeto a que se refiere esa teoría.

12. Expresión estética: los griegos siempre pensaron que lo verdadero era también bello; en la física, por ejemplo, está resultando un lugar común el pensar que la "belleza" de una teoría física resulta a menudo una pista más importante hacia su verdad que su correspondencia con los hechos, los cuales pueden constituir una dificultad temporal.

Como síntesis, en la tabla que sigue se presenta una planilla que puede ser utilizada para efectuar una evaluación práctica de estos doce criterios de apreciación de una teoría o estructura teórica, que relacionan e integran todo el proceso de una investigación. Por ello, es también un buen instrumento de evaluación de su validez y confiabilidad.

Criterios para Evaluar las Teorías o Estructuras Teóricas 

Criterios

Niveles

 

1

2

3

4

5

 

Mínimo

Bajo

Medio

Alto

Máximo

1

Coherencia interna

 

 

 

 

 

2

Consistencia externa

 

 

 

 

 

3

Comprehensión

 

 

 

 

 

4

Capacidad predictiva

 

 

 

 

 

5

Precisión conceptual y lingüística

 

 

 

 

 

6

Originalidad

 

 

 

7

Capacidad unificadora

8

Simplicidad, y parsimonia

9

Potencia heurística

10

Aplicación práctica

11

Contrastabilidad

12

Expresión estética

 

TOTALES   =

Conclusión

La vida humana actual se ha vuelto cada vez más compleja, tanto en el ámbito personal y familiar, como en el colectivo: social, laboral y empresarial. Su estudio y evaluación no puede realizarse en forma adecuada con procedimientos que, si se consideraron válidos en tiempos pasados (antes de la década de los 60), hoy día son juzgados como inconsistentes e indefendibles epistemológica y metodológicamente “por sus dificultades intrínsecas insuperables” (Popper, 1977, p. 118).

Esta complejidad requiere un paradigma sistémico y una metodología esencialmente crítica en todas sus fases, no sólo la relacionada con los instrumentos usados en una medición puntual o en la precisión de una réplica, como son la validez y la confiabilidad clásicas, sino que, dada la intrincada trama de variables que conforman la vida moderna (variables antecedentes, intervinientes e interactuantes), se vuelve absolutamente indispensable una examen crítico a lo largo de todo el proceso de investigación.

Las metodologías cualitativas llevan más de 30 años avocándose a este desafío; han producido unos 400 manuales para adecuarse a la diversidad de los problemas y más de 3000 artículos en revistas sobre sus aspectos específicos. El problema de la validez y la confiabilidad de una investigación ha sido enfrentado por estas metodologías desde sus diferentes ángulos, como hemos expuesto, y, en su conjunto, le están dando una solución eminentemente rigurosa, sistemática y crítica, criterios que, desde Kant para acá, se consideran los referentes fundamentales exigidos por una auténtica cientificidad. En nuestra última obra, Ciencia y Arte en la Metodología Cualitativa (2004), hemos expuesto una amplísima bibliografía, general y también especificada por sectores, que puede ser muy útil al lector en el momento de tener que consultar autores, métodos y técnicas.

Referencias

1. Aracil, J. (1986). Máquinas, sistemas y modelos. Madrid: Tecnos.        [ Links ]

2. Aristóteles (1973). Obras completas. Madrid: Aguilar.        [ Links ]

3. Bertalanffy, L. Von, (1974). Robots, hombres y mentes. Madrid: Guadarrama.        [ Links ]

4. Bertalanffy, L. Von (1976). Teoría general de sistemas. Madrid: FCE.        [ Links ]

5. Bertalanffy, L. Von (1981). Historia y situación de la teoría general de sistemas", en Bertalanffy, L. von y otros, Tendencias en la teoría general de sistemas. Madrid: Alianza.        [ Links ]

6. Bryman, A. y Burgess, R. (1999). Qualitative Research. 4 vols. Londres: Sage.        [ Links ]

7. Capra, F. (1992).  El tao de la física, 3ª edic. Madrid: Luis Cárcamo.        [ Links ]

8. Denzin, N. y Lincoln, I.. (ed) (2000). Handbook of qualitative research, 2ª edic. Thousands Oaks, CA: Sage        [ Links ]

9. Dobzhansky, T. (1967). The biology of ultimate concern. Nueva York: American Library.        [ Links ]

10. Echeverría, J. (1989). Introducción a la metodología de la ciencia: la filosofía de la ciencia en el siglo XX. Barcelona: Barçanova.        [ Links ]

11. Gadamer, H. G. (1976). Philosophic Hermeneutics. Berkeley: University of California Press.        [ Links ]

12. Gadamer, H. G. (1984). Verdad y método: fundamentos de una hermenéutica filosófica. Salamanca: Sígueme.        [ Links ]

13. Galilei, Galileo, (1968). I due massimi sistemi del mondo, en Le opere di Galileo Galilei (20 vols), vol. VII, Florencia: Barberà.        [ Links ]

14. Hanson, N. R. (1977). Patrones de descubrimiento. Observación y explicación. Madrid: Alianza.        [ Links ]

15. Kaplan, A., (1979). The Conduct of Inquiry: Methodology for Behavioral Science. Nueva York: Harper.         [ Links ]

16. Kerlinger, F. N. (1981a). Investigación del comportamiento. México: Interamericana.        [ Links ]

17. Kerlinger, F. N. (1981b). Enfoque conceptual de la investigación. México: Interamericana.        [ Links ]

18. Kirk, J. y Miller, M. (1986). Reliability and validity in qualitative research. Newbury Park, CA.: Sage.        [ Links ]

19. Köhler, W. (1967)., Psicología de la configuración.  Madrid: Morata.        [ Links ]

20. Le Compte, M. D. y J. P. Goetz  (1982). "Problems of reliability and validity of ethnographic research", Review of Educational Research, 52 (1), 31-60.         [ Links ]

21. Lincoln, Y. y Guba, E. (1999). Establishing trustworthiness. En Bryman y Burgess, 1999.        [ Links ]

22. Lyotard J.F., (1989). La condición postmoderna. Barcelona: Gedisa.        [ Links ]

23. Martínez, M. (1993). “El proceso creador a la luz de la neurociencia”, Comportamiento (Caracas: USB), 2, 1, 3-22.        [ Links ]

24. Martínez, M. (1994). “Hacia un nuevo paradigma de la racionalidad”, Anthropos (Venezuela), 28, 55-78.        [ Links ]

25. Martínez, M. (1996). El desafío a la racionalidad científica clásica, Congreso internacional multidisciplinario sobre los desafíos del siglo XXI, Caracas.        [ Links ]

26. Martínez, M. (1996). Comportamiento humano: nuevos métodos de investigación, 2ª edic., México: Trillas.        [ Links ]

27. Martínez, M.  (1997). El paradigma emergente: hacia una nueva teoría de la racionalidad científica, México: Trillas.        [ Links ]

28. Martínez, M. (1999a). La nueva ciencia: su desafío, lógica y método. México: Trillas.        [ Links ]

29. Martínez, M. (1999b). La psicología humanista: un nuevo paradigma psicológico. México: Trillas.        [ Links ]

30. Martínez, M. (2004). Ciencia y Arte en la metodología cualitativa. México: Trillas.        [ Links ]

31. Martínez, M.  (en prensa). Evaluación cualitativa para una optimización gerencial. México: Trillas.        [ Links ]

32. Miles, M. y Huberman A., (1994). Qualitative data analysis: an expanded sourcebook, 2ª edic., Newbury Park, CA: Sage.        [ Links ]

33. Pfaffenberger, B, (1988). Microcomputer applications in qualitative research, Newbury Park, CA: Sage.        [ Links ]

34. Polanyi, M. (1966). El estudio del hombre. Buenos Aires: Paidós.        [ Links ]

35. Popper, K., (1963). Conjetures and refutations. Londres: Routledge.        [ Links ]

36. Popper, K., (1977). Búsqueda sin término: una autobiografía intelectual. Madrid: Tecnos.        [ Links ]

37. Popper, K. y J. Eccles, (1985). El yo y su cerebro. Barcelona:  Labor.         [ Links ]

38. Prigogine I.– Stengers I. (1986). La nouvelle alliance: meta­morphose de la science. 2da edic., París: Gallimard.        [ Links ]

39. Richards, T. J. y otros, (1994). Using computers in qualitative research, en: Denzin y Lincoln (ed), 2000.        [ Links ]

40. Rogers, C. R., (1968). "Some thoughts regarding the current presuppositions of the behavioral sciences", en Coulson, W. y C. R. Rogers, Man and the Sciences of Man, Ohio: Merril.        [ Links ]

41. Saussure, F. de (1931). Cours de linguistique générale. París: Payot.        [ Links ]

42. Suppe, F., “Afterword-1977”,  (1977) en The structure of scientific theories, 2da edic., 617-730, Urbana, IL : University of Illinois Press.        [ Links ]

43. Suppe, F., (1979). La estructura de las teorías científicas (Actas del Simposio: Urbana, IL., EE.UU., marzo 1969), Madrid: Editora Nacional.        [ Links ]

44. Tesch, R. (1990). Qualitative research: analysis types and software tools. Nueva York: Falmes Press        [ Links ]

45. Thuiller, P. (1975). La manipulación de la ciencia. Madrid: Fundamentos.        [ Links ]

46. Weitzman,E. (2000). Software and qualitative research. En Denzin y Lincoln (ed), 2000.        [ Links ]

47. Yin, R. (2003). Case study research; Design and methods. 3a edic. Thousand Oaks, CA: Sage.        [ Links ]

EL AUTOR

Dr. Miguel Martínez M. Profesor Titular (Jubilado) de la Universidad Simón Bolívar de Caracas (Venezuela)  Responsable de la Línea de Investigación “Epistemología y Metodología Cualitativa”. miguelm@usb.ve Página de Internet: http://prof.usb.ve/miguelm.