Diseño de estudio piloto. Diseño de investigación psicológica

Un certificado médico de defunción es un documento médico importante que certifica el hecho de la muerte de una persona para el registro estatal en una oficina de registro civil y es la base de las estadísticas sobre las causas de muerte.

De acuerdo con la Ley Federal "Sobre Actos del Estado Civil" de 15.11.97. No. 143-FZ, el registro de la muerte de una persona se realiza sobre la base de un documento del formulario establecido "Certificado médico de defunción". El registro de un niño que nació muerto, o que nació vivo, pero murió en la primera semana de vida, se realiza sobre la base del documento "Certificado médico de muerte perinatal". Estos documentos son emitidos por una organización médica o un médico privado.

La revisión anterior del Certificado Médico de Defunción (formulario de registro 106 / a-98) y del Certificado Médico de defunción perinatal (formulario de registro 106 / 2u-98) se realizó en 1998. Estos formularios (de la muestra establecida) fueron aprobados por orden del Ministerio de Salud de Rusia con fecha 07/08/98. No. 241.

En la práctica internacional, los certificados de defunción se revisan después de unos 10 años. El propósito de la revisión es adaptar los formularios a las condiciones cambiadas, teniendo en cuenta los logros de la asistencia sanitaria nacional y extranjera.

Durante los últimos 10 años, se ha acumulado cierta experiencia en el trabajo con certificados de defunción válidos y de defunción perinatal.

El objetivo de nuestro estudio fue desarrollar propuestas para mejorar la confiabilidad y comparabilidad internacional de las estadísticas de mortalidad.

Investigar objetivos:

  1. Examinar el sistema existente para recopilar y procesar estadísticas sobre mortalidad y la aplicación de estándares para certificados médicos de defunción.
  2. Analizar el llenado y tramitación de los certificados médicos de defunción y defunción perinatal y, en base a una valoración pericial, determinar la fiabilidad de los datos estadísticos de mortalidad en los territorios estudiados.
  3. Desarrollar propuestas para mejorar los registros de mortalidad.
  4. Desarrollar un sistema de formación de especialistas sobre las bases metodológicas para lograr la confiabilidad de las causas de muerte.
  5. Desarrollar e implementar un paquete metodológico de programas para el uso de la CIE-10 (RUTENDON ").
  6. Desarrollar un conjunto de programas de "Seguimiento de la mortalidad" con selección automatizada y codificación de la causa inicial de muerte.

Materiales, métodos y bases de investigación.

Analizamos 120.715 certificados médicos de defunción y 1.093 certificados médicos de defunción perinatal para diferentes años de 2000 a 2006 en las regiones de Tula, Vladimir, Kurgan, Tyumen, los territorios de Stavropol y Krasnoyarsk y la República de Buriatia.

En el presente estudio utilizamos métodos continuos y selectivos, evaluación de expertos y el paquete de programas “Seguimiento de la fecundidad y la mortalidad”.

Los materiales, bases de datos y métodos utilizados permitieron resolver las tareas asignadas.

Como resultado del estudio, se encontró que el sistema existente de registro, procesamiento y presentación de información sobre mortalidad en Rusia corresponde básicamente a las recomendaciones de la OMS. Al mismo tiempo, existen desviaciones de las definiciones internacionales en las estadísticas estatales de mortalidad.

Se analizó la calidad del llenado de los certificados y se identificaron deficiencias en el propio certificado, errores en el llenado, codificación y elección de la causa inicial de muerte.

Se identificaron artículos duplicados en el certificado médico de defunción (cláusulas 14, 15 y 18), lo que genera errores y discrepancias al completar el certificado en caso de lesiones y envenenamientos. En la cláusula 8 del lomo y la cláusula 18 "Causa de muerte" de la evidencia, hay traducciones interlineales innecesarias, es decir son correctos solo cuando hay suficiente información para las tres líneas. Si hay información en una o dos líneas, entonces se violan las reglas para completar el certificado, es decir, la tercera línea se completa con la primera y la segunda vacías.

Violaciones establecidas, aunque aisladas, del registro de defunción. Por ejemplo, en la región de Tula, estas violaciones ascendieron al 0,4%, en el Territorio de Stavropol, al 5,5%.

Una evaluación experta de la cumplimentación del certificado médico de defunción mostró que básicamente se han cumplimentado todos los puntos del certificado. Al mismo tiempo, la cláusula 12 "Educación" se completa solo en el 36,1% de los casos, la cláusula 13 "Dónde y para quién trabajó" - en el 50% de los casos, y en otros casos la información es desconocida. Al mismo tiempo, esta información es muy importante, ya que explican el estatus social de los fallecidos y se utilizan ampliamente en el análisis de la mortalidad.

Se encontraron errores al completar el ítem 18 "Causa de muerte": de 23,6 a 47,4% en diferentes territorios, al elegir la causa inicial de muerte - de 5,9 a 15,4% y al codificar: de 27,9 a 52, nueve%.

Por lo tanto, el problema radica en el hecho de que la confiabilidad de la información sobre la mortalidad en general para las entidades constituyentes de la Federación de Rusia es de aproximadamente el 50%.

Estos errores distorsionan la estructura real de las causas de la mortalidad total en las regiones estudiadas y dan una idea incorrecta de los procesos médicos y demográficos.

Las graves deficiencias y distorsiones de los indicadores de las causas de muerte se explican por la falta de métodos de capacitación uniformes para los especialistas en el llenado de certificados médicos de defunción y muerte perinatal.

La ausencia de instrucciones sobre el procedimiento para completar y emitir un certificado médico de defunción reduce significativamente su calidad.

Resolviendo las tareas de investigación, desde 1999 hasta 2006, se realizaron los siguientes trabajos:

  • Se llevaron a cabo 106 seminarios sobre el uso de la CIE-10, las reglas para completar un certificado médico de defunción y codificación, que cubrieron a 6977 aprendices;
  • se desarrolló e implementó un paquete metodológico de programas para el uso de la CIE-10 "RUTENDON" en 87 sitios (30 en las entidades constitutivas de la Federación de Rusia, 51 en los NEI, 6 en los países de Europa del Este);
  • Se elaboró ​​un complejo de programas "Seguimiento de la fertilidad y la mortalidad" con selección y codificación automatizadas de la causa inicial de muerte y se introdujo en la atención de salud de 19 entidades constituyentes de la Federación de Rusia (Tula, Vladimir, Bryansk, Kirov, Sverdlovsk, Kurgan , Regiones de Tyumen, Belgorod, Saratov, Yaroslavl, territorios de Krasnoyarsk y Stavropol, Repúblicas de Buriatia, Daguestán, Tyva, Udmurtia y Chuvashia, Yamalo-Nenets y Khanty-Mansi Autonomous Okrugs). La introducción de este complejo de programas en la práctica sanitaria permite incrementar en un 18% la fiabilidad de las causas de muerte.

Consideramos la decisión del Ministerio de Salud y Desarrollo Social de la Federación de Rusia de revisar el certificado médico de defunción y muerte perinatal con el desarrollo simultáneo de instrucciones para nuevos certificados.

Al mismo tiempo, creemos que los borradores de los nuevos certificados y las instrucciones que se presentan para su discusión requieren revisión, ya que complicaron y no corrigieron las deficiencias de los documentos existentes.

Proponemos realizar los siguientes cambios en el borrador del nuevo certificado médico de defunción:

  • eliminar "live__years, __months, __days", tk. el documento estadístico contable no debería ser complicado si se registran las fechas de nacimiento y defunción;
  • eliminar los registros del momento de la prematuridad, a término completo y posterior, transferir estas explicaciones a las instrucciones;
  • Reemplazar la entrada para el término de embarazo a término de (37-42 semanas) a (37-41 semanas), porque de acuerdo con la CIE-10, el embarazo a término se considera desde 37 semanas completas hasta menos de 42 semanas completas (259-293 días);
  • reemplace la fecha de nacimiento de la madre por la edad de la madre (años completos);
  • excluir las cláusulas 13 y 15, ya que duplica el párrafo 19, que es más informativo;
  • elimine los subíndices de la cláusula 19 "Causas de muerte" y transfiéralos a las instrucciones, donde puede describir en detalle las reglas para completar esta cláusula;
  • reemplace en la cláusula 19 "Causas de muerte" las letras inglesas en los nombres de las líneas a), b), c), d) por letras rusas a), b), c), d);
  • incluir en la cláusula 19 "Causas de muerte" una columna adicional "Período aproximado de tiempo entre el inicio del proceso patológico y la muerte" recomendado por la CIE-10;
  • Reducir el ítem 20 a su tamaño anterior, limitando la información sobre el embarazo actual y el embarazo durante el año anterior a la muerte, porque en Rusia, se lleva a cabo un seguimiento de la mortalidad materna, donde puede obtener toda la información en el párrafo 20.

La instrucción "Sobre el procedimiento para completar y emitir un certificado médico de defunción, aprobado por orden del Ministerio de Salud de la URSS No. 1300 de 19 de noviembre de 1984, no se volvió a emitir, a pesar de que el certificado médico de defunción se revisó en 1998 , formulario de registro No. 106 / u-98 aprobado por orden del Ministerio de Salud de Rusia con fecha 07.08.98, No. 241.

El desarrollo y la implementación generalizada de la Instrucción sobre el procedimiento para completar y emitir un certificado médico de defunción es relevante, ya que Reducirá el 10% de los errores y ayudará a aumentar la confiabilidad de las causas de muerte de la población de la Federación de Rusia.

El proyecto de Instrucción se preparó sobre la base de la Instrucción sobre el procedimiento para completar y emitir un certificado médico de defunción, desarrollada en el Instituto Central de Investigación de Salud del Ministerio de Salud de la Federación de Rusia en 1998, y en general cumple con los requisitos de la CIE-10.

Al mismo tiempo, para aumentar la confiabilidad de las causas de muerte y de acuerdo con las recomendaciones de la OMS, proponemos introducir enmiendas fundamentales al borrador de Instrucciones:

  • para permitir que el personal de enfermería (paramédico, partera) redacte un certificado médico de defunción en ausencia de un médico y reemplace la entrada "que no tienen puestos de personal médico en la organización médica" con la entrada "no tienen personal médico en la organización médica ", porque puede darse el caso de que exista un puesto de médico en la plantilla, pero no esté físicamente, esté de vacaciones, en el hospital, etc .;
  • transferir las definiciones de "prematuro", "a término" y post término del certificado a la instrucción, corrigiendo el término de término completo a las 37-41 semanas de embarazo;
  • para corregir la entrada "incluso como resultado de un accidente, envenenamiento y lesión" en el caso de embarazo relacionado con la entrada "con excepción de un accidente, envenenamiento y lesión, infección por VIH y tétanos obstétrico", porque las muertes por estas causas no se incluyen en la mortalidad materna;
  • corregir códigos en los ejemplos 5, 7, 10 y 13

Durante el estudio, se estudiaron en detalle los certificados médicos de muerte perinatal con el fin de determinar la veracidad de completar el documento, codificar y elegir la principal enfermedad (condición) del niño que llevó a la muerte, y la principal enfermedad de la madre. que tuvo un efecto adverso en el niño. Se llevó a cabo una evaluación de expertos por separado para los niños nacidos vivos y nacidos muertos. Se encontraron muchos más errores al completar las causas de muerte y procesar datos sobre niños nacidos muertos.

Los errores en el párrafo 18 "Causas de muerte" en los muertos se agruparon en 5 grupos (región de Tula y territorio de Stavropol, respectivamente):

  • al cumplimentar un certificado médico de defunción perinatal "(18,9-40,5%),
  • al elegir la enfermedad subyacente en un niño (10,8-20,3%),
  • al elegir la principal enfermedad de la madre que tuvo un efecto adverso en el niño (62,2-60,8%),
  • en la elección del código de la enfermedad subyacente del niño (73-77%),
  • en la elección del código de la principal enfermedad de la madre (67,5-91,9%)

Por lo tanto, como resultado del estudio, se encontró que el sistema existente para recopilar y procesar certificados médicos de muerte perinatal en la región de Tula y el Territorio de Stavropol no garantiza la confiabilidad de los indicadores estadísticos de las causas de muerte.

Uno de los factores importantes que influye en el aumento de la fiabilidad de las estadísticas de mortalidad perinatal es la reestructuración del sistema contable y su adecuación a las normas internacionales.

El borrador del certificado médico de muerte perinatal propuesto por el Ministerio de Salud y Desarrollo de la Federación de Rusia marcó la transición a un nuevo período perinatal y también agregó elementos separados sobre los signos de vida, recomendados por la OMS y correspondientes a la CIE-10.

La transición a un nuevo período perinatal empeorará algo nuestros indicadores de mortalidad perinatal, teniendo en cuenta que nacen en nosotros hasta un 2% de fetos con un peso de 500 ga 999 g, pero garantizará la comparabilidad de nuestros indicadores con los de países desarrollados.

Al mismo tiempo, proponemos realizar algunos cambios en el borrador del certificado médico de muerte perinatal:

  • excluir la entrada "para completar para mortinatos y nacidos vivos, que murieron durante los primeros 0-6 días (169 horas) después del nacimiento" y transferir esta entrada a la instrucción;
  • excluir de todos los puntos del certificado la palabra "feto", dejando en aquellos puntos que se relacionen con embarazos anteriores, tk. los certificados médicos de muerte perinatal no se completan para los fetos;
  • excluir en la cláusula 30 las palabras "por un médico que certificó la muerte", sobre la base de "examen del cadáver" y "los datos de la autopsia se pueden obtener más tarde", se emite un certificado preliminar.

Consideramos conveniente desarrollar simultáneamente un nuevo certificado médico de defunción perinatal y la instrucción "Sobre el procedimiento para completar y presentar a las autoridades del registro civil un certificado médico de defunción perinatal y el registro de defunciones de niños en el período perinatal".

La novedad del proyecto propuesto es la transición a un nuevo período perinatal de 22 semanas completas de vida intrauterina del feto a 7 días completos después del nacimiento, lo que está en línea con las recomendaciones de la OMS.

La transición a un nuevo período perinatal implicará una transición a una nueva definición del concepto de niño y feto. Esto significa que los fetos previamente considerados que pesan entre 500 y 999 g se considerarán niños y estarán sujetos al registro universal, como los niños, incluidos los que murieron antes de los 7 días posteriores al nacimiento y los mortinatos.

Para aumentar la confiabilidad de las estadísticas de mortalidad perinatal, proponemos incluir en las instrucciones las siguientes definiciones de los conceptos de "niño" y "feto", si contamos el período perinatal de 22 semanas completas de vida fetal a 7 días completos después del nacimiento.

Un niño es un producto de la concepción humana después de la expulsión completa o remoción del cuerpo de una madre con un peso al nacer de 500 go más, con una edad gestacional de 22 semanas o más, una longitud corporal de 25 cm o más desde el ápice. de la corona a los talones, independientemente del parto único o múltiple.

El feto es el producto de la concepción humana después de la expulsión completa o la extracción del cuerpo de una madre con un peso al nacer de 499 go menos, con una edad gestacional de menos de 22 semanas, una longitud corporal de menos de 25 cm desde el ápice. de la corona a los talones, independientemente de los partos únicos o múltiples.

El criterio principal para definir "niño" o "feto" es el peso corporal, pero si se desconoce el peso al nacer, se deben utilizar los criterios adecuados para determinar la edad gestacional o guiarse por la longitud del cuerpo desde la parte superior de la corona hasta la tacones.

Sugerimos realizar cambios en el borrador de las instrucciones:

  • añádanse las palabras "se rellena el certificado médico de defunción perinatal (f.106 / 2u-98) para los niños, los mortinatos y los nacidos vivos, que murieron entre 0 y 6 días (169 horas) después del nacimiento";
  • excluir la palabra "feto" en las instrucciones, excepto en los casos relacionados con embarazos anteriores;
  • agregue el siguiente orden establecido de trámites:
  • no se emite un certificado médico de nacimiento y muerte perinatal para el "feto"; Las "frutas" no están sujetas a registro;
  • un “niño” nacido muerto recibe un certificado médico de defunción perinatal y no se emite un certificado médico de nacimiento;
  • para un "niño" que nació vivo y murió en la primera semana de vida, se emiten simultáneamente un certificado médico de nacimiento y un certificado médico de muerte perinatal;
  • arreglar códigos para anomalías congénitas en Q00-Q99;
  • aclarar el texto y corregir los códigos en los ejemplos 4 y 5.

Así, la mejora de la documentación de registro de las estadísticas de mortalidad es uno de los factores que puede incrementar la confiabilidad en un 10%, y la transición al período perinatal, recomendada por la OMS, permitirá una comparación internacional de indicadores demográficos. Después de la transición a un nuevo período perinatal, es importante definir los conceptos de "niño" y "feto".


Vistas: 99840
  • Deje comentarios solo sobre el tema.
  • Puede dejar su comentario utilizando cualquier navegador que no sea Internet Explorer anterior a 6.0

La psicología experimental se basa en la aplicación práctica de los planes del llamado experimento verdadero, cuando se utilizan grupos de control durante el estudio y la muestra se encuentra en condiciones de laboratorio. Los experimentos de este tipo se denominan planes 4, 5 y 6.

Planifique con preprueba y posprueba y grupo de control (plan 4). El esquema 4 es un "diseño" clásico de un estudio de laboratorio psicológico. Sin embargo, también es aplicable en el campo. Su peculiaridad radica no solo en la presencia de un grupo de control - ya está presente en el esquema pre-experimental 3 - es decir, en la equivalencia (homogeneidad) de las muestras experimentales y de control. Un factor importante en la confiabilidad de un experimento construido según el esquema 4 son también dos circunstancias: la homogeneidad de las condiciones de investigación en las que se ubican las muestras y el control total de los factores que afectan la validez interna del experimento.

La elección de un plan de experimento con pruebas preliminares y finales y un grupo de control se realiza de acuerdo con la tarea experimental y las condiciones de investigación. Cuando es posible formar al menos dos grupos homogéneos, se aplica el siguiente esquema experimental:

Ejemplo. Para la asimilación práctica de las posibilidades de implementación del plan experimental 4, daremos un ejemplo de una investigación real en forma de experimento formativo de laboratorio, que contiene un mecanismo para confirmar la hipótesis de que la motivación positiva afecta la concentración de la atención de una persona. .

Hipótesis: la motivación de los sujetos es un factor significativo para incrementar la concentración y estabilidad de la atención de las personas en las condiciones de actividad educativa y cognitiva.

Procedimiento de experimento:

  • 1. Formación de muestras experimentales y de control. Los participantes en el experimento se dividen en pares, cuidadosamente igualados de acuerdo con los indicadores de las pruebas preliminares o de acuerdo con las variables que están significativamente correlacionadas entre sí. Los miembros de cada litera se asignan al azar al grupo de tratamiento o de control.
  • 2. Se invita a ambos grupos a realizar la prueba "Prueba de corrección con anillos" (O y 0 3).
  • 3. Se estimula la actividad de la muestra experimental. Supongamos que los sujetos de prueba reciben un entorno estimulante experimental (X): "Los estudiantes que obtuvieron 95 o más puntos (respuestas correctas) sobre la base de los resultados de las pruebas de concentración y estabilidad de la atención, reciben crédito en este semestre" automáticamente ”.
  • 4. Se invita a ambos grupos a realizar la prueba "Prueba de corrección con sílabas" (0 2 y OD

Algoritmo para analizar los resultados del experimento.

  • 5. Los datos empíricos se prueban para determinar la "normalidad" de la distribución 1. Esta operación permite aclarar al menos dos circunstancias. Primero, como prueba utilizada para determinar la estabilidad y concentración de la atención de los sujetos, los discrimina (diferencia) según un atributo medible. En este caso, la distribución normal muestra que los indicadores de características corresponden a la relación óptima con la situación de desarrollo de la prueba aplicada, es decir la técnica mide de manera óptima el área objetivo. Es adecuado para estas condiciones. En segundo lugar, la normalidad de la distribución de datos empíricos dará derecho a aplicar correctamente los métodos de estadística paramétrica. Las estadísticas se pueden utilizar para estimar la distribución de datos. Como y Ex o a.
  • 6. El cálculo de la media aritmética M x y 5 L. desviaciones estándar de los resultados de las pruebas preliminares y finales.
  • 7. Comparación de los valores medios de los indicadores de prueba en los grupos experimental y control (О, 0 3; Oh, OD
  • 8. La comparación de los valores medios se realiza de acuerdo con el criterio t de Student, es decir determinación de la significación estadística de las diferencias en los valores medios.
  • 9. Se realiza la prueba de las relaciones Oj = O e, O, 0 4 como indicadores de la efectividad del experimento.
  • 10. Se lleva a cabo un estudio de la validez del experimento determinando el grado de control de los factores de invalidez.

Para ilustrar el experimento psicológico sobre la influencia de las variables motivacionales en el proceso de concentración de la atención de los sujetos, pasemos a los datos presentados en la Tabla. 5.1.

Tabla de resultados del experimento, puntos

mesa 5.1

El final de la mesa. 5.1

Asignaturas

Medición antes de la exposición X

Medición después de la exposición X

Experimental

Grupo de control

Experimental

Grupo de control 0 3

Grupo experimental 0 2

Grupo de control 0 4

Comparación de los datos de la medición primaria de las muestras experimentales y de control - ¡Oh! y О3 - se realiza para determinar la equivalencia de muestras experimentales y de control. La identidad de estos indicadores indica la homogeneidad (equivalencia) de los grupos. Se determina calculando el nivel de significancia estadística de las diferencias en las medias en el intervalo de confianza R criterio t de Styodeita.

En nuestro caso, el valor del criterio / de Student entre los datos empíricos del examen primario en los grupos experimental y control fue de 0,56. Esto muestra que las muestras no difieren significativamente en el intervalo de confianza /?

La comparación de los datos de las medidas primarias y repetidas de la muestra experimental - Oj y O 2 - se lleva a cabo para determinar el grado de cambio en la variable dependiente después de la influencia de la variable independiente en la muestra experimental. Este procedimiento se lleva a cabo utilizando la prueba / -styodeite si las variables se miden en la misma escala de prueba o están estandarizadas.

En este caso, los exámenes preliminares (primarios) y finales se realizaron mediante diferentes pruebas que miden la concentración de atención. Por lo tanto, no es factible comparar indicadores promedio sin estandarización. Calculemos el coeficiente de correlación entre los indicadores de la investigación primaria y final en el grupo experimental. Su bajo valor puede servir como evidencia indirecta de que se han producido cambios en los datos. (R xy = 0D6).

El efecto experimental se determina comparando los datos de mediciones repetidas de las muestras experimental y de control: 0 2 y 0 4. Se realiza para identificar el grado de significancia del cambio en la variable dependiente luego de la exposición a la variable independiente. (X) en una muestra experimental. El significado psicológico de este estudio es evaluar el impacto X sobre los temas. En este caso, la comparación se realiza en la etapa de la medición final de los datos de los grupos experimental y control. Análisis de impacto X se lleva a cabo utilizando el criterio / de Student. Su valor es 2,85, que es más que el valor de la tabla del criterio / 1. Esto muestra que existe una diferencia estadísticamente significativa entre los valores medios de la prueba en los grupos experimental y de control.

Así, como resultado del experimento según el plan 4, se reveló que en el primer grupo de sujetos, que no difiere del otro grupo en términos de las características psicológicas del entorno (en términos de concentración de atención), excepto por el efecto sobre él de la variable independiente X, el valor del indicador de concentración de atención es estadísticamente significativamente diferente del indicador análogo del segundo grupo, que se encuentra en las mismas condiciones, pero fuera de la influencia X.

Considere un estudio de la validez de un experimento.

Fondo: controlado debido a que los eventos que ocurren en paralelo con el impacto experimental se observan tanto en el grupo experimental como en el de control.

Desarrollo natural: controlado debido al corto período entre las pruebas y el período de exposición y se lleva a cabo tanto en el grupo experimental como en el de control.

Prueba de efecto y error instrumental: controlados porque aparecen de la misma manera en los grupos experimental y control. En nuestro caso, existe un sesgo muestral de 1.

Regresión estadística: revisado. Primero, si la aleatorización condujo a la aparición de resultados extremos en el grupo experimental, aparecerán en el grupo de control, como resultado de lo cual el efecto de regresión será el mismo. En segundo lugar, si la aleatorización de ns dio lugar a la aparición de resultados extremos en las muestras, esta cuestión se elimina por sí sola.

Selección de asignaturas: controlado porque la explicación de las diferencias se excluye en la medida en que la aleatorización asegura que las muestras son equivalentes. Este grado está determinado por las estadísticas de muestra que hemos adoptado.

Eliminación: controlado por completo, ya que el período entre pruebas en ambas muestras es relativamente pequeño, así como por la necesidad de la presencia de los sujetos de prueba. En experimentos con un período de exposición prolongado (el período entre pruebas), es posible un sesgo en la muestra y el efecto de los resultados experimentales. Una salida a esta situación es tener en cuenta, al procesar los resultados de las pruebas preliminares y finales, a todos los participantes en ambas muestras, incluso si los sujetos del grupo experimental no recibieron un efecto experimental. el efecto X, aparentemente se debilitará, pero no habrá sesgo de muestreo. La segunda solución conlleva un cambio en el diseño experimental, ya que es necesario lograr la equivalencia de los grupos por aleatorización antes de la prueba final:

La interacción del factor de selección con el desarrollo natural: controlado formando un grupo equivalente de control.

Efecto reactivo: las pruebas preliminares realmente sintonizan a los sujetos para percibir el impacto experimental. Por lo tanto, el efecto de la exposición se "desplaza". Es poco probable que en esta situación se pueda afirmar absolutamente que los resultados del experimento se puedan extender a toda la población. El control del efecto reactivo es posible en la medida en que las encuestas repetitivas sean comunes a toda la población.

Interacción del factor de selección y la influencia experimental: en una situación de consentimiento voluntario para participar en el experimento, existe una amenaza de validez ("sesgo") debido a que este consentimiento es otorgado por personas de un determinado tipo de personalidad. Aleatorizar muestras equivalentes reduce la invalidación.

Reacción de los sujetos al experimento: la situación experimental conduce a un sesgo en los resultados, ya que los sujetos se encuentran en condiciones "especiales", tratando de comprender el significado de este trabajo. De ahí que sean frecuentes las manifestaciones de demostratividad, juego, vigilancia, actitudes hacia la adivinación, etc. Cualquier elemento del procedimiento experimental puede provocar una reacción al experimento, por ejemplo, el contenido de las pruebas, el proceso de aleatorización, la división de los participantes en grupos separados, el mantenimiento de los sujetos en diferentes salas, la presencia de extraños, la uso de un extraordinario X etc.

La salida a esta dificultad es el "enmascaramiento" del estudio, es decir, elaboración y adhesión estricta a un sistema de procedimientos experimentales legendarios o su inclusión en el curso habitual de los acontecimientos. Para este propósito, parece más racional realizar pruebas y exposiciones experimentales bajo la apariencia de actividades de verificación regulares. Al investigar incluso a miembros individuales de un grupo, es deseable participar en el experimento del colectivo como un todo. Parece oportuno realizar pruebas e impacto experimental por medio de gestores, profesores, activistas, observadores a tiempo completo, etc.

En conclusión, cabe señalar que, como señaló D. Campbell, el método óptimo para determinar el efecto de un experimento puede seguir siendo el "sentido común" y las "consideraciones de naturaleza no matemática".

El plan de R. Salomón para cuatro grupos (plan 5). En presencia de ciertas condiciones de investigación que permiten la formación de cuatro muestras equivalentes, el experimento se construye de acuerdo con el esquema 5, que lleva el nombre de su autor: "El plan de Salomón para cuatro grupos":

El plan de Salomón es un intento de compensar los factores que amenazan la validez externa del experimento al involucrar en el experimento a dos grupos adicionales (al plan 4) que no están sujetos a medición preliminar.

La comparación de datos para grupos adicionales neutraliza el impacto de las pruebas y la influencia del entorno experimental en sí, y también permite generalizar mejor los resultados. La revelación del efecto de la exposición experimental se reproduce probando estadísticamente las siguientes desigualdades: 0 2> Oj; 0 2> 0 4; 0 5> Acerca de b. Si se satisfacen las tres relaciones, entonces la validez de la conclusión experimental mucho aumenta.

El uso del plan 5 determina la probabilidad de neutralizar la interacción de las pruebas y la exposición experimental, lo que facilita la interpretación de los resultados de la investigación de acuerdo con el plan 4. La comparación de O b con O, y 0 3 revela el efecto combinado del desarrollo natural y el fondo. La comparación de los promedios 0 2 y 0 5, 0 4 y 0 0 permite evaluar el efecto principal de las pruebas preliminares. La comparación de la media () 2 y 0 4, 0 5 y 0 G) nos permite estimar el efecto principal de la exposición experimental.

Si los efectos de la prueba previa y la interacción son pequeños e insignificantes, entonces es aconsejable realizar un análisis de covarianza de 0 4 y 0 2 utilizando los resultados de la prueba previa como una variable complementaria.

Un plan con un grupo de control y pruebas solo después de la exposición (plan 6). Muy a menudo, al realizar tareas experimentales, los investigadores se enfrentan a la situación de la necesidad de estudiar variables psicológicas en condiciones de imposibilidad de medición preliminar de los parámetros psicológicos de los sujetos, ya que el estudio se lleva a cabo después de la influencia de variables independientes, es decir. cuando el evento ya ha ocurrido y es necesario identificar sus consecuencias. En esta situación, el diseño experimental óptimo es un diseño con un grupo de control y pruebas solo después de la exposición. Mediante la aleatorización u otros procedimientos que garanticen una equivalencia selectiva óptima, se forman grupos de sujetos experimentales y de control homogéneos. La prueba de variables se lleva a cabo solo después de una exposición experimental:

Ejemplo. En 1993, por orden del Instituto de Investigación en Radiología, se llevó a cabo un estudio del efecto de la exposición a la radiación sobre los parámetros psicológicos de una persona 1. El experimento se construyó de acuerdo con el plan 6. Se llevó a cabo un examen psicológico de 51 liquidadores de las consecuencias del accidente en la central nuclear de Chernobyl mediante una batería de pruebas psicológicas (cuestionarios de personalidad, SAN (Bienestar. Actividad. Estado de ánimo) , Test de Luscher, etc.), EAP según R. Voll (R. Voll) y el juego de diagnóstico situacional automatizado (ASID) "Test". La muestra de control estuvo formada por 47 especialistas que no participaron en actividades radiológicas en la central nuclear de Chernobyl. La edad promedio de los sujetos de los grupos experimental y control fue de 33 años. Los sujetos de ambas muestras se correlacionaron óptimamente en términos de experiencia, ocupación y estructura de socialización, por lo que los grupos formados se consideraron equivalentes.

Hagamos un análisis teórico del diseño según el cual se construyó el experimento y su vigencia.

Fondo: controlado porque el estudio utilizó una muestra de control equivalente.

Desarrollo natural: fue controlado como factor de influencia experimental, ya que no hubo intervención de los experimentadores en el proceso de socialización de los sujetos.

Efecto de prueba: controlado ya que ns fue una prueba preliminar de los sujetos.

Error instrumental: controlado, desde una verificación preliminar de la confiabilidad de los medios metodológicos y aclaración de sus indicadores normativos luego de realizado el experimento, así como el uso del mismo tipo de "batería de prueba" en los grupos control y experimental.

Regresión estadística: controlado elaborando el material experimental en toda la muestra, formada en un orden aleatorio. Sin embargo, existía una amenaza para la validez debido al hecho de que no había datos preliminares sobre la composición de los grupos experimentales, es decir, probabilidad de ocurrencia y variables polares.

Selección de asignaturas ", no totalmente controlado debido a la aleatorización natural. No hubo una selección especial de temas. En un orden aleatorio, se formaron grupos a partir de los participantes en la liquidación del accidente en la central nuclear de Chernobyl y especialistas químicos.

Selección de sujetos de prueba, durante el experimento no lo fue.

Interacción del factor de selección con el desarrollo natural ", se llevó a cabo una selección especial de ns. Esta variable fue monitoreada.

Interacción entre la composición del grupo y la exposición experimental ", no hubo una selección especial de temas. No se les informó a cuál de los grupos de estudio (experimental o control) pertenecen.

La reacción de los sujetos al experimento ", factor incontrolable en este experimento.

Interferencia mutua (superposición) de influencias experimentales: no se controló debido al hecho de que no se sabía si los sujetos participaron en tales experimentos y cómo esto afectó los resultados de las pruebas psicológicas. Al observar a los experimentadores, resultó que, en general, la actitud hacia el experimento fue negativa. Es poco probable que esta circunstancia haya tenido un efecto positivo en la validez externa de este experimento.

Resultados del experimento

  • 1. Se realizó un estudio de la distribución de datos empíricos, que tenían apariencia de campana, cercana a la curva de distribución normal teórica.
  • 2. Utilizando el criterio t de Student, se hace una comparación de las medias Oj> 0 2. Presentado por ASID "Test" y EAF, los grupos experimental y de control difirieron significativamente en la dinámica de los estados emocionales (entre los liquidadores - mayor), la efectividad de la actividad cognitiva (los liquidadores mostraron una disminución), así como el funcionamiento de la aparato locomotor, hígado, riñones, etc. debido a intoxicación endógena crónica.
  • 3. Utilizando la prueba ^ de Fisher, se calculó la influencia de las "fluctuaciones" (varianza de la variable independiente) X sobre la varianza de la variable dependiente 0 2.

Como conclusión de este estudio, se hicieron recomendaciones adecuadas a los participantes del experimento y sus líderes, se validó la batería diagnóstica de pruebas psicológicas y se identificaron factores psicofisiológicos que afectan a personas en condiciones radiológicas extremas.

Así, el "diseño" experimental 6 representa el esquema óptimo de investigación psicológica cuando no es posible realizar una medición preliminar de las variables psicológicas.

De lo anterior se desprende que la base del método experimental en psicología son los llamados planes verdaderos, en los que se lleva a cabo el control de casi todos los factores principales que afectan la validez interna. La fiabilidad de los resultados en experimentos diseñados según los esquemas 4-6 no plantea dudas entre la gran mayoría de investigadores. El principal problema, como en todos los demás estudios psicológicos, es la formación de muestras experimentales y de control de sujetos, la organización del estudio, la búsqueda y uso de instrumentos de medida adecuados.

  • El símbolo R en el esquema indica que la homogeneidad de los grupos se obtuvo por aleatorización. Este símbolo puede ser arbitrario, ya que la homogeneidad de las muestras de control y experimentales se puede asegurar por otros medios (por ejemplo, selección por pares, pruebas preliminares, etc. .). El valor del coeficiente de correlación (0,16) revela una relación estadística débil entre las mediciones, es decir, se puede suponer que ha habido algún cambio en los datos Los valores después de la exposición no coinciden con los de antes de la exposición. EAF: el método Voll (en alemán: Elektroakupunktur nach Voll, EAV) es un método de diagnóstico eléctrico rápido en medicina alternativa (alternativa) que mide la resistencia eléctrica de la piel. El método fue desarrollado en Alemania por el Dr. Reynold Voll en 1958. En esencia, es una combinación de acupuntura y el uso de un galvanómetro.
  • Evaluación del estado psicológico de los militares - liquidadores del accidente de Chernobyl utilizando el juego situacional dinámico "Test" / IV Zakharov, OS Govorukha, I. II. Poss [et al.] // Military Medical Journal. 1994. No. 7. S. 42-44.
  • Investigación B. II. Ignatkin.

Diseño de experimentos (GAMA , DOX o diseño experimental) es el desarrollo de cualquier tarea que busque describir o explicar el cambio en la información bajo condiciones que se hipotetizan para reflejar el cambio. El término generalmente se asocia con experimentos en los que el diseño introduce condiciones que influyen directamente en el cambio, pero también puede referirse al diseño de cuasi-experimentos en los que las condiciones naturales que influyen en el cambio se eligen para su observación.

En su forma más simple, un experimento tiene como objetivo predecir resultados mediante la introducción de cambios en las condiciones previas que están representadas por una o más variables independientes, también denominadas "variables de entrada" o "predictores". Por lo general, se plantea la hipótesis de que un cambio en una o más variables independientes da como resultado un cambio en una o más variables dependientes, también conocidas como "variables de salida" o "variables de respuesta". El proyecto piloto también puede definir las variables de control que deben mantenerse constantes para evitar que factores externos influyan en los resultados. El diseño experimental implica no solo la selección de variables independientes, dependientes y de control adecuadas, sino también la planificación de la realización del experimento en condiciones estadísticamente óptimas, teniendo en cuenta las limitaciones de los recursos disponibles. Hay varios enfoques para definir un conjunto de puntos de diseño (combinaciones únicas de configuraciones de variables explicativas) que se utilizarán en un experimento.

Los principales problemas del desarrollo incluyen la creación de validez, confiabilidad y reproducibilidad. Por ejemplo, estos problemas pueden abordarse en parte mediante una selección cuidadosa de la variable independiente, reduciendo el riesgo de error de medición y también asegurando que la documentación de los métodos sea lo suficientemente detallada. Los desafíos asociados incluyen lograr niveles apropiados de poder estadístico y sensibilidad.

Experimentos de conocimiento avanzado debidamente planificados en las ciencias naturales y sociales y la ingeniería. Otras aplicaciones incluyen marketing y desarrollo de políticas.

historia

Ensayos clínicos sistemáticos

En 1747, mientras se desempeñaba como cirujano en el HMS Salisbury James Lind realizó un ensayo clínico sistemático para comparar los remedios para el escorbuto. Este estudio clínico sistemático es un tipo de EM.

Lind seleccionó a 12 personas del barco, todas con escorbuto. Lind limitó sus sujetos a hombres que "eran lo más similares que podía a ellos", es decir, proporcionó requisitos de entrada estrictos para reducir cambios superfluos. Los dividió en seis pares, dándole a cada par un suplemento diferente a su dieta principal durante dos semanas. Los tratamientos fueron todos los medios que se ofrecieron:

  • Un litro de sidra todos los días.
  • Veinticinco Gutts (gotas) de vitriolo (ácido sulfúrico) tres veces al día con el estómago vacío.
  • Media pinta de agua de mar todos los días.
  • Una mezcla de ajo, mostaza y rábano picante en un terrón del tamaño de una nuez moscada.
  • Dos cucharadas de vinagre tres veces al día.
  • Dos naranjas y un limón todos los días.

La cura de cítricos se detuvo después de seis días cuando se quedaron sin fruta, pero para entonces un marinero estaba en condiciones de cumplir con el deber y los otros casi se recuperaron. Además, solo un grupo (la sidra) mostró algún efecto de su tratamiento. El resto de la tripulación presumiblemente sirvió como control, pero Lindh no informó los resultados de ningún grupo de control (no tratado).

Experimentos estadísticos, siguiente C. Pearce

La teoría de la inferencia estadística fue desarrollada por Charles Pearce en Illustrations to the Logic of Science (1877-1878) y The Theory of Probable Inference (1883), dos ediciones que enfatizaron la importancia de la aleatorización de inferencias en estadística.

experimentos aleatorios

C. Pierce asignó al azar a los voluntarios a un diseño ciego de medición repetida para evaluar su capacidad para discriminar entre pesos. El experimento de Peirce inspiró a otros investigadores en el campo de la psicología y la educación que desarrollaron una tradición de investigación de experimentos aleatorios en laboratorios y libros de texto especializados en el siglo XIX.

Construcciones óptimas para modelos de regresión

comparación En algunas áreas de investigación no es posible tener mediciones independientes para un estándar de metrología rastreable. Las comparaciones entre tratamientos son mucho más valiosas y generalmente preferidas, y a menudo se comparan con el control científico o los tratamientos convencionales que actúan como línea de base. Aleatoriedad La asignación aleatoria es el proceso de asignar individuos a grupos aleatorios o a diferentes grupos en un experimento, de modo que cada persona de la población tenga las mismas posibilidades de participar en el estudio. La distribución aleatoria de individuos en grupos (o condiciones dentro de un grupo) distingue un experimento riguroso y "verdadero" de un estudio observacional o "cuasiexperimento". Existe un vasto corpus de teoría matemática que investiga las implicaciones de las decisiones de asignar unidades para su tratamiento mediante algún mecanismo aleatorio (por ejemplo, tablas de números aleatorios o el uso de dispositivos aleatorios como naipes o dados). La prescripción de unidades de tratamiento al azar tiende a mitigar la desconcierto, haciendo que los efectos debidos a factores distintos al tratamiento parezcan ser el resultado del tratamiento. Los riesgos asociados con la distribución aleatoria (por ejemplo, tener un desequilibrio grave en las características clave entre el grupo de tratamiento y el grupo de control) se calculan y, por lo tanto, se pueden controlar a un nivel aceptable utilizando un número suficiente de unidades experimentales. Sin embargo, si una población se divide en varias subpoblaciones que difieren de alguna manera, y el estudio requiere que cada subpoblación tenga el mismo tamaño, se puede utilizar una muestra estratificada. Por tanto, las unidades de cada subpoblación son aleatorias, pero no toda la muestra. Los resultados experimentales se pueden generalizar de manera confiable a partir de unidades experimentales a una gran población estadística de unidades solo si las unidades experimentales son una muestra aleatoria de una población mayor; el probable error de tal extrapolación depende del tamaño de la muestra, entre otras cosas. Replicación estadística Las mediciones suelen estar sujetas a cambios e incertidumbres de medición; Por lo tanto, se repiten y los experimentos completos se replican para ayudar a identificar las fuentes de variabilidad, evaluar mejor los efectos reales del tratamiento, mejorar aún más la confiabilidad y validez del experimento y agregar temas al conocimiento existente. Sin embargo, se deben cumplir ciertas condiciones antes de que se inicie la replicación del experimento: la pregunta de investigación original se publicó en una revista revisada por pares o se cita ampliamente, el investigador es independiente del experimento original, el investigador primero debe intentar replicar el original datos utilizando los datos originales, y El revisor debe indicar que la investigación realizada es un estudio de réplica que ha tratado de seguir la investigación original lo más estrictamente posible. bloqueo El bloqueo es una disposición no aleatoria de unidades experimentales en grupos (bloques / lotes), que consta de unidades que son similares entre sí. El bloqueo reduce las fuentes de variabilidad conocidas pero irrelevantes entre bloques y, por lo tanto, proporciona una mayor precisión en la estimación de la fuente de variación del estudiado. Ortogonalidad La ortogonalidad se refiere a formas de comparación (contraste) que pueden llevarse a cabo de manera legal y efectiva. Los contrastes se pueden representar mediante vectores y los conjuntos de contrastes ortogonales no están correlacionados y se distribuyen de forma independiente si los datos son normales. Debido a esta independencia, cada procesamiento ortogonal proporciona información diferente a los demás. Sí hay T- procedimientos y T- 1 contrastes ortogonales, toda la información que se puede capturar de un experimento se puede obtener a partir de una variedad de contrastes. Experimentos factoriales Utilice experimentos factoriales en lugar de un método de un solo factor a la vez. Son eficaces para evaluar los efectos y las posibles interacciones de múltiples factores (variables independientes). El análisis del diseño del experimento se basa en ANOVA, una colección de modelos, la partición de la varianza observada en componentes, de acuerdo con los factores que el experimento debe evaluar o probar.

ejemplo

Este ejemplo se atribuye a Hotelling. Transmite algo del sabor de estos aspectos del tema, que están vinculados por construcciones combinatorias.

Los pesos de los ocho objetos se miden utilizando una balanza panorámica y un conjunto de pesos estándar. Cada uno mide la diferencia de peso entre los objetos del plato izquierdo y cualquier objeto del plato derecho agregando una escala calibrada para el plato más ligero hasta que la balanza esté en equilibrio. Cada medida tiene un error aleatorio. El error medio es cero; las desviaciones estándar en la distribución de la probabilidad de errores coinciden con el número σ en diferentes pesajes; los errores en diferentes pesajes son independientes. Denotemos los pesos verdaderos por

θ 1, ..., θ 8. (\ Displaystyle \ theta _ (1), \ dots, \ theta _ (8). \)

Veremos dos experimentos diferentes:

  1. Pese cada objeto en un recipiente, con el otro recipiente vacío. Permitir X I el peso del objeto a medir, I = 1, ..., 8.
  2. Hay ocho pesajes de acuerdo con el siguiente programa y deje Y I la diferencia para I = 1, ..., 8:
plato izquierdo plato derecho Primer pesaje: 1 2 3 4 5 6 7 8 (vacío) segundo: 1 2 3 8 4 5 6 7 tercero: 1 4 5 8 2 3 6 7 cuarto: 1 6 7 8 2 3 4 5 quinto: 2 4 6 8 1 3 5 7 sextos: 2 5 7 8 1 3 4 6 séptimos: 3 4 7 8 1 2 5 6 octavos: 3 5 6 8 1 2 4 7 (\ displaystyle (\ (inicio de matriz) (lcc) & (\ text (panorámica izquierda)) & (\ text (panorámica derecha)) \\\ HLine (\ text (1 pesaje :)) & 1 \ 2 \ 3 \ 4 \ 5 \ 6 \ 7 \ 8 & (\ text ((vacío))) \\ (\ text (2)) & 1 \ 2 \ 3 \ 8 \ & 4 \ 5 \ 6 \ 7 \\ (\ text (3rd :)) & 1 \ 4 \ 5 \ 8 \ & 2 \ 3 \ 6 \ 7 \\ (\ text (4th :)) & 1 \ 6 \ 7 \ 8 \ & 2 \ 3 \ 4 \ 5 \\ (\ text (5th :)) & 2 \ 4 \ 6 \ 8 \ & 1 \ 3 \ 5 \ 7 \\ (\ text (6th :)) & 2 \ 5 \ 7 \ 8 \ & 1 \ 3 \ 4 \ 6 \ \ (\ text (7th :) ) & 3 \ 4 \ 7 \ 8 \ & 1 \ 2 \ 5 \ 6 \\ (\ text (8th :)) & 3 \ 5 \ 6 \ 8 \ & 1 \ 2 \ 4 \ 7 \ end (matriz) )) Entonces el valor de peso calculado θ 1 es θ ^ 1 = Y 1 + Y 2 + Y 3 + Y 4 - Y 5 - Y 6 - Y 7 - Y 8 8. (\ displaystyle (\ widehat (\ theta)) _ (1) = (\ frac (Y_ (1) + Y_ (2) + Y_ (3) + Y_ (4) -Y_ (5) -Y_ (6) - Y_ (7) -Y_ (8)) (8)).) Se pueden encontrar estimaciones similares para las ponderaciones de otros elementos. Por ejemplo θ ^ 2 = Y 1 + Y 2 - Y 3 - Y 4 + Y 5 + Y 6 - Y 7 - Y 8 8, θ ^ 3 = Y 1 + Y 2 - Y 3 - Y 4 - Y 5 - Y 6 + Y 7 + Y 8 8, θ ^ 4 = Y 1 - Y 2 + Y 3 - Y 4 + Y 5 - Y 6 + Y 7 - Y 8 8, θ ^ 5 = Y 1 - Y 2 + Y 3 - Y 4 - Y 5 + Y 6 - Y 7 + Y 8 8, θ ^ 6 = Y 1 - Y 2 - Y 3 + Y 4 + Y 5 - Y 6 - Y 7 + Y 8 8, θ ^ 7 = Y 1 - Y 2 - Y 3 + Y 4 - Y 5 + Y 6 + Y 7 - Y 8 8, θ ^ 8 = Y 1 + Y 2 + Y 3 + Y 4 + Y 5 + Y 6 + Y 7 + Y 8 8. (\ Displaystyle (\ (alineado al inicio) (\ widehat (\ theta)) _ (2) = (& \ frac (Y_ (1) + Y_ (2) -Y_ (3) -Y_ (4) + (5 Y_) + Y_ (6) -Y_ (7) -Y_ (8)) (8)). \\ (\ widehat (\ theta)) _ (3) & = (\ frac (Y_ (1) + Y_ (2) -Y_ (3) -Y_ (4) -Y_ (5) -Y_ (6) + Y_ (7) + (Y_ 8)) (8)). \\ (\ widehat (\ theta)) _ (4) & = (\ r hidrofracturamiento (Y_ (1) -Y_ (2) + Y_ (3) -Y_ (4) + Y_ (5) -Y_ (6) + Y_ (7) (-Y_ 8)) (8)). \\ (\ widehat (\ theta)) _ (5) & = (\ frac (Y_ (1) -Y_ (2) + Y_ (3) -Y_ (4) -Y_ (5) + Y_ (6) - Y_ (7) + (Y_ 8)) (8)). \\ (\ widehat (\ theta)) _ (6) & = (\ frac (Y_ (1) -Y_ (2) -Y_ (3) + Y_ (4) + Y_ (5) -Y_ (6) - Y_ (7) + (Y_ 8)) (8)) \\. (\ widehat (\ theta)) _ (7) & = (\ frac (Y_ (1) -Y_ (2) -Y_ (3) + Y_ (4) -Y_ (5) + Y_ (6) + (7 Y_) -Y_ (8)) (8)). \\ (\ widehat (\ theta)) _ (8) & = (\ frac (Y_ (1) + Y_ (2) + Y_ (3) + Y_ (4) + Y_ (5) + Y_ (6) + Y_ (7) + (Y_ 8)) (8)). \ (alineado al final)))

Pregunta de diseño del experimento: ¿Qué experimento es mejor?

Varianza de estimación X 1 de? Thetas 1 es σ 2 si usamos el primer experimento. Pero si usamos el segundo experimento, la varianza de la estimación dada arriba es σ 2/8. Entonces, el segundo experimento nos da 8 veces más que la precisión para evaluar un elemento y evalúa todos los elementos al mismo tiempo, con la misma precisión. Lo que logra el segundo experimento con ocho requeriría 64 pesajes si los elementos se pesan por separado. Sin embargo, tenga en cuenta que las estimaciones de los elementos obtenidos en el segundo experimento tienen errores que se correlacionan entre sí.

Muchos problemas de diseño experimental involucran constructos combinatorios, como en este ejemplo y otros.

Para evitar falsos positivos

Las conclusiones positivas falsas, a menudo generadas por la presión sobre una publicación o el sesgo de confirmación del propio autor, son un peligro inherente en muchas áreas. Una buena forma de evitar sesgos que puedan conducir a falsos positivos durante la fase de recopilación de datos es utilizar un diseño de doble ciego. Cuando se utilizan diseños de doble ciego, los participantes se asignan al azar a grupos experimentales, pero el investigador no sabe que los participantes pertenecen a ese grupo. Por tanto, el investigador no puede influir en la respuesta de los participantes a la intervención. Las muestras experimentales con grados de libertad no revelados son un problema. Esto puede llevar a un "r-hack" consciente o inconsciente: probar varias cosas hasta obtener el resultado deseado. Por lo general, esto implica manipular, tal vez inconscientemente, en el proceso de análisis estadístico y los grados de libertad hasta que devuelvan el dibujo a continuación p<.05 уровня статистической значимости. Таким образом, дизайн эксперимента должен включать в себя четкое заявление, предлагающие анализы должны быть предприняты. P-взлом можно предотвратить с помощью preregistering исследований, в которых исследователи должны направить свой план анализа данных в журнал они хотят опубликовать свою статью прежде, чем они даже начать сбор данных, поэтому никаких манипуляций данных не возможно (https: // OSF .io). Другой способ предотвратить это берет двойного слепого дизайна в фазу данных анализа, где данные передаются в данном-аналитик, не связанный с исследованиями, которые взбираются данные таким образом, нет никакого способа узнать, какие участник принадлежат раньше они потенциально отняты, как недопустимые.

La documentación clara y completa de la metodología experimental también es importante para mantener la replicación de los resultados.

Temas de discusión al crear diseño experimental

Un diseño experimental o un ensayo clínico aleatorizado requiere una consideración cuidadosa de varios factores antes de realizar un experimento. Diseño experimental que se impone a partir de un plan experimental detallado de antemano para realizar el experimento. Algunos de los siguientes temas ya se han discutido en los Principios de diseño de la sección experimental:

  1. ¿Cuántos factores tiene el diseño y los niveles de estos factores son fijos o aleatorios?
  2. Las condiciones de control son necesarias y ¿cuáles deberían ser?
  3. Manipulación de cheques; ¿Funcionó realmente la manipulación?
  4. ¿Cuáles son las variables de fondo?
  5. ¿Cuál es el tamaño de la muestra? ¿Cuántas unidades deben recopilarse para que un experimento se generalice y tenga suficiente potencia?
  6. ¿Cuál es el significado de la interacción entre factores?
  7. ¿Cuál es el impacto de los efectos a largo plazo de los principales factores en los resultados?
  8. ¿Cómo hacer que los cambios de respuesta afecten a las medidas de autoinforme?
  9. ¿Qué tan realista es repetir la introducción de los mismos dispositivos de medición en la misma unidad, en diferentes casos, con pruebas posteriores y posteriores?
  10. ¿Qué pasa con el uso de una prueba previa de proxy?
  11. ¿Hay variables al acecho?
  12. ¿Si un cliente / paciente, investigador o incluso analista de datos no conoce los términos?
  13. ¿Cuál es la posibilidad de aplicar posteriormente diferentes condiciones a la misma unidad?
  14. ¿Cuántos de cada uno de los factores de control y ruido deben tenerse en cuenta?

La variable independiente de la investigación a menudo tiene muchos niveles o grupos diferentes. En un verdadero experimento, los investigadores pueden obtener un grupo experimental que interviene para probar una hipótesis y un grupo de control que todavía tiene el mismo elemento en el grupo experimental, sin un elemento de intervención. Por lo tanto, cuando todo lo demás, excepto una intervención, se mantiene constante, los investigadores pueden certificar con cierto grado de certeza que ese elemento es el que está causando el cambio observado. En algunos casos, tener un grupo de control no es ético. Esto a veces se resuelve mediante dos grupos experimentales diferentes. En algunos casos, las variables explicativas no se pueden manipular, como probar la diferencia entre dos grupos que tienen diferentes enfermedades, o experimentar la diferencia entre hombres y mujeres (obviamente una variable que sería difícil o poco ético asignar a un participante). En estos casos, se puede utilizar un diseño cuasi-experimental.

atribución causal

En el diseño experimental puro, el investigador manipula la variable independiente (predictor), es decir, cada participante del estudio se selecciona al azar de la población y cada participante Elegido se asigna aleatoriamente a las condiciones de la variable independiente. Solo cuando se hace es posible determinar con un alto grado de probabilidad que la causa de las diferencias en las variables de resultado se debe a diferentes condiciones. Por lo tanto, los investigadores deben elegir un diseño de experimento sobre otros tipos de diseño siempre que sea posible. Sin embargo, la naturaleza de la variable explicativa no siempre permite la manipulación. En esos casos, los investigadores deben ser conscientes de la atribución causal no certificante cuando su diseño no lo permite. Por ejemplo, en proyectos observacionales, los participantes no son asignados aleatoriamente a condiciones, y por lo tanto, si se encuentran diferencias en las variables resultantes entre condiciones, es probable que exista algo más que diferencias entre condiciones que provoquen diferencias en los resultados, que este es la tercera variable. Lo mismo ocurre con la investigación con diseño de correlación. (Ader y Mellenbergh, 2008).

Control estadístico

Es mejor que el proceso esté bajo un control estadístico razonable antes de cualquier experimento planificado. Si esto no es factible, el bloqueo, la replicación y la aleatorización adecuados permiten una planificación cuidadosa de los experimentos. Para controlar las variables interferentes, el instituto de investigadores controles de control como medidas adicionales. Los investigadores deben asegurarse de que las influencias incontroladas (por ejemplo, la percepción de una fuente de confianza) no distorsionen los resultados de la investigación. Una verificación de manipulación es un ejemplo de verificación de control. La validación de la manipulación permite a los investigadores aislar variables clave para mejorar el soporte de que estas variables están funcionando según lo planeado.

Se encontraron algunos diseños efectivos para evaluar múltiples efectos principales de forma independiente y en la sucesión inmediata de Raj Chandra Bose y K. Kishen en 1940, pero siguieron siendo poco conocidos hasta que se publicaron los diseños de Plackett-Burmese en Biometrika en 1946 Casi al mismo tiempo, CR Rao introdujo el concepto de matrices ortogonales como prototipos experimentales. Este concepto es fundamental para el desarrollo de los métodos Taguchi por Taguchi, que tuvo lugar durante su visita al Instituto Indio de Estadística a principios de la década de 1950. Sus métodos fueron aplicados y adoptados con éxito por las industrias japonesa e india, y posteriormente también adoptados por la industria estadounidense, aunque con algunas reservas.

En 1950 Gertrude Mary Cox y William Gemmell Cochran publicaron un libro Diseños experimentales, que se convirtió en la principal obra de referencia del diseño de experimentos para estadística durante muchos años a partir de entonces.

El desarrollo de la teoría de los modelos lineales arrasó y superó los casos que preocupaban a los primeros autores. La teoría actual se basa en temas complejos en

En la primera etapa, el diseño se elabora cuidadosamente (del inglés. diseño- concepto creativo) de futuras investigaciones.

En primer lugar, se está desarrollando un programa de investigación.

Programa incluye el tema, propósito y objetivos del estudio, hipótesis formuladas, definición del objeto de estudio, unidades y volumen de observaciones, glosario de términos, descripción de métodos estadísticos para conformar una muestra, recolección, almacenamiento, procesamiento y análisis de datos, metodología para la realización de un estudio piloto, lista de herramientas estadísticas utilizadas ...

Nombre temas generalmente formulado en una oración, que debe ser consistente con el propósito del estudio.

Propósito del estudio- esta es una anticipación mental del resultado de una actividad y las formas de lograrlo con la ayuda de ciertos medios. Como regla general, el objetivo de la investigación médica y social no es solo teórico (cognitivo), sino también práctico (aplicado).

Para lograr este objetivo, determine investigar objetivos, que revelan y detallan el contenido del objetivo.

El componente más importante del programa son hipótesis (Resultados previstos). Las hipótesis se formulan utilizando estadísticas específicas. El principal requisito para las hipótesis es la capacidad de probarlas en el proceso de investigación. Los resultados de la investigación pueden confirmar, corregir o refutar las hipótesis planteadas.

Antes de la recolección del material, se determina el objeto y la unidad de observación. Bajo objeto de investigación médica y social comprender la población estadística, que consiste en objetos o fenómenos separados relativamente homogéneos: unidades de observación.

Unidad de observación- el elemento primario de la población estadística, dotado de todas las características a estudiar.

La siguiente operación importante en la preparación del estudio es el desarrollo y aprobación del plan de trabajo. Si el programa de investigación es una especie de diseño estratégico que encarna las ideas del investigador, el plan de trabajo (como anexo al programa) es un mecanismo para la implementación del estudio. El plan de trabajo incluye: el orden de selección, capacitación y organización del trabajo de los ejecutores directos; desarrollo de documentos normativos y metodológicos; determinación del volumen requerido y los tipos de recursos de apoyo para la investigación (personal, finanzas, materiales y técnicos, recursos de información, etc.); determinación de los términos y responsables de las etapas individuales del estudio. Normalmente, se presenta en forma gráficos de red.

En la primera etapa de la investigación médica y social, se determina por qué métodos se llevará a cabo la selección de unidades de observación. Dependiendo del volumen, se distinguen los estudios continuos y de muestra. Con un estudio continuo, se estudian todas las unidades de la población general, con una muestra, solo una parte de la población general (muestra).

La población general Llamemos a un conjunto de unidades de observación cualitativamente homogéneas, combinadas por uno o un grupo de signos.

Población de muestra (muestra)- cualquier subconjunto de unidades de observación de la población general.

La formación de una muestra de población que refleje plenamente las características de la población general es la tarea más importante de la investigación estadística. Todos los juicios sobre la población general basados ​​en datos de muestra son válidos solo para muestras representativas, es decir, para tales muestras, cuyas características corresponden a los indicadores de la población general.

Se garantiza la real aportación de representatividad de la muestra por selección aleatoria, esos. tal selección de unidades de observación en la muestra, en la que todos los objetos de la población general tienen las mismas posibilidades de ser seleccionados. Para asegurar la aleatoriedad de la selección, se utilizan algoritmos especialmente desarrollados que implementan el principio indicado, ya sea tablas de números aleatorios o un generador de números aleatorios disponible en muchos paquetes de software. La esencia de estos métodos consiste en especificar de forma aleatoria los números de aquellos objetos que deben seleccionarse de toda la población general ordenados de alguna forma. Por ejemplo, la población general “población de la región” se puede ordenar por edad, lugar de residencia, alfabeto (apellido, nombre, patronímico), etc.

Junto con la selección aleatoria, al organizar y realizar una investigación médica y social, también se utilizan los siguientes métodos para formar una muestra:

Selección mecánica (sistemática);

Selección tipológica (estratificada);

Selección de serie;

Selección de varias etapas (cribado);

Método de cohorte;

Método de copia de pares.

Selección mecánica (sistemática) permite la formación de una muestra utilizando un enfoque mecánico para la selección de unidades de observación de una población general ordenada. En este caso, es necesario determinar la relación de los volúmenes de la muestra y la población general y así establecer la proporción de selección. Por ejemplo, para estudiar la estructura de los pacientes hospitalizados, se forma una muestra del 20% de todos los pacientes que abandonaron el hospital. En este caso, entre todas las "historias clínicas de un paciente hospitalizado" (modelo 003 / y), ordenadas por números, se debe seleccionar una de cada cinco tarjetas.

Selección tipológica (estratificada) supone un desglose de la población general en grupos tipológicos (estratos). Al realizar la investigación médica y social, se toman como grupos tipológicos la edad-sexo, los grupos sociales, profesionales, los asentamientos individuales, así como la población urbana y rural. En este caso, el número de unidades de observación de cada grupo se selecciona en la muestra mediante un método aleatorio o mecánico en proporción al tamaño del grupo. Por ejemplo, al estudiar las relaciones causales de los factores de riesgo y la morbilidad oncológica, la población se divide preliminarmente en subgrupos por edad, sexo, profesión, estatus social y luego se selecciona el número requerido de unidades de observación de cada subgrupo.

Selección de serie la muestra no está formada por unidades de observación individuales, sino por series o grupos completos (municipios, instituciones de salud, escuelas, jardines de infancia, etc.). La selección de series se realiza mediante un muestreo aleatorio o mecánico adecuado. Dentro de cada serie, se examinan todas las unidades de observación. Este método se puede utilizar, por ejemplo, para evaluar la efectividad de la inmunización realizada de la población infantil.

Selección de varias etapas (cribado) asume un muestreo gradual. Por el número de etapas, se distingue la selección de una etapa, dos etapas, tres etapas, etc. Por ejemplo, al estudiar la salud reproductiva de las mujeres residentes en el territorio del municipio, en una primera etapa se seleccionan mujeres trabajadoras, quienes son examinadas mediante pruebas básicas de cribado. En la segunda etapa, se lleva a cabo un examen especializado de mujeres con niños, en la tercera etapa, un examen especializado en profundidad de mujeres con niños con malformaciones congénitas. Tenga en cuenta que en este caso de selección dirigida según una característica específica, todos los objetos, portadores de la característica estudiada en el territorio del municipio, se incluyen en la muestra.

Método de cohorte se utilizan para estudiar la población estadística de grupos relativamente homogéneos de personas unidas por la aparición de un determinado evento demográfico en el mismo intervalo de tiempo. Por ejemplo, al estudiar cuestiones relacionadas con el problema de la fecundidad, se forma una población (cohorte) que es homogénea en base a una única fecha de nacimiento (estudio de la fecundidad por generaciones) o en base a una única edad de matrimonio ( estudio de la fecundidad por la duración de la vida familiar).

Método de copia de pares prevé la selección para cada unidad de observación del grupo investigado de un objeto cercano en una o varias características ("copia-par"). Por ejemplo, se sabe que la tasa de mortalidad infantil está influenciada por factores como el peso corporal y el sexo del niño. Cuando se utiliza este método, por cada muerte de un niño menor de 1 año, se selecciona un par de copias del mismo sexo, similar en edad y peso corporal, de entre los niños vivos menores de 1 año. Es aconsejable utilizar este método de selección para estudiar los factores de riesgo para el desarrollo de enfermedades socialmente significativas, causas individuales de muerte.

En la primera etapa, la investigación también se desarrolla (se utiliza prefabricada) y se replica caja de herramientas estadísticas (mapas, cuestionarios, maquetación de tablas, programas informáticos para el control de la información entrante, conformación y procesamiento de bases de datos de información, etc.), en los que se ingresará la información estudiada.

En el estudio de la salud pública y las actividades del sistema de atención de la salud, la investigación sociológica se utiliza a menudo con el uso de cuestionarios especiales (cuestionarios). Cuestionarios (cuestionarios) para la investigación médico-sociológica deben ser focalizados, focalizados, asegurar la confiabilidad, confiabilidad y representatividad de los datos registrados en ellos. Durante el desarrollo de cuestionarios y programas de entrevistas, se deben observar las siguientes reglas: la idoneidad del cuestionario para recolectar, procesar y extraer la información necesaria del mismo; la posibilidad de revisar el cuestionario (sin violar el sistema de código) para eliminar las preguntas fallidas y hacer los ajustes necesarios; explicación de las metas y objetivos de la investigación; redacción clara de las preguntas, eliminando la necesidad de varias aclaraciones adicionales; naturaleza fija de la mayoría de las preguntas.

La selección hábil y la combinación de varios tipos de preguntas (abiertas, cerradas y semicerradas) pueden aumentar significativamente la precisión, integridad y confiabilidad de la información recibida.

La calidad de la encuesta y sus resultados dependen en gran medida de si se cumplen los requisitos básicos para el diseño del cuestionario y su diseño gráfico. Existen las siguientes reglas básicas para construir un cuestionario:

El cuestionario incluye solo las preguntas más significativas, cuyas respuestas ayudarán a obtener la información necesaria para resolver las principales tareas de la investigación, que no se pueden obtener de otra manera sin realizar una encuesta cuestionario;

La redacción de las preguntas y todas las palabras en ellas deben ser claras para el encuestado y corresponder a su nivel de conocimiento y educación;

El cuestionario no debe contener preguntas que provoquen renuencia a responderlas. Debe esforzarse por garantizar que todas las preguntas provoquen una respuesta positiva del encuestado y el deseo de brindar información completa y veraz;

La organización y secuencia de preguntas debe estar subordinada a la obtención de la información más necesaria para lograr el objetivo y resolver las tareas planteadas en el estudio.

Los cuestionarios especiales (cuestionarios) se utilizan ampliamente, entre otras cosas, para evaluar la calidad de vida de los pacientes con una enfermedad en particular, la eficacia de su tratamiento. Le permiten capturar los cambios en la calidad de vida de los pacientes que se han producido en un período de tiempo relativamente corto (generalmente de 2 a 4 semanas). Hay muchos cuestionarios especiales, por ejemplo, AQLQ (Cuestionario de calidad de vida para el asma) y AQ-20 (Cuestionario de asma de 20 ítems) para el asma bronquial, QLMI (Cuestionario de calidad de vida después del infarto de miocardio) para pacientes con infarto agudo de miocardio, etc.

La coordinación del trabajo sobre el desarrollo de cuestionarios y su adaptación a diversas formaciones lingüísticas y económicas la lleva a cabo la organización internacional sin fines de lucro para el estudio de la calidad de vida: el Instituto MAPI (Francia).

Ya en la primera etapa de la investigación estadística, es necesario elaborar diseños de tablas, que posteriormente se completarán con los datos obtenidos.

En las tablas, como en las oraciones gramaticales, el sujeto se distingue, es decir, lo principal que se dice en la tabla, y el predicado, es decir lo que caracteriza al sujeto. Sujeto - esta es la característica principal del fenómeno en estudio - generalmente ubicado a la izquierda a lo largo de las líneas horizontales de la tabla. Predicado - Los signos que caracterizan al tema suelen estar ubicados en la parte superior a lo largo de las columnas verticales de la tabla.

Al compilar tablas, se observan ciertos requisitos:

La tabla debe tener un título claro y conciso que refleje su esencia;

El diseño de la tabla termina con los totales de columnas y filas;

No debe haber celdas vacías en la tabla (si no hay letrero, ponga un guión).

Distinga entre tipos de tablas simples, grupales y combinadas (complejas).

Una tabla simple se denomina tabla en la que se presenta un resumen de datos para un solo criterio (Tabla 1.1).

Cuadro 1.1. Diseño de tabla simple. Distribución de niños por grupos de salud,% del total

En la tabla de grupos, el sujeto se caracteriza por varios predicados que no están relacionados entre sí (Tabla 1.2).

Cuadro 1.2. Disposición de la mesa de grupo. Distribución de la niñez por grupos de salud, sexo y edad,% del total

En la tabla de combinación, los atributos que caracterizan al sujeto están interrelacionados (Tabla 1.3).

Cuadro 1.3. Disposición de la tabla combinada. Distribución de la niñez por grupos de salud, edad y sexo,% del total

Un lugar importante en el período preparatorio es estudio piloto, cuya tarea es aprobar herramientas estadísticas, verificar la exactitud de la metodología desarrollada para la recolección y procesamiento de datos. El más exitoso parece ser un estudio piloto, que repite el principal en una escala reducida, es decir, permite comprobar todas las próximas etapas de trabajo. Dependiendo de los resultados del análisis preliminar de los datos obtenidos durante el vuelo, se ajustan las herramientas estadísticas, los métodos de recolección y procesamiento de la información.

UI / UX, Diseño

Algunas personas piensan que el diseño es una profesión absolutamente creativa. Pero la inspiración y el sentido de la belleza no son suficientes para crear diseños profesionales.

Para hacer su trabajo de manera efectiva, los profesionales no solo deben dominar el arte del diseño, sino también aplicar una variedad de principios de diferentes campos de actividad. La psicología es una de las ciencias básicas que ayuda a los diseñadores a comprender mejor a los usuarios y analizar su comportamiento. Hoy descubriremos qué papel juega la psicología en el campo del diseño, así como también cuáles son sus principios importantes a tener en cuenta en el proceso de diseño.

El papel de la psicología en el diseño

Debido a la tendencia del diseño centrado en el usuario, los expertos comenzaron a repensar sus enfoques de trabajo, tratando de comprender mejor al público objetivo. Donald Norman, en su libro Design of Everyday Things, definió el concepto de diseño como un acto de comunicación que requiere una comprensión profunda de la persona con la que se comunica el diseñador.

Para comprender los requisitos de los usuarios, se anima a los diseñadores a observar los principios psicológicos que dan forma al comportamiento, las aspiraciones y la motivación humanas. Aplicando principios psicológicos al crear un diseño, puede mejorar el resultado, porque el producto se acerca mucho más a los requisitos reales de sus usuarios. Además, el conocimiento de la psicología ayuda a crear un diseño que alienta a las personas a realizar las acciones que se esperan de ellas, por ejemplo, comprar un producto o contactar con una empresa.

Para los diseñadores, la psicología puede parecer una ciencia bastante complicada y aburrida, por lo que sucede que se saltan la etapa de analizar al público objetivo y deciden confiar solo en sus instintos. Pero para aplicar de manera efectiva los principios de la psicología, no es necesario ser un doctorado en este campo. Para un resultado positivo, es importante estudiar las principales posiciones que afectan los indicadores de interacción. Basándonos en la experiencia práctica y la investigación sobre este tema, hemos identificado seis principios psicológicos efectivos que se utilizan a menudo al crear un diseño.

Principios de la Gestalt

Esta teoría del campo de la psicología tiene más de cien años, pero no pierde su relevancia. La palabra "gestalt" significa "un todo único", y la propia teoría examina la percepción visual de los elementos en relación con los demás. En otras palabras, los principios de la Gestalt muestran la tendencia de las personas a combinar elementos individuales en grupos. Los principios por los cuales los usuarios forman grupos incluyen:

Semejanza. Cuando los usuarios notan alguna similitud entre objetos, automáticamente los perciben como elementos pertenecientes al mismo grupo. La similitud de los objetos suele estar determinada por su forma, color, tamaño o textura. El principio de similitud da a los usuarios una sensación de coherencia entre los elementos de diseño.

Continuidad. Este principio establece que las personas tienden a interpretar los elementos visuales como una cadena ininterrumpida de información. Incluso cuando los elementos están dispuestos en una polilínea, nuestros ojos siguen naturalmente de un objeto a otro.

Cierre. Esta ley se basa en la tendencia del ojo humano a completar figuras inacabadas. Cuando vemos una figura inacabada, automáticamente la percibimos como un todo. El principio ha encontrado un uso generalizado en el diseño de logotipos.

Proximidad. Cuando hay objetos cerca, es más probable que las personas los perciban como un grupo que como objetos separados, incluso si son completamente diferentes.

Figura y fondo. Este principio demuestra la tendencia de los ojos humanos a separar los objetos del fondo. Hay muchos ejemplos de imágenes que se perciben de manera diferente según el objeto en el que se enfoca el ojo.

Los principios de la Gestalt en la práctica confirman que nuestro cerebro tiende a jugar con nuestra percepción visual. Por lo tanto, los diseñadores deben considerar estos factores al crear productos digitales para evitar posibles malentendidos.

Reacción visceral

¿Alguna vez ha tenido la sensación de que se enamoró de un sitio web en el momento en que lo abrió? ¿O tal vez una aplicación te disgustó con solo mirarla? Si es así, entonces ya está familiarizado con la respuesta visceral. Este tipo de respuesta proviene de una parte de nuestro cerebro llamada "cerebro viejo". Es responsable de los instintos y responde más rápido que nuestra conciencia. Las reacciones viscerales tienen su origen en el ADN humano y son bastante fáciles de predecir.

¿Cómo utilizan los diseñadores este conocimiento? En primer lugar, se esfuerzan por evocar una experiencia estética positiva. No es tan difícil predecir lo que se ve bien si conoce a su público objetivo y sus necesidades. Por lo tanto, la tendencia de usar fotos hermosas de alta calidad o imágenes en colores agradables en páginas de destino, sitios web y otros productos digitales no es accidental.

Psicología del color

La ciencia que estudia el efecto del color en la conciencia, el comportamiento y las reacciones humanas se llama psicología del color. Hoy no profundizaremos en todos sus aspectos, ya que es bastante complejo y voluminoso, por lo que merece un artículo aparte (que, por cierto, ya puedes encontrar en la versión en inglés de nuestro sitio).

En definitiva, la idea principal es que los colores tengan un impacto significativo en la percepción de los usuarios. Por esta razón, los diseñadores deben elegir conscientemente los colores para sus proyectos con el fin de transmitir correctamente el mensaje y el estado de ánimo de cada uno de ellos.

Hemos compilado una lista de colores base y los significados con los que generalmente se asocian.

Rojo. El color está asociado con sentimientos apasionados, fuertes y agresivos. Puede simbolizar emociones tanto positivas como negativas, incluidos el amor, la confianza, la pasión y la ira.
Naranja. Un color enérgico y cálido que evoca una agradable sensación de excitación.
Amarillo. Este es el color de la felicidad. Simboliza la luz del sol, la alegría y el calor.
Verde. El color de la naturaleza. Aporta sensaciones de comodidad y renovación. Además, se puede asociar a la inexperiencia.
Azul. A menudo es una imagen corporativa. Por lo general, significa calma, pero tener un color frío también se asocia con la ruptura y la tristeza.
Violeta. Durante mucho tiempo se ha asociado con la realeza y la riqueza, ya que muchos reyes vestían túnicas de color púrpura. También se le llama el color del misterio y la magia.
Negro. Este color es muy ambiguo. A menudo asociado con la tragedia y la muerte, y también significa misterio. Puede percibirse como tradicional y moderno. Todo depende de cómo lo uses y con qué colores lo combines.
Blanco. El color de la pureza y la inocencia.

Patrones reconocibles

Es posible que haya notado que los sitios web y las aplicaciones que comparten el mismo tema a menudo utilizan patrones de diseño similares. Se trata de la psicología de los usuarios: al visitar un sitio web o utilizar una aplicación, la gente espera ver ciertos elementos inherentes a este tipo de producto.

Por ejemplo, al visitar el sitio de una peluquería de lujo estricta, es poco probable que los usuarios esperen ver colores brillantes, imágenes de gatos o algo por el estilo. Dichos elementos solo asustarán a los clientes, ya que se verán extraños e inapropiados.

Pero no se trata solo de colores o imágenes. Elementos tan obvios y generales como una lista de artículos de blog o filtros en sitios comerciales también son importantes para una navegación exitosa. Los usuarios se acostumbran rápidamente a ciertos patrones y las personas pueden sentirse incómodas ante la ausencia de algunos elementos estándar.

Patrones de escaneo de texto

En nuestro artículo "Consejos para aplicar contenido de copia en interfaces de usuario", ya hablamos de esto: antes de leer el texto en una página web, las personas lo escanean (escanean) rápidamente para comprender si están interesados ​​en él o no. Según varios estudios, incluidas las publicaciones del Grupo Nielsen Norman, el equipo de UXPin y otros, existen varios patrones de rastreo de páginas web populares, incluidos los modelos "F" y "Z".

El modelo F se considera el patrón de rastreo más común, especialmente para páginas web con mucho contenido. Primero, el usuario mira la línea horizontal en la parte superior de la pantalla, donde generalmente se encuentran los encabezados y otra información importante. Luego se desplaza un poco hacia abajo en la página y escanea el área horizontal más corta. Y finalmente, los ojos del usuario se deslizan por la línea vertical, cubriendo el lado izquierdo del texto, donde los lectores pueden encontrar palabras clave en las primeras oraciones de cada párrafo. Este patrón se usa a menudo en páginas con mucho texto, como blogs.

El modelo Z se aplica en páginas que no se centran en el texto. El usuario primero escanea la parte superior de la página, comenzando en la esquina superior izquierda, donde espera encontrar información importante, y luego se mueve a la esquina opuesta en diagonal hacia abajo. El escaneo termina a lo largo de la línea horizontal en la parte inferior de la página, nuevamente de izquierda a derecha. Este modelo es típico para sitios web que no están cargados con texto y no requieren desplazamiento, donde todos los datos básicos son visibles a la vez.



Publicaciones similares