Más

¿Calcular el promedio ponderado del área del atributo en una capa por forma en otra usando ArcGIS for Desktop?


Para un proyecto en el que estoy trabajando, me gustaría cruzar los distritos de respuesta de la estación de bomberos con los datos de ingresos para determinar el ingreso medio por distrito de respuesta. Sin embargo, los bordes de las capas obviamente no se alinean. ¿Cuál es el mejor método para manipular los datos para que el resultado muestre el ingreso medio basado en los distritos de respuesta?

Estoy usando ArcMap 10.2.2 para este análisis. Tengo un shapefile poligonal con información de ingresos medios y un shapefile poligonal de las estaciones de bomberos primero en las áreas de respuesta.


Estoy seguro de que esto es un duplicado de algo, pero es más fácil escribirlo ahora mismo. Dado que tiene un valor constante para el ingreso medio, solo necesita el porcentaje de un área de respuesta a incendios que es cada ingreso para llegar a un ingreso medio promedio.

Asegúrese de tener un atributo de área en sus dos archivos que esté separado del que se rastrea automáticamente (si lo hay, no estará en un archivo de forma) que se calcula en toda la forma.

Interseccione el área de respuesta al fuego y los polígonos de ingresos. El resultado debe ser un conjunto de polígonos con los niveles de ingresos recortados e identificados por área de respuesta. Cree un nuevo campo en esa tabla para contener el porcentaje del área total. Y si no hay uno, necesita un nuevo campo de área para las nuevas formas recortadas. Campo Calcule ese nuevo campo para dividir el área total de la zona de respuesta al fuego (debe ser un atributo para cada fila) por el área de esa pieza real.

Ahora cree otro campo nuevo y calcúlelo para que sea el porcentaje de área multiplicado por el ingreso medio. Finalmente, use Resumen de estadísticas con la identificación de la zona de respuesta al fuego como un campo CASE y su campo de porcentaje medio como un campo de estadísticas con un tipo de suma. Finalmente, abra esa tabla y luego agregue un campo final para dividir esa suma por el campo de frecuencia. Ese debería ser el ingreso medio de la zona. Tendrá que volver a unir esa tabla a las zonas de respuesta al fuego (o usar el campo de unión) en función de la identificación para obtener el atributo en la forma.


Realizar análisis

Este tema analiza las herramientas de análisis espacial estándar disponibles en el portal. Para obtener información sobre las herramientas de análisis de Big Data, consulte Realizar análisis de Big Data. Consulte Comprensión del análisis en ArcGIS Enterprise para obtener una descripción general de cada conjunto de herramientas.

Imagine que le han encomendado la tarea de evaluar sitios potenciales para un nuevo almacén. Esta evaluación se basará en el acceso al transporte, la presencia de restricciones especiales como vecindarios históricos cercanos, acceso a restaurantes y otras instalaciones que los empleados puedan necesitar, acceso al transporte público para los empleados y uso de la tierra cercana que pueda restringir o mejorar el desarrollo. . ¿Cómo evalúa estos sitios de una manera cuantificable y defendible? Por supuesto, necesita datos, pero también necesita herramientas que puedan analizar y medir las relaciones geográficas.

Siempre que mira un mapa, inherentemente comienza a convertir ese mapa en información al encontrar patrones, evaluar tendencias o tomar decisiones. Este proceso se llama análisis espacial y es lo que hacen nuestros ojos y mentes de forma natural cada vez que miramos un mapa.

Pero muchos patrones y relaciones no siempre son obvios al mirar un mapa. A menudo, hay demasiados datos para examinar y presentar de forma coherente en un mapa. La forma en que muestra los datos en el mapa puede cambiar los patrones que ve. Las herramientas de análisis espacial le permiten cuantificar patrones y relaciones en los datos y mostrar los resultados como mapas, tablas y gráficos. Las herramientas de análisis espacial le permiten responder preguntas y tomar decisiones importantes utilizando más que un análisis visual.

Para obtener más información sobre cómo acceder y ejecutar las herramientas, consulte Usar las herramientas de análisis. A continuación, se puede encontrar una descripción general de cada una de las herramientas. Las herramientas de análisis están organizadas en categorías. Estas categorías son agrupaciones lógicas y no afectan la forma en que accede o utiliza las tareas de ninguna manera.

Si es un desarrollador, puede acceder a estas herramientas a través de la API REST del Servicio de análisis espacial y la API de ArcGIS para Python.

Si no ve el botón Análisis en el Visor de mapas, comuníquese con el administrador del portal. Es posible que su portal no esté configurado para usar herramientas de análisis o que no tenga privilegios para ejecutar las herramientas. Si no tiene los permisos necesarios para una herramienta, la herramienta no estará visible para usted.


Calcular área, longitud y otras propiedades geométricas

La herramienta Calcular geometría le permite acceder a la geometría de las entidades en una capa. La herramienta puede calcular valores de coordenadas, longitudes y áreas, según la geometría de la capa de entrada. Solo puede calcular el área, la longitud o el perímetro de las entidades si se proyecta el sistema de coordenadas que se está utilizando. Tenga en cuenta que las diferentes proyecciones tienen diferentes propiedades espaciales y distorsiones. Si el sistema de coordenadas de la fuente de datos y el marco de datos no son el mismo, puede obtener un resultado diferente si calcula la geometría usando el sistema de coordenadas del marco de datos que cuando calcula usando el sistema de coordenadas de la fuente de datos. Se recomienda utilizar una proyección de áreas iguales al calcular áreas.

Si desea calcular Xmin, Xmax, Ymin o Ymax, puede hacerlo utilizando Python con la calculadora de campo, consulte los ejemplos de Calcular campo.

Puede usar el cuadro de diálogo Calcular geometría para actualizar el área, la longitud o el perímetro de las entidades de shapefile, ya que estas propiedades no se actualizan automáticamente cuando edita entidades en shapefiles.

Solo puede calcular valores de coordenadas z o mediciones 3D si la función es compatible con z. Los valores de las coordenadas Z y las mediciones 3D se pueden calcular independientemente del sistema de coordenadas elegido. Las unidades enumeradas para los cálculos zy 3D son planas (millas, metros, etc.) siempre que se haya definido un sistema de coordenadas verticales para la capa. Si los datos no tienen definido un sistema de coordenadas verticales, las unidades se enumeran como desconocidas. Para obtener más información sobre los valores z y los tipos de geometría de entidad, consulte Conceptos básicos de la clase de entidad.

Puede realizar cálculos sin estar en una sesión de edición, sin embargo, en ese caso, no hay forma de deshacer los resultados.

Solo puede realizar cálculos geométricos en tablas de atributos.

Opcionalmente, puede presionar CTRL + MAYÚS + G para abrir el cuadro de diálogo Calcular geometría.

Hay diferentes propiedades disponibles según el tipo de capa que esté utilizando.

Si está calculando en un campo de texto, puede optar por agregar una abreviatura de unidades al cálculo. Por ejemplo, 47.5673 metros cuadrados es un ejemplo de la salida del área calculada en un campo de texto con la abreviatura de las unidades.

No puede deshacer un cálculo de campo cuando se realiza fuera de una sesión de edición.

Para evitar ver un mensaje de advertencia cuando intenta calcular valores fuera de una sesión de edición, puede marcar la casilla No volver a advertirme en el mensaje. Puede volver a activar el mensaje de advertencia desde la pestaña Tablas en el cuadro de diálogo Opciones de ArcMap.

El cuadro de diálogo Calcular geometría respeta el número de decimales (tres, por defecto) especificado en la pestaña General del cuadro de diálogo Opciones de edición. Para cambiar esta configuración, haga clic en el menú Editor en la barra de herramientas del Editor y haga clic en Opciones. Esta configuración se guarda en el documento de mapa.


2. Métodos

2.1. Población de estudio

SEER-Medicare representa un vínculo de datos entre los datos de cáncer SEER y las reclamaciones de Medicare (Engels et al., 2011). SEER es un programa del Instituto Nacional del Cáncer que recopila información individual a nivel de persona sobre la incidencia y la supervivencia del cáncer de 18 registros de cáncer basados ​​en la población que cubren el 28% de los EE. UU. Medicare es un programa de seguro de salud federal de EE. UU. Para individuos calificados & # x0226565 años de edad, que cubre 97 % de este grupo de edad, además de los & # x0003c65 años con enfermedad renal en etapa terminal (ESRD) o discapacidad médica. Todos los beneficiarios de Medicare tienen derecho a la Parte A (seguro hospitalario), aproximadamente el 96% se inscribe en la Parte B (seguro médico), el 24% se inscribe en Medicare Advantage o en un plan de atención administrada (por ejemplo, una organización para el mantenimiento de la salud [HMO]) y el 38% inscribirse en la cobertura de medicamentos recetados de la Parte D (Engels et al., 2011 The Kaiser Family Foundation, 2007). La Parte C no procesa facturas a través de Medicare. El vínculo de datos SEER-Medicare incluye todos los casos de cáncer SEER también en la base de datos de inscripción de Medicare. Las reclamaciones de Medicare están vinculadas a los casos a través de identificadores personales, por ejemplo, el número de seguro social. La vinculación de datos de 2012 incluye casos SEER de 1991 a 2009 y reclamaciones de Medicare de 1991 a 2010. La vinculación SEER-Medicare tiene un 94% de éxito entre los mayores de 65 años (el 3% de los ancianos no recibe Medicare y el 3% no tiene información de vinculación suficiente ). Los datos SEER sobre el cáncer para todo el estado de California han estado disponibles desde 2000 (National Cancer Institute, 2015).

2.2. Verificación de casos y controles

Los participantes del estudio eran elegibles para su inclusión en este estudio si eran de raza conocida y eran residentes de California de & # x0226566 años de edad con al menos 13 meses de cobertura continua de Partes A y B, no HMO y al menos un código postal de California (usado para entrega por correo en los EE. UU.) disponible en el momento del diagnóstico / selección. El expediente solo incluía casos de cáncer de hígado. Los casos se definieron utilizando los siguientes criterios: Clasificación Internacional de Enfermedades para Oncología, Tercera Edición (ICD-O-3) código de topografía C22.0 (cáncer primario de hígado) y códigos de histología ICD-O-3 8170 a 8175 (Fritz et al. , 2000) confirmación diagnóstica (p. Ej., Histología positiva) excluyendo solo el diagnóstico clínico (Davila et al., 2005) número de secuencia 00 o 01 informado a un registro de cáncer de California diagnosticado entre 2000 y 2009 y no informado solo mediante autopsia o certificado de defunción. Los controles se seleccionaron de una muestra aleatoria del 5% de beneficiarios de Medicare que residen en áreas geográficas SEER. Durante la selección del control, solo se utilizaron el archivo del caso de cáncer de hígado y la muestra aleatoria del 5% de individuos sin cáncer (Davila et al., 2005 Welzel et al., 2011). Los casos incluidos originalmente en la muestra aleatoria del 5% (indicador del cinco por ciento) se agregaron nuevamente a la muestra aleatoria para ser considerados durante la selección de control (Engels et al., 2011). Para cada año entre 2000 y 2009 (el período durante el cual los datos SEER están disponibles para California), se enumeraron los controles elegibles que no eran un caso y estaban vivos al 1 de julio de ese año. Los controles elegibles pueden haber incluido casos diagnosticados después del 1 de julio del año de selección. Los casos y los controles se emparejaron en frecuencia según la edad, el sexo, la raza (blanco, negro, asiático, otro, hispano, nativo americano) y los años (duración) de residencia no continua en California (utilizando los códigos postales disponibles proporcionados por Medicare, categorizados utilizando terciles entre los casos: 1 & # x020135, 6 & # x0201310, & # x0226511). Como máximo, cinco controles se emparejaron con casos dentro de cada estrato. Se tomaron muestras de los controles con reemplazo.

2.3. Exposición a plaguicidas

El período de tiempo de exposición a plaguicidas de interés fue 1974 hasta el año anterior al diagnóstico / selección (el año del diagnóstico / selección es entre 2000 y 2009). La exposición a pesticidas agrícolas se estimó a nivel de código postal vinculando los datos del Informe de uso de pesticidas (PUR) del Departamento de Regulación de Pesticidas de California (CDPR) con los códigos postales disponibles proporcionados por Medicare en un SIG. Los datos de PUR incluyen libras de pesticidas aplicados (1 libra representa 0.45 kg), nombre químico, fecha y la sección específica de 2.59 km 2 (1 mi 2) Public Land Survey System (PLSS) donde se aplicaron los pesticidas (Departamento de Regulación de Pesticidas de California , 2014). Se revisaron los PUR de uso agrícola de 1974 a 2008 en busca de errores (por ejemplo, duplicados). Densidades de uso de plaguicidas atípicas (kg / km 2), definidas utilizando indicadores CDPR (p. Ej., & # X0003e22,417 kg / km 2 si es un pesticida no fumigante) de 1990 a 2008 y como & # x0003e22,417 kg / km 2 (& # x0003e112,085 kg / km 2 si es fumigante) o 50 veces la densidad de uso promedio para todos los usos de un producto pesticida, cultivo, tipo de unidad y tipo de registro dado de 1974 a 1989, fueron reemplazados con la densidad de uso promedio a nivel estatal para ese pesticida en ese año (Rull y Ritz, 2003). Las libras de ingrediente activo se volvieron a calcular utilizando el número PUR de acres tratados (1 acre representa 0,004 km 2).

Las aplicaciones de plaguicidas pertenecientes a las clases químicas de organofosforados, organoclorados y carbamatos, que se han asociado previamente con el HCC, se extrajeron de los registros de PUR (Tabla complementaria 1) (Cordier et al., 1993 Ezzat et al., 2005 Persson et al., 2012). Para cada año entre 1974 y 2008, las libras se emparejaron y se sumaron de acuerdo con la sección PLSS y se dividieron por el área de la sección para calcular las densidades de uso de plaguicidas (kg / km 2) para cada sección PLSS (Bell et al., 2001 Clary y Ritz, 2003 Reynolds et al., 2004 Rull y Ritz, 2003). Las secciones PLSS y las áreas de tabulación del código postal TIGER / Line & # x000ae de California (ZCTA utilizadas para aproximar los límites del código postal para todos los años entre 1974 y 2008) se cruzaron (Oficina del Censo de los EE. UU., 2000). Las densidades de uso de pesticidas de la sección PLSS se agregaron espacialmente (es decir, se ampliaron) al nivel del código postal para calcular las densidades de uso de pesticidas a nivel del código postal utilizando la ponderación de área en un SIG, donde las tasas de sección se ponderaron por la proporción del área del código postal comprendida por ese sección.

Los códigos postales proporcionados por Medicare (último código postal de facturación en ese año) estuvieron disponibles para cada sujeto del estudio para cada año desde 1991 hasta 2009, según la edad y la inscripción en Medicare, y se utilizaron para determinar la residencia dentro o fuera de California. Asumimos que cada sujeto del estudio y el primer código postal disponible proporcionado por Medicare era su código postal de residencia desde 1974 (es decir, transferido). La mayoría de los primeros códigos postales disponibles proporcionados por Medicare entre los casos (86,4%) y los controles (85,6%) incluidos en el estudio estaban en California y en el archivo de código postal TIGER / Line & # x000ae. Faltaban el resto de los primeros códigos postales disponibles proporcionados por Medicare entre los casos y controles (8,6% 8,9%), un código postal de California que no se encontraba en el archivo de código postal TIGER / Line & # x000ae (1.8% 2.1%), o no un Código postal de California (3.3% 3.4%).

Las densidades de uso de pesticidas a nivel de código postal (mejoradas de las secciones de PLSS) se vincularon a cada sujeto del estudio y los códigos postales proporcionados por Medicare desde 1974 hasta el año anterior al diagnóstico / selección que estaban en California y en el código postal TIGER / Line & # x000ae. Archivo de código. En otras palabras, la residencia fuera de California no se consideró en el cálculo de la exposición. Entre los casos (n = 93.849 códigos postales desde 1974 hasta el año anterior al diagnóstico incluye los remanentes) y los controles (n = 463.700 códigos postales desde 1974 hasta el año anterior a la selección) incluidos en el estudio, el 88,9% (88,3% controles) de todos los Se encontraron códigos en California y en el archivo de código postal TIGER / Line & # x000ae, faltaban 6,7% (6,9%), 2,9% (3,0%) no estaban en California y 1,6% (1,8%) estaban en California pero no en el archivo de código postal TIGER / Line & # x000ae. Las densidades de uso de pesticidas de cada sujeto del estudio y el código postal # x02019 se sumaron y dividieron por el número de años de residencia en California (es decir, el número de años con los códigos postales de California en el archivo TIGER / Line & # x000ae ZIP Code) para calcular un pesticida anual promedio densidad de uso (Ritz et al., 2009 Rull y Ritz, 2003 Wang et al., 2011). Los códigos postales en California y en el archivo de código postal TIGER / Line & # x000ae asociado con una densidad de uso de pesticidas de 0 kg / km 2 se incluyeron en el cálculo anual de la densidad de uso de pesticidas.

2.4. Covariables

Lo siguiente se extrajo de reclamos de Medicare para pacientes hospitalizados (Parte A), pacientes ambulatorios (Parte B) y portadores (p. Ej., Médico): VHC (ICD-9-CM [Novena revisión, modificación clínica] códigos 070.41, 070.44, 070.51, 070.54, 070.70, V02.62), VHB (070.22, 070.23, 070.32, 070.33, V02.61), hepatitis no especificada (070.9, 070.59, 070.49, 571.4, 571.8, 571.9), diabetes (250), obesidad (278.00, 278.01, 278.02 , V77.8, 259.9), enfermedad hepática alcohólica (571.0, 571.1, 571.2, 571.3 571.5 o 571.6 en presencia de 303, 291, 305.0, V11.3 o V79.1), cirrosis inespecífica (571.5 o 571.6 no en presencia de VHC, VHB, hepatitis no especificada o enfermedad hepática alcohólica), trastornos genéticos raros (& # x003b11 deficiencia de antitripsina 273.4, hemocromatosis 275.0, porfiria 277.1, tirosinemia 270.2, enfermedad de Wilson 275.1), virus de inmunodeficiencia humana (VIH) ( 042, V08) y tabaquismo (V15.82, 305.1, 989.84 nunca fumar ya que no hay suficiente información para identificar a los exfumadores) (Davila et al., 2005 Welzel et al., 2013 W elzel et al., 2011). La enfermedad hepática es una variable categórica de tres niveles utilizada en el modelado estadístico, definida como ninguna (sin hepatitis, enfermedad hepática alcohólica y cirrosis inespecífica), solo hepatitis (hepatitis sin enfermedad hepática alcohólica y cirrosis) y cirrosis (enfermedad hepática alcohólica o cirrosis inespecífica con o sin hepatitis). En el análisis de subgrupos, la enfermedad hepática (sí / no) se definió como tener cualquiera de las siguientes condiciones: hepatitis, enfermedad hepática alcohólica o cirrosis inespecífica. Las condiciones se consideraron presentes si había un solo diagnóstico de la Parte A o dos diagnósticos de reclamación de la Parte B o de la aseguradora separados por al menos 30 días (Engels et al., 2011). Debido a la disponibilidad diferencial de datos de reclamaciones según el momento en que se diagnosticaron los casos (reclamaciones de 1991 a 2010 si se diagnosticaron antes de 2003 de 1998 a 2010 si se diagnosticaron entre 2003 y 2005 de 2000 a 2010 si se diagnosticaron entre 2006 y 2007 y de 2002 a 2010 si se diagnosticaron entre 2008 y 2009) (Instituto Nacional del Cáncer, 2014d), se examinaron las reclamaciones de Medicare dentro de los seis años anteriores al diagnóstico / selección. Se excluyeron las reclamaciones dentro del año anterior al diagnóstico / selección debido a un posible sesgo de detección médica (Engels et al., 2011). Como los sujetos del estudio elegibles debían tener al menos 13 meses de inscripción continua en Partes A y B, no HMO antes del diagnóstico / selección, ningún código de diagnóstico de reclamo de Medicare que identificara una condición de salud en particular indicaba la ausencia de esa condición (es decir, había no faltan variables en nuestro estudio).

La compra estatal o los Programas de Ahorro de Medicare, donde los estados pagan las primas, los deducibles y / o el coseguro de Medicare debido a ingresos limitados, se utilizó como indicador del estado socioeconómico (Centros de Medicare & # x00026 Servicios de Medicaid, 2014 Davila et al. , 2005). Se consideró que la participación del estado estaba presente si un sujeto estaba inscrito en la participación del estado de las Partes A o B en cualquier momento a partir del año anterior al diagnóstico / selección. La proporción de cada código postal & # x02019s & # x02265 de la población de 16 años de edad empleada en la industria agrícola fue proporcionada por el Archivo de Resumen del Censo de 2000 3 (Oficina del Censo de los EE. UU., 2002). El código postal proporcionado por Medicare en el año 2000 o más cercano se comparó con los datos del censo.

2.5. Análisis de subgrupos: residentes de California de áreas agrícolas intensivas

En un análisis de subgrupos, los análisis estadísticos se limitaron a los residentes de California de áreas agrícolas intensivas, definidas como personas con la oportunidad (es decir, en riesgo) de exposición a pesticidas agrícolas en virtud de residir en códigos postales de California compuestos principalmente de cobertura de tierras agrícolas. En este estudio se utilizaron archivos ráster de la Base de datos nacional de cobertura terrestre (NLCD) de 1992, 2001 y 2006, una fuente de datos de cobertura terrestre estándar de EE. UU. Derivada de imágenes clasificadas Landsat de 30 m (Homer et al., 2012). Los archivos de California de 1992 se hicieron mosaicos o se combinaron. Todos los archivos NLCD se sometieron a un filtro mayoritario (filtro 3 & # x000d73) para reducir el ruido aleatorio (Fuller y Brown, 1996 Stow et al., 1989). Cada archivo ráster se reclasificó a cobertura de suelo agrícola (clases NLCD 81 & # x0201385) frente a todas las demás coberturas de suelo y se combinó utilizando álgebra de mapas. La capa ráster agrícola se convirtió en una capa vectorial y se cruzó con los códigos postales de California. Utilizando el código postal que ocurre con mayor frecuencia (denominado código postal de modo), se seleccionaron en este análisis los casos y controles que residen en códigos postales con un área mayoritaria (& # x0226550%) que cruza la cobertura de tierras agrícolas.

2.6. análisis estadístico

La exposición a plaguicidas se examinó combinando todas las clases químicas de plaguicidas (organofosforados, organoclorados y carbamatos) y por cada clase por separado (Gunier et al., 2001 Reynolds et al., 2005). Las clases químicas de plaguicidas estaban altamente correlacionadas entre sí y, por lo tanto, no se incluyeron como predictores en un solo modelo estadístico (correlación de Spearman para organofosforados y organoclorados 0.90, p & # x0003c0.0001 organofosforados y carbamatos 0.92, p & # x0003c0.0001 organoclorados y carbamatos 0.88 , p & # x0003c0.0001). Inicialmente usamos regresión logística de intercepción aleatoria para explorar hasta qué punto las personas dentro del mismo código postal podrían tener un riesgo similar de HCC. Después de incorporar una intersección aleatoria definida como el código postal en el momento del diagnóstico / selección y el código postal de modo, un coeficiente de correlación intraclase bajo (0.03) indicó poca variabilidad entre los conglomerados (códigos postales) y que una intersección aleatoria no era necesaria. Para evaluar la asociación entre cada variable y el estado de casos y controles, se utilizó la regresión logística condicional univariable utilizando una estimación de varianza robusta y estratificando (condicionando) los factores de coincidencia de frecuencia de año, edad, sexo, raza y residencia en California. Se utilizaron pruebas de chi-cuadrado, análisis de varianza unidireccional (ANOVA) y Kruskal-Wallis para evaluar la asociación entre cada variable y la exposición a pesticidas. Se utilizaron para construir las variables que estaban significativamente asociadas con el HCC o la exposición a pesticidas (p & # x0003c0.05), los métodos de eliminación hacia atrás (p & # x0003e0.20), confirmados con la selección hacia adelante (p & # x0003c0.20 para ingresar) modelos finales. Se realizaron diagnósticos de regresión (por ejemplo, bondad de ajuste, colinealidad, linealidad del logit, valores atípicos, puntos influyentes) en los modelos finales. Los OR y los IC del 95% se estimaron utilizando los modelos finales de regresión logística condicional multivariable (estimación de varianza robusta) condicionada a los factores de coincidencia de frecuencia.

Los modelos se estratificaron por residencia rural / urbana utilizando códigos de Continuum Rural-Urbano (RUCC), que definen los condados de EE. UU. Como metropolitanos frente a no metropolitanos utilizando información sobre la población, el desplazamiento de los trabajadores y la adyacencia metropolitana (Departamento de Agricultura de EE. A los condados se les asignó el código RUCC de modo utilizando datos de 1974, 1983, 1993 y 2009, si no había una mayoría clara, se asignó el código RUCC más urbano. Después de cruzar los condados TIGER / Line & # x000a9 y los códigos postales en un GIS (el código postal se emparejó con el condado que comprende la mayor parte de su área), se asignaron códigos RUCC de condado a cada sujeto de estudio de acuerdo con su modo de código postal. Los códigos RUCC se clasificaron en tres grupos: urbano (códigos RUCC 0 & # x020133 áreas metropolitanas de & # x0003c250,000 a & # x0003e1 millón de habitantes), rural & # x0226520,000 población (4 & # x020135) y rural & # x0003c20, 000 habitantes (6 & # x020139) (McCall-Hosenfeld et al., 2014). Se asumió que el estado residencial rural / urbano era constante independientemente de los límites estatales. Las interacciones entre la exposición a plaguicidas y cada covariable y factor de coincidencia en el riesgo de HCC se examinaron incluyendo individualmente el término de producto cruzado en el modelo y probando su importancia. Cuando se detectó una interacción significativa, se crearon modelos separados, estratificados por la covariable o factor, para estimar el efecto de los plaguicidas sobre el riesgo de HCC dentro del estrato. Se examinó el efecto de los retrasos de 10, 15 y 20 años, donde se consideró la exposición a plaguicidas que se produce fuera de la ventana de retraso (antes del diagnóstico / selección). Las densidades de uso de plaguicidas se categorizaron utilizando terciles o el percentil 75 entre los controles (McGlynn et al., 2006 Reynolds et al., 2005 Rignell-Hydbom et al., 2009). Todos los valores p informados son de dos caras. Los análisis se realizaron en 2014 utilizando SAS versión 9.4 (SAS Institute, Inc., Cary, Carolina del Norte). Todos los datos espaciales se reproyectaron al sistema de coordenadas California Teale Albers (medidor de datos NAD83) y todos los análisis geoespaciales se realizaron en 2014 utilizando ArcGIS (Esri, 2012).

2.7. Análisis espaciales: autocorrelación espacial y el problema de la unidad de área modificable (MAUP)

La autocorrelación espacial potencial de los residuos del modelo final de regresión logística condicional multivariable (muestra completa de todas las clases) se examinó utilizando la prueba global de Moran & # x02019s I (considerando el código postal de modo y el código postal de diagnóstico / selección). Con respecto al impacto potencial del MAUP en los resultados del estudio, las pruebas globales de Moran & # x02019s I de las densidades de uso de plaguicidas a nivel de sección de PLSS (todas las clases) se calcularon para cada año desde 1974 hasta 2008. Después de cruzar las secciones de PLSS con códigos postales, anualmente dentro de Se examinó la variabilidad de la densidad de uso de pesticidas de la sección PLSS del código postal de 1974 a 2008 utilizando medianas y rangos intercuartílicos promedio (IQR) de las densidades de uso de la sección PLSS dentro de cada código postal. Usando el código postal de modo, se examinó la autocorrelación espacial global y local de las ubicaciones residenciales de los sujetos de estudio (proporción de la población del estudio que reside dentro de cada código postal en general y estratificada por estado de casos y controles) en California utilizando Moran & # x02019s I global y Anselin Local Moran & # x02019s I pruebas.


Finalmente, podemos unir las ramas en un modelo completo.
Observe cómo no tuve que usar model_a o model_s aquí. Puede hacerlo si lo desea, pero esos submodelos no son necesarios, a menos que luego desee obtenerlos individualmente para otros usos. (Incluso si los creó, no necesita cambiar el código a continuación para usarlos, ya son parte del mismo gráfico)

Dado que la salida es 2D ahora, no hay ningún problema con la 'categorical_crossentropy', mi comentario se debió a dudas sobre la forma de la salida.


¿Cómo extraer una red neuronal convolucional del objeto modelo Keras al objeto Networkx DiGraph manteniendo los pesos como un atributo de borde?

Estoy interesado en usar el paquete Networkx Python para realizar análisis de red en redes neuronales convolucionales. Para lograr esto, quiero extraer la información de borde y peso de los objetos del modelo de Keras y colocarlos en un objeto Networkx Digraph donde se puede (1) escribir en un archivo graphml y (2) estar sujeto a las herramientas de análisis de gráficos disponibles en Networkx .

Antes de seguir adelante, permítame aclarar cómo considerar la agrupación. La agrupación (ejemplos: máximo o promedio) significa que las entradas dentro de una ventana de convolución se agregarán, creando una ambigüedad sobre 'qué' entrada se usaría en el gráfico que quiero crear. Para resolver esto, me gustaría que se incluyeran todas las opciones posibles en el gráfico, ya que puedo dar cuenta de esto más adelante según sea necesario.

Por el bien de ejemplo, consideremos hacer esto con VGG16. Keras hace que sea bastante fácil acceder a los pesos mientras recorre las capas.

Que imprimirá lo siguiente:

Para las capas convolucionales, he leído que las tuplas representarán (filter_x, filter_y, filter_z, num_filters) donde filter_x, filter_y, filter_z dan la forma del filtro y num_filters es el número de filtros. Hay un término de sesgo para cada filtro, por lo que la última tupla de estas filas también será igual al número de filtros.

Si bien he leído explicaciones sobre cómo se comportan conceptualmente las convoluciones dentro de una red neuronal convolucional, parece que tengo un bloqueo mental cuando llego a manejar las formas de las capas en el objeto modelo.

Una vez que sepa cómo recorrer los bordes del modelo de Keras, con Networkx debería poder codificar fácilmente la construcción del objeto Networkx. El código para esto podría parecerse libremente a algo como esto, donde keras_edges es un iterable que contiene tuplas formateadas como (in_node, out_node, edge_weight).

Entonces, para ser específico, ¿cómo hago un bucle sobre todos los bordes de una manera que tenga en cuenta la forma de las capas y la agrupación de la manera que describí anteriormente?


Cómo implementar la capa Flatten con tamaño de lote y gt 1 en Pytorch (Pytorch_Geometric)

Soy nuevo en Pytorch y estoy tratando de transferir mi código anterior de Tensorflow a Pytorch debido a problemas de memoria. Sin embargo, al intentar reproducir la capa Flatten, seguían surgiendo algunos problemas.

En mi objeto DataLoader, batch_size se mezcla con la primera dimensión de entrada (en mi GNN, la entrada desempaquetada del objeto DataLoader es de tamaño [batch_size * node_num, attribute_num], por ejemplo, [4 * 896, 32] después de las capas GCNConv). Básicamente, si implemento torch.flatten () después de GCNConv, las muestras se mezclan (a [4 * 896 * 32]) y solo habría 1 salida de esta red, mientras que espero salidas #batch_size. Y si uso nn.Flatten () en su lugar, no parece que suceda nada (todavía [4 * 896, 32]). ¿Debo establecer batch_size como el primer dim de la entrada al principio, o debo usar directamente la función view ()? Intenté usar view () directamente y (parecía haber) funcionado, aunque no estoy seguro de si esto es lo mismo que Flatten. Consulte mi código a continuación. Actualmente estoy usando global_max_pool porque funciona (puede separar batch_size directamente).

Por cierto, no estoy seguro de por qué el entrenamiento es tan lento en Pytorch. Cuando node_num se eleva a 13000, necesito una hora para pasar por una época, y tengo 100 épocas por pliegue de prueba y 10 pliegues de prueba. En tensorflow, todo el proceso de entrenamiento solo lleva varias horas. La misma arquitectura de red y datos de entrada sin procesar, como se muestra aquí en otra publicación mía, que también describe los problemas de memoria que encontré al usar TF.

He estado bastante frustrado por un tiempo. Revisé esta y esta publicación, pero parece que sus problemas difieren un poco de los míos. ¡Agradecería mucho cualquier ayuda!


Resumen

MeteoInfo es un conjunto de herramientas de software que se ha desarrollado para la visualización y el análisis de datos meteorológicos. Incluye una biblioteca de clases .NET para desarrolladores de software y una aplicación de escritorio para usuarios finales. MeteoInfo también admite varias funciones básicas de SIG y puede leer varios formatos de datos meteorológicos utilizados, como NetCDF y GRIB. Los análisis meteorológicos complejos de los datos de la red y de la estación se pueden procesar utilizando los modelos de datos proporcionados. La biblioteca de clases se puede utilizar convenientemente para desarrollar rutinas de software para manipular datos espaciales y meteorológicos. La aplicación de escritorio tiene una GUI fácil de usar y es una herramienta poderosa para ver y examinar conjuntos de datos meteorológicos. MeteoInfo también se puede ejecutar automáticamente mediante secuencias de comandos con el lenguaje IronPython. Copyright © 2012 Sociedad Meteorológica Real


¿Cómo agregar otra capa en una red precargada?

Estoy cargando una red neuronal usando tensorflow y colab notbook de google. Y quiero eliminar la capa completamente conectada de la capa de salida y agregar otra completamente conectada con solo una neurona, y quiero congelar las otras capas y entrenar solo esta capa de salida agregada. Estoy usando tf.keras.application.MobileNetV2 y estoy usando mledu- datasets / cats_and_dogs.

Busqué en la API de tensorflow y probé los métodos para agregar y no tuve éxito. Mi código es el siguiente

Espero agregar la capa completamente conectada en la red, pero no agrega nada.


Conclusiones

In the context of the most populous city in Europe, the significant association between walkability and walking, even after adjustment for individual-level sociodemographic factors and for area deprivation, highlights the potential importance of the physical environment of the neighbourhood in eliciting physical activity in individuals and thereby promoting public health at a population level. The most basic walkability index model constructed here may offer urban planners and public health professionals a simple tool in building and maintaining healthy neighbourhoods.

In future work, the walkability index could be used to assess relationships between walkability and walking in regionally or nationally representative samples, and for different age groups. Previous work revealed lack of associations between walkability and overall physical activity in the study cohort, suggesting a neighbourhood supportive of walking is not necessarily conducive to other physical activities [43]. Therefore, investigation of associations of walkability with specific types of physical activity within particular domains using a regionally or nationally representative sample is warranted.


Ver el vídeo: Υπολογισμός της μέσης ταχύτητας (Octubre 2021).