Más

Asignar puntuación a ráster según la superposición de celdas con otro valor de ráster y campo

Asignar puntuación a ráster según la superposición de celdas con otro valor de ráster y campo


Tengo un conjunto de rásteres a los que les he asignado puntuaciones de forma individual (puntuación basada predominantemente en los valores de otros campos). La escala de puntuación es la misma para todos los rásteres, pero los factores que determinan el valor de puntuación difieren para cada ráster.

Estoy tratando de encontrar el mejor método para asignar una puntuación a uno de los rásteres, llámelo raster1.

Si el campo1 (un atributo del ráster 1) es <70 y el ráster1 se superpone con el ráster2, asigne el valor x al ráster1.

No estoy tratando de hacer un nuevo ráster, solo quiero identificar las celdas de raster1 que se superponen con raster2 y asignarles un valor, asumiendo que también cumplen con el otro parámetro (arriba). Hacer una adición de superposición de ráster identificaría celdas superpuestas, pero no estoy seguro de cómo usaría eso como un identificador de manera efectiva.


Cómo funciona la superposición ponderada

Al igual que con todos los análisis de superposición, en el análisis de superposición ponderada, debe definir el problema, dividir el modelo en submodelos e identificar las capas de entrada.

Dado que las capas de criterios de entrada estarán en diferentes sistemas de numeración con diferentes rangos, para combinarlos en un solo análisis, cada celda para cada criterio debe reclasificarse en una escala de preferencia común, como 1 a 10, siendo 10 la más favorable. Una preferencia asignada en la escala común implica la preferencia del fenómeno por el criterio. Los valores de preferencia están en una escala relativa. Es decir, una preferencia de 10 es dos veces más preferida que una preferencia de 5.

Los valores de preferencia no solo deben asignarse entre sí dentro de la capa, sino que también deben tener el mismo significado entre las capas. Por ejemplo, si a una ubicación para un criterio se le asigna una preferencia de 5, tendrá la misma influencia en el fenómeno que un 5 en un segundo criterio.

Por ejemplo, en un modelo de idoneidad de vivienda simple, puede tener tres criterios de entrada: pendiente, orientación y distancia a las carreteras. Las pendientes se reclasifican en una escala de 1 a 10, siendo las más planas las menos costosas: por lo tanto, son las más favorables y se les asignan los valores más altos. A medida que las pendientes se vuelven más pronunciadas, se les asignan valores decrecientes, asignándose un 1. a las pendientes más pronunciadas. Se hace el mismo proceso de reclasificación a la escala de 1 a 10 por aspecto, siendo los aspectos más favorables, en este caso los más al sur, asignó los valores más altos. El mismo proceso de reclasificación se aplica al criterio de distancia a carreteras. Las ubicaciones más cercanas a las carreteras son más favorables, ya que son menos costosas de construir porque tienen un acceso más fácil a la energía y requieren entradas más cortas. Una ubicación a la que se le asigne un valor de idoneidad de 5 en la capa de pendiente reclasificada será dos veces más costosa de construir que una pendiente a la que se le asigne un valor de 10. Una ubicación a la que se le asigne una idoneidad de 5 en la capa de pendiente reclasificada tendrá el mismo costo que un 5 asignado en la capa reclasificada de distancia a carreteras.

Es posible que cada uno de los criterios del análisis de superposición ponderada no tenga la misma importancia. Puede ponderar los criterios importantes más que los otros criterios. Por ejemplo, en nuestro modelo de muestra de idoneidad de vivienda, podría decidir, debido a los propósitos de conservación a largo plazo, que los mejores aspectos son más importantes que los costos a corto plazo asociados con los criterios de pendiente y distancia a las carreteras. Por lo tanto, puede ponderar los valores de aspecto como dos veces más importantes que los criterios de pendiente y distancia a las carreteras.

Los criterios de entrada se multiplican por los pesos y luego se suman. Por ejemplo, en el modelo de adecuación de la vivienda, el aspecto se multiplica por 2 y los tres criterios se suman, o se representan de otra manera, (2 * aspecto) + pendiente + distancia a las carreteras.

El paso final del proceso de análisis de superposición es validar el modelo para asegurarse de que lo que el modelo indica que está en un sitio está realmente allí. Una vez validado el modelo, se selecciona un sitio y se construye la casa.


Modelos de datos ráster (modelo propiedades de espaciados uniformemente celdas de cuadrícula)

Motivación histórica

Concepto general de análisis de idoneidad (es decir, uso apropiado de la tierra en función de las características de la tierra)
  • muy prolífico (1700 proyectos a lo largo de su carrera) e influyente
  • ayudó a crear el Sistema de Parques Nacionales de EE. UU.
  • escribió el primer "Plan Nacional" que abogaba por las áreas de conservación y el desarrollo
  • planificación basada en recursos (las características naturales deben influir en la forma de la ciudad) "múltiples centros basados ​​en el vecindario determinados por los recursos disponibles"
  • Importancia de los parques: "las ciudades mejor diseñadas tienen alrededor de un octavo de su área en parques y alrededor de un acre para 75 personas". (Manning 1919)
  • Se diferenciaba del "movimiento City Beautiful", que enfatizaba los centros cívicos monumentales y los edificios públicos.
¿Cómo implementar estas ideas en un mundo predigital? (¡no es fácil!)
      • recursos naturales cartografiados por encuesta (¡sin fotos aéreas!)
      • utilizó tablas de luz y rastreo manual para el análisis espacial

      • las características pueden ser "buenas", en cuyo caso las áreas superpuestas son "adecuadas"
      • las características pueden ser "malas", en cuyo caso las áreas superpuestas son "inadecuadas"
      • las características pueden ser "medianamente buenas" o "bastante malas" para los casos intermedios

      Ideas y métodos de Manning revisados ​​y popularizados en la década de 1960 por Ian McHarg (Penn) y Carl Steinitz (Harvard)

      ¿Por qué no hacer superposiciones con Vector Model?
      • & quot; Problema de astilla & quot no escala bien
        • En un análisis con docenas de capas, puede dedicar tanto tiempo a la limpieza como al análisis
        • El modelo de datos vectoriales, particularmente con polígonos, es complejo (la superposición & quotsimple & quot requiere muchos cálculos)
        • El modelo de datos ráster es una representación muy eficiente dentro de las computadoras digitales

        Modelo de datos ráster

        • Ortofotos (2 mx 2 m 0,5 mx 0,5 m)
          • El valor de la celda es el brillo del píxel en ortofoto
          • Esta es la representación predeterminada
          • Tiene restricciones de nomenclatura extrañas (basadas en Fortran): 13 caracteres + guión bajo
          • También puede usar & quotgeoTIFF & quot simplemente especificando la extensión (salida: this_is_my_long_descriptive_filename.tif)
          • Puede ver rásteres en la versión base, pero no manipular

          Superficies hidrológicamente correctas: Topo to Raster

          La función Topo to Raster (TopoGrid en Map Algebra) es un método de interpolación diseñado específicamente para la creación de modelos digitales de elevación (DEM) hidrológicamente correctos. Topo to Raster se basa en el programa ANUDEM desarrollado por Michael Hutchinson (1988, 1989). Consulte Hutchinson y Dowling (1991) para ver un ejemplo de una aplicación sustancial de ANUDEM y referencias adicionales asociadas. En Hutchinson (1993) se ofrece un breve resumen de ANUDEM y algunas aplicaciones.

          Topo to Raster interpola los valores de elevación de un ráster, imponiendo restricciones que garantizan:

          • Una estructura de drenaje conectada
          • Representación correcta de crestas y corrientes a partir de datos de contorno de entrada

          Topo to Raster es el único interpolador ArcGIS diseñado específicamente para trabajar de forma inteligente con entradas de contorno.

          Las siguientes secciones brindan información adicional sobre el proceso de interpolación y sugerencias para aprovechar al máximo la función Topo to Raster.


          El proceso de interpolación

          El procedimiento de interpolación ha sido diseñado para aprovechar los tipos de datos de entrada comúnmente disponibles y las características conocidas de las superficies de elevación. El método utiliza una técnica de interpolación de diferencias finitas iterativa. Está optimizado para tener la eficiencia computacional de los métodos de interpolación local, como la interpolación ponderada de distancia inversa, sin perder la continuidad de la superficie de los métodos de interpolación global, como kriging y spline. Es esencialmente una técnica de spline de placa delgada discretizada (Wahba, 1990), en la que la penalización de rugosidad se ha modificado para permitir que el DEM ajustado siga cambios abruptos en el terreno, como arroyos y crestas.

          El agua es la principal fuerza erosiva que determina la forma general de la mayoría de los paisajes. Por esta razón, la mayoría de los paisajes tienen muchas cimas de colinas (máximos locales) y pocos sumideros (mínimos locales), lo que da como resultado un patrón de drenaje conectado. Topo to Raster utiliza este conocimiento sobre superficies e impone restricciones en el proceso de interpolación que dan como resultado una estructura de drenaje conectada y una representación correcta de crestas y arroyos. Esta condición de drenaje impuesta produce superficies de mayor precisión con menos datos de entrada. La cantidad de datos de entrada puede ser hasta un orden de magnitud menor que la requerida normalmente para describir adecuadamente una superficie con contornos digitalizados, minimizando aún más el costo de obtener DEM confiables. La condición de drenaje global también elimina virtualmente cualquier necesidad de edición o posprocesamiento para eliminar sumideros falsos en la superficie generada.

          El programa actúa de manera conservadora al eliminar los sumideros y no impondrá las condiciones de drenaje en ubicaciones que contradigan los datos de elevación de entrada. Estas ubicaciones normalmente aparecen en el archivo de diagnóstico como receptores. Utilice esta información para corregir errores de datos, especialmente al procesar grandes conjuntos de datos.

          El proceso de aplicación del drenaje

          El propósito del proceso de aplicación del drenaje es eliminar todos los puntos de sumidero en el DEM de salida que no se hayan identificado como sumideros en la cobertura de sumidero de entrada. El programa asume que todos los sumideros no identificados son errores, ya que los sumideros son generalmente raros en paisajes naturales (Goodchild y Mark, 1987).

          El algoritmo de aplicación de drenaje intenta eliminar los sumideros falsos modificando el DEM, infiriendo líneas de drenaje a través del punto de asiento más bajo en el área de drenaje que rodea cada sumidero falso. Dado que el espacio libre del fregadero está sujeto a la tolerancia de elevación, el programa es conservador cuando se intenta limpiar los sumideros espurios. En otras palabras, no borra los sumideros espurios que contradecirían los datos de elevación de entrada en más de una tolerancia de entrada.

          La aplicación del drenaje también se puede complementar con la incorporación de datos de líneas de corriente. Esto es útil cuando se requiere una ubicación más precisa de los flujos.

          La aplicación de drenaje se puede desactivar, en cuyo caso se ignora el proceso de limpieza del fregadero. Esto puede ser útil si tiene datos de contorno de algo diferente a la elevación & # 8212por ejemplo, la temperatura & # 8212 para la que desea crear una superficie.

          Uso de datos de contorno

          Históricamente, los contornos han sido el método más común para el almacenamiento y presentación de información de elevación. Desafortunadamente, este método también es el más difícil de utilizar correctamente con técnicas generales de interpolación. La desventaja radica en el submuestreo de información entre contornos, especialmente en áreas de bajo relieve.

          Al comienzo del proceso de interpolación, Topo to Raster usa información inherente a los contornos para construir un modelo de drenaje generalizado. Al identificar áreas de curvatura máxima local en cada contorno, se identifican las áreas de pendiente más pronunciada y se crea una red de arroyos y crestas (Hutchinson, 1988). Esta información se utiliza para garantizar las propiedades hidrogeomórficas adecuadas del DEM de salida y también se puede utilizar para verificar la precisión del DEM de salida.

          Una vez que se ha determinado la morfología general de la superficie, los datos de contorno también se utilizan en la interpolación de los valores de elevación en cada celda.

          Cuando los datos de contorno se utilizan para interpolar información de elevación, todos los datos de contorno se leen y generalizan. Se leen un máximo de 50 puntos de datos de estos contornos dentro de cada celda. En la resolución final, solo se utiliza un punto crítico para cada celda. Por esta razón, tener una densidad de contorno con varios contornos que cruzan las celdas de salida es redundante.

          Interpolación multirresolución

          Este programa utiliza un método de interpolación de múltiples resoluciones, comenzando con un ráster grueso y avanzando hacia la resolución más fina especificada por el usuario. En cada resolución, se aplican las condiciones de drenaje, se realiza la interpolación y el número de sumideros restantes se registra en el archivo de diagnóstico.


          Aprovechar al máximo Topo to Raster

          A continuación se muestran una variedad de temas de interés si desea maximizar los recursos disponibles para crear los mejores DEM posibles.

          Creación y creación de mosaicos de rásteres adyacentes

          A veces será necesario crear DEM a partir de mosaicos adyacentes de datos de entrada. Por lo general, esto se producirá cuando los conjuntos de datos de entrada se derivan de una serie de hojas de mapa o cuando los datos de entrada deben procesarse en varias partes.

          El proceso de interpolación de topo a ráster utiliza datos de entrada de las áreas circundantes para definir la morfología y el drenaje de la superficie, luego interpola los valores de salida. Para realizar las predicciones más precisas en los límites del área de interés, la extensión de los conjuntos de datos de entrada debe ser mayor que el área de interés. La opción Margen proporciona un método para recortar los bordes de los DEM de salida según una distancia especificada por el usuario.

          Incluso con la precaución anterior, los bordes del DEM de salida pueden no ser tan confiables como el resto del conjunto de datos. Sin la precaución anterior, los bordes del conjunto de datos se interpolarían con la mitad de información. Debido a la falta de confiabilidad de los bordes en los DEM, cuando se van a combinar varios DEM de salida en un solo ráster, debe establecer una extensión mayor para cada uno de los DEM de salida para que predigan en las áreas adyacentes, superponiendo algunas celdas con una otro. Sin esta superposición, al fusionar los DEM de salida, es posible que los bordes no sean suaves.

          Por lo tanto, al combinar varios DEM de salida de Topo a Raster:

          • La extensión de salida para cada DEM debe ser unas pocas celdas más grande que las áreas de interés, por lo que habrá cierta superposición entre los DEM cuando se fusionen.
          • La extensión de los conjuntos de datos de entrada para cada interpolación de Topo a ráster debe ser incluso mayor que el área de interés aumentada para que los bordes se puedan predecir con la mayor precisión posible.

          Cuando se han creado los DEM, es mejor combinarlos con la herramienta Mosaico en la caja de herramientas Administración de datos en geoprocesamiento o la función Mosaico en Álgebra de mapas. Esta función proporciona opciones para manejar áreas superpuestas para suavizar la transición entre conjuntos de datos.

          Evaluación de la producción

          Todas las superficies creadas deben evaluarse para garantizar que los datos y los parámetros proporcionados al programa resulten en representaciones realistas de la superficie. Hay muchas formas de evaluar la calidad de una superficie de salida según el tipo de entrada disponible para crear la superficie.

          La evaluación más común es crear contornos a partir de la nueva superficie y compararlos con los datos de contorno de entrada. Es mejor crear estos nuevos contornos a la mitad del intervalo de contorno original para examinar los resultados entre contornos. Dibujar los contornos originales y los contornos recién creados uno encima del otro puede ayudar a identificar errores de interpolación. Los contornos se pueden generar con la función Contour.

          Otro método de comparación visual es comparar el conjunto de datos de drenaje de salida opcional con arroyos y crestas conocidas. El conjunto de datos de drenaje contiene los arroyos y crestas que fueron generados por el programa durante el proceso de aplicación del drenaje. Estos arroyos y crestas deben coincidir con arroyos y crestas conocidas en el área. Si se utilizó un conjunto de datos de flujo como entrada, los flujos de salida deberían superponerse casi perfectamente a los flujos de entrada, aunque pueden ser un poco más generalizados.

          Un método común para evaluar la calidad de una superficie generada es retener un porcentaje de los datos de entrada del proceso de interpolación. Después de generar la superficie, la altura de estos puntos conocidos se puede restar de la superficie generada para examinar qué tan cerca la nueva superficie representa la verdadera superficie. Estas diferencias se pueden usar para calcular una medida de error para la superficie, como el error cuadrático medio de la raíz.

          El archivo de diagnóstico creado se puede utilizar para evaluar la eficacia con la que los ajustes de tolerancia eliminan los sumideros en los datos de entrada. Disminuir los valores de las tolerancias puede hacer que el programa se comporte de manera más conservadora al limpiar los sumideros.

          Sesgo de contorno

          Existe un sesgo menor en el algoritmo de interpolación que hace que los contornos de entrada tengan un efecto más fuerte en la superficie de salida en el contorno. Este sesgo puede resultar en un ligero aplanamiento de la superficie de salida cuando cruza el contorno. Esto puede contribuir a resultados engañosos al calcular la curvatura del perfil de la superficie de salida, pero por lo demás no es perceptible.


          Referencias de topo a ráster

          Goodchild, M. F. y D. M. Mark. 1987. La naturaleza fractal de los fenómenos geográficos. Anales de la Asociación de Geógrafos Estadounidenses. 77 (2): 265-278.

          Hutchinson, M.F. 1988. Cálculo de modelos digitales de elevación hidrológicamente sólidos. Documento presentado en el Tercer Simposio Internacional sobre Manejo de Datos Espaciales en Sydney, Australia.

          Hutchinson, M.F. 1989. Un nuevo procedimiento para cuadricular datos de elevación y línea de corriente con eliminación automática de pozos espurios. Revista de hidrología 106: 211-232.

          Hutchinson, M. F. y Dowling, T. I. 1991. Una evaluación hidrológica continental de un nuevo modelo de elevación digital basado en cuadrículas de Australia. Procesos hidrológicos 5: 45-58.

          Hutchinson, M. F. 1993. Desarrollo de un DEM en todo el continente con aplicaciones al análisis del terreno y el clima. En Environmental Modeling with GIS, ed. M. F. Goodchild y col., 392 & # 8211399. Nueva York: Oxford University Press.

          Hutchinson, M. F. 1996. Un enfoque adaptativo local para la interpolación de modelos digitales de elevación. En Actas, Tercera Conferencia / Taller Internacional sobre Integración de SIG y Modelado Ambiental. Santa Barbara, CA: Centro Nacional de Información y Análisis Geográficos. Ver: http://www.ncgia.ucsb.edu/conf/SANTA_FE_CD-ROM/sf_papers/hutchinson_michael_dem/local.html

          Wahba, G. 1990. Modelos spline para datos de observación. Documento presentado en la serie de conferencias regionales CBMS-NSF sobre matemáticas aplicadas. Filadelfia: Soc. Ind. Appl. Matemáticas.


          Un algoritmo eficiente para la asignación de la dirección del flujo sobre superficies planas en DEM ráster basado en la transformación de distancia.

          Las superficies planas o áreas sin gradiente local son tipos generales de terreno en modelos de elevación digital (DEM) ráster. Cuando se utiliza un DEM para análisis hidrológico automatizado, es necesario asignar direcciones de flujo sobre superficies planas. Este documento presenta un algoritmo mejorado para asignar direcciones de flujo sobre superficies planas que se basa en trabajos anteriores y ofrece mejoras de eficiencia. El algoritmo mejorado utiliza el método de transformación de distancia para calcular los valores de distancia de las celdas en superficies planas hacia terrenos más bajos y lejos de terrenos más altos, lo que puede reemplazar el proceso recursivo en el algoritmo anterior por un proceso lineal y reducir el acceso aleatorio a datos. Además, el algoritmo mejorado asigna pesos con diferentes valores y signos a los dos valores de distancia para garantizar que todas las superficies planas sean drenadas, lo que evita la necesidad de etiquetar cada superficie plana utilizando el algoritmo de inundación-relleno en el trabajo anterior. Las comparaciones de velocidad indican que el algoritmo mejorado es más eficiente para asignar direcciones de flujo sobre superficies planas.

          Esta es una vista previa del contenido de la suscripción, acceda a través de su institución.


          Análisis geoespacial y ambiental

          Aplique sus conocimientos de SIG en este curso sobre análisis geoespacial, centrándose en herramientas de análisis, datos 3D, trabajo con rásteres, proyecciones y variables de entorno. A lo largo de las cuatro semanas de este curso, trabajaremos juntos en un proyecto, algo exclusivo de este curso, desde la concepción del proyecto, pasando por la recuperación de datos, la gestión y el procesamiento de datos iniciales y, finalmente, hasta nuestros productos de análisis. En esta clase, aprenderá los fundamentos del análisis geoespacial y ambiental durante cuatro módulos de una semana de duración: Semana 1: Recorra ArcToolbox y aprenda a usar herramientas de análisis geoespacial comunes integradas en ArcGIS Semana 2: Obtenga una comprensión práctica de los modelos de datos ráster: simbolice , reproyectar, superponer y evaluar rásteres. Desvíese en modelos de datos 3D e interpolación de observaciones en superficies y rásteres 3D Semana 3: profundice en las proyecciones y los sistemas de coordenadas, que son fundamentales para todos los SIG. Aprenda a utilizar variables de entorno para restringir sus análisis y obtener productos de datos de mejor calidad. Semana 4: amplíe sus conocimientos de simbología. Aprenda a mostrar visualmente sus datos clasificándolos en agrupaciones lógicas y luego simbolizándolos en su mapa. Tome Análisis geoespacial y ambiental como un curso independiente o como parte de la especialización en Sistemas de información geográfica (SIG). Debe tener una experiencia equivalente a completar el primer y segundo curso en esta especialización, & quotFundamentos de GIS & quot y & quot; Formatos de datos, diseño y calidad de GIS & quot, antes de tomar este curso. Al completar esta tercera clase en la especialización, obtendrá las habilidades necesarias para tener éxito en el programa completo.

          Рецензии

          Información útil sobre análisis espacial, rásteres, sistemas de coordenadas. N nY una visita guiada para abordar un proyecto personal. N nLas lecciones están bien estructuradas y el profesor es fácil de seguir.

          Disfruté de esta parte la mayor parte de los tres cursos de la especialización GIS en los que obtuve certificados. Gracias al Dr. Nick Santos por su enseñanza interactiva, asignaciones y proyectos.

          En este tercer módulo, vamos a empezar hablando de proyecciones. Si se ha llevado la especialización con nosotros, puede recordar que hablamos de esto en el primer curso, pero esta será una descripción general más detallada y técnica de las proyecciones y los sistemas de coordenadas. En la segunda mitad del módulo, aprenderemos sobre las variables de entorno. Al final de este módulo, podrá describir los sistemas de coordenadas, los sistemas de coordenadas proyectadas, comparar los pros y los contras de diferentes proyecciones y definir qué son las variables de entorno y para qué se utilizan. También tendrá la oportunidad de comenzar a analizar sus datos en el proyecto del curso.

          Преподаватели

          Nick Santos

          Текст видео

          [MÚSICA] Hola de nuevo y bienvenido. En esta conferencia, le mostraré tres nuevas configuraciones de entorno: el tamaño de celda, la máscara y la configuración del entorno Snap Raster que funcionan con datos ráster. En mi experiencia, van bien juntos y son comúnmente necesarios para diferentes tipos de análisis ráster. Primero, notará que finalmente estamos usando algunos datos nuevos aquí en comparación con las últimas tres conferencias. Estamos usando el mismo modelo de elevación digital que estábamos usando. Pero en lugar de usar algunos datos de características con él, ahora tenemos un ráster en el fondo aquí, que es otro ráster de cobertura terrestre histórica para 1966. Y la razón por la que lo uso es porque tiene un tamaño de celda de doscientos cincuenta metros donde nuestro modelo de elevación digital tiene un tamaño de celda de treinta metros. Probablemente debería poder ver eso en su video aquí, donde se ve muy suave y aquí podemos ver los bordes de esta lista aquí. Si tuviera que hacer zoom a la resolución de la lista donde un píxel en la lista era un píxel en mi pantalla. Nos acercamos mucho aquí. Pero luego, si hago zoom a esta resolución de ráster & # x27s, me acerco mucho donde puedo & # x27t ni siquiera ver el otro ráster, por lo que los tamaños de celda son muy diferentes aquí. Me alejaré de esta capa. Ahora imagine un problema en el que quiero trabajar con el ráster de cobertura terrestre y el ráster del modelo de elevación digital dentro de la calculadora. Y este modelo de elevación digital ya ha sido recortado de manera efectiva, se ha extraído a un área de interés que es circular aquí de manera efectiva. Y realmente solo quiero analizar datos dentro de esa área en contraposición a toda el área aquí en este inversor de cobertura terrestre regional. Entonces, si vuelvo a acercarme a la capa, necesito encontrar una manera de hacer que esta lista de núcleos terrestres y este modelo de elevación digital se adapten y, en realidad, esta es el área en la que estoy interesado. Así que no solo necesito que lo hagan se ajustan, pero también los necesito para analizar el área dentro de este modelo de elevación digital. Entonces, la pregunta que tengo es dónde está cualquier área de espacio abierto, esta área verde que tiene un valor de ocho en la lista de cobertura terrestre que está dentro del área del modelo de elevación digital aquí. Bueno, puedo hacer eso, con un simple Extracto por atributos aquí. Y si voy a Input Roster, puedo seleccionar Blank Cover Roster y puedo decir Donde el valor de la Cláusula es igual a ocho. Y eso sacará todo el valor de ocho celdas dentro del ráster a un nuevo ráster y dejará todo lo demás como nulo. Pero si quiero que esté dentro de esta área del nivel de elevación, tendré que ir a la configuración del entorno. Voy a establecer dos configuraciones particulares en este momento. Primero, en el análisis de ráster, estableceré la máscara en el modelo de elevación digital de Leavenworth. Una máscara puede ser familiar para algunos de ustedes de otras disciplinas de procesamiento de imágenes, pero no para muchos de ustedes. Máscara le permite decir en cualquier lugar de los píxeles de esta capa de máscara, devuélvame píxeles en la capa de análisis. En cualquier lugar que no sea una imagen o que haya valores nulos, no quiero que se procesen esos datos. No me devuelvas eso, excepto por esos valores nulos. Y puede proporcionar una máscara de ráster o una máscara de polígono que se convertirá en ráster, y si los polígonos no están & # x27t completamente conectados si tiene un espacio abierto entre ellos, & # x27ll todavía le dará los píxeles que están en la superposición de el polígono. Al mismo tiempo, también voy a establecer la extensión de procesamiento nuevamente al mismo que el modelo de elevación digital porque, de lo contrario, incluso con la máscara, completará el resto del área con valores nulos. Todo el camino hasta la extensión original de las listas de cobertura terrestre. Entonces, & # x27s toma tiempo, toma espacio en el disco, simplemente no quiero hacerlo. Así que también voy a establecer la extensión del procesamiento. Y luego, solo para mostrarle otra configuración de entorno al mismo tiempo, voy a establecer el tamaño de celda para el análisis de la lista. Normalmente, es inteligente y dice entradas máximas, lo que me da el cálculo menos preciso que pueda. En realidad, es más preciso. Pero es la menor cantidad de celdas ráster. Le brinda el ráster más grueso que & # x27s involucra en un análisis como el tamaño de celda. Porque ese es realmente el factor limitante de sus análisis. Realmente puede & # x27t ser más preciso que ese ráster. Incluso si sus otros datos & # x27 están en una resolución más alta. Por lo tanto, generalmente elige el tamaño de celda más grande. Las entradas máximas. Pero en este caso, queremos volver a muestrear la lista al mismo tiempo, por lo que vamos a establecer el mismo nivel de elevación que Leavenworth y luego haga clic en Aceptar. Ahora, quiero confirmar primero que respeta estas configuraciones de entorno. Así que voy a ir a la ayuda de la herramienta y respeta el tamaño de la celda. Honra la extensión y honra la máscara. Entonces, debería estar bien para usar todas estas configuraciones de entorno en este cálculo aquí. Y llamaré a este espacio abierto en el área de Leavenworth y presionaré OK para ejecutarlo. Se va a ejecutar, como de costumbre, y me devuelve esos valores como un nuevo ráster y si lo dejo solo activado, puedo ver que 1 solo me devolvió los datos y el contorno de ese ráster dos. Está en el nuevo tamaño de celda, puedo verlo desde aquí. A pesar de que todavía es grueso, porque la lista de cobertura del suelo es grueso. Desde aquí puedo ver que tiene ese tamaño de celda, que en realidad era de diez metros, no de treinta, porque tiene ese borde realmente suave. Pero cuando me acerco, puedo ver que tiene los pequeños trozos de la lista aquí, en cambio, el tamaño de 250 metros es una especie de remanente del original y todavía está sacando un montón de celdas allí. Pero puedo ver que hay muchas celdas con el inspector de píxeles. Entonces, esa configuración del entorno salió como la máscara. Y como el tamaño de la celda. Pero, todavía podría tener un pequeño problema. Si quisiera llevar esto a la calculadora ráster, mis celdas no se alinean. Tengo estos bordes extraños aquí. Con el inspector de píxeles puedo ver eso. I & # x27m superponiendo parcialmente un montón de otras celdas. Y si quisiera llevarlos a la calculadora de lista para un análisis más detallado junto con el modelo de ovación digital. Tal vez quería subconjuntar el espacio abierto que está por encima o por debajo de cierta elevación para el análisis de un hábitat específico o algo así. O para encontrar la ubicación de un parque que me gustaría construir. Dado que estas celdas no se alinean, nuestro análisis es mucho más impreciso. Entonces, lo que quiero hacer es también establecer un ráster de ajuste. Y puedes pensar en una especie de ráster instantáneo visceral. La forma en que está hablando. Como un chasquido. Como si la esquina de estas celdas terminara por romperse. Para que se unan a la esquina de las otras celdas ráster y realineen completamente el ráster como salida. Así que dejemos que & # x27s vuelva a ejecutar esa herramienta. Iré a los resultados y lo ejecutaremos como estaba. Y le cambiaré el nombre porque ya tiene la salida, y simplemente agregaré snap al final. Y luego, en entornos, nuestra extensión de procesamiento & # x27s ya está configurada porque hicimos eso antes y bajo el análisis de ráster, tenemos nuestra máscara de tamaño propio. También en la extensión de procesamiento, tenemos el ráster de ajuste. Y podemos especificar cualquier ráster para alinear las esquinas de nuestras celdas. Haga clic aquí, Leavenworth Digital Elevation Model UTM. Y no tengo que usar el ráster de ajuste en algo donde realmente voy a alinear los tamaños de las celdas. Pero en general es bueno. Si hiciera un ráster de ajuste en el que no alineara los tamaños de celda, de hecho, alinearía la esquina inferior izquierda del ráster con la misma esquina del ráster de entrada. Y luego, el uso de su tamaño de celda se acumularía a partir de ahí. Por lo tanto, puede obtener algo de alineación si lo desea, pero la mejor manera de hacerlo es hacer que el tamaño de la celda sea el mismo y un ráster de ajuste. Y de esa manera obtienes celdas completamente superpuestas. Y debido a que estamos cambiando el tamaño de la celda y la ubicación real de las celdas con el ráster de ajuste, vamos a obtener un nuevo muestreo aquí. Por lo tanto, es importante saberlo. Y dejemos que & # x27s ejecute esto una vez más. Haga clic en Aceptar. Y está bien para correr. Alejar el zoom Y obtenemos otro aquí y dejamos que & # x27s acerquen y echen un vistazo de nuevo. De acuerdo, todavía tenemos un problema. Todavía no lo he hecho bien, ¿verdad? La lista rápida no era lo único que necesitaba. Y de hecho, aunque esta capa se superpone a la otra parte, es posible que se haya ajustado correctamente. Pero todavía no se alinea correctamente con las celdas, debido a otro factor. Y esto realmente me tomó un momento darme cuenta. Vea si puede averiguar qué podría estar pasando. De acuerdo, lo que sé sobre lo que no sabes es que este conjunto de datos y este conjunto de datos son sistemas de coordenadas diferentes. Y lo que eso significa es que incluso si la esquina inferior izquierda se rompe, no significa necesariamente que las celdas se alineen desde allí o que se superpongan en ese punto. Las esquinas inferiores izquierdas están en el mismo lugar, pero como no están en el mismo sistema de coordenadas, las celdas convergen en la dirección. Así que voy a ejecutar esto de nuevo y puedo establecer la configuración de mi entorno. Así que tengo una extensión de procesamiento, [INAUDIBLE] a continuación. Tengo mi ráster de instantánea configurado en el modelo de elevación digital. Y luego voy a configurar mi sistema de coordenadas de salida en el modelo de elevación digital. Elimina estos extras que se acumularon mientras probaba alternativas. Y luego me aseguraré de que mi análisis de ráster aún esté configurado. Bien, ahora con el ráster de ajuste y el sistema de coordenadas de salida configurados de manera que se establezcan en el mismo nivel que la capa con la que finalmente quiero alinearme, así como la extensión de procesamiento, no es necesario, pero nuevamente lo acelera. Y luego mi tamaño de celda y mi máscara, debería obtener lo que quería aquí. Y lo llamaré chasqueado, y UTM. Haga clic en Aceptar para ejecutarlo. Y ahí vamos. Se superpone con las celdas del modelo de elevación digital como debería. Y si quiero, dejemos que & # x27s simplemente deslice el dedo, de hecho. Iba a hacerlo semitransparente, pero haremos un rápido deslizamiento de esto, tomaremos esa capa y usaremos la herramienta Deslizar. Y podemos ver que las celdas se alinean perfectamente en los bordes allí. Así que eso es todo para esta conferencia. En esta conferencia, creo que todos aprendimos algo, y cubrimos la configuración del entorno de tamaño de celda donde reducirá o aumentará el tamaño de celda del ráster para usted. Mientras está haciendo otro análisis. Observamos la máscara de análisis, que básicamente extrae datos y solo analiza un área en función de un conjunto de datos enmascarado que usted proporciona. And we looked at the snap raster environment setting, which aligns cells in a raster based on the bottom left corner. But it doesn't perfectly align it as we all learned unless you set that output coordinate system to be the same as the snap raster that you've selected. That's it for our lesson on environment settings. There's plenty more about different environment options that you can look at but that's all we're going to cover in this course. So I encourage you to take a look at some of the others if you think they'll be relevant to your work. And now you should have a good, general understanding of environment settings. To take with you as you go look at those other options. Hasta la proxima.


          3 METHOD

          bRacatus uses binomial GLMs to estimate the accuracy () and biogeographical status () of biological records based on their geographical position relative to trusted reference regions, that is, all regions known to form part of the respective species' native or alien distribution. The theoretical foundation of these models is geographical distance decay of similarity (Tobler, 1970 ). Even without biological assumptions, the expectation is that species' records collected closer to their respective known native or alien ranges are more likely to be accurate and have the same biogeographical status. This is reflected in models considering the distance-decaying signals sent from all cells within reference regions to each grid cell in which a georeferenced record may be located. To estimate the default model parameters implemented in the associated bRacatus R package, we trained and validated the GLMs for predictive performance with a combination of real and simulated species occurrence information. In the following sections, we provide an overview of the data preparation for building these models, and a detailed account of the models' construction, evaluation and validation steps.

          3.1 Method development using empirical and simulated data

          We developed bRacatus with occurrence data for 400 species, representing amphibians, birds, terrestrial mammals and vascular plants with 100 species each. We selected the species based on the following three criteria to ensure broad generality and applicability for the models: (a) availability of species range maps for both native and alien ranges (the latter applied for 148 out of the 400 species known to occur outside their native ranges), (b) availability of ≥5 unique GBIF records per species and (c) the species' representation of 14 different terrestrial biomes (Olson et al., 2001 ), four continents and four range size classes (Table S2). All calculations were performed in R (R Core Team, 2019 ). We chose 0.5°-grid cell resolution (corresponding to

          25 x 25 km at the equator) as the minimal spatial grain for distinguishing accuracy and biogeographical status, both because we deemed native versus alien status distinctions over shorter distances biologically dubious for most taxa, and to enable fast computation times using the bRacatus R package even for large datasets.

          3.1.1 Georeferenced biological records

          We obtained species point-occurrence records from www.gbif.org (GBIF) (GBIF Occurrence Download, 2020 ). Afterwards, to avoid carrying spatial sampling bias into the models (Anderson, 2012 ), we thinned the points to a maximum of one record per 0.5°-grid cell (Figure 2a). Subsequently, we classified the points by accuracy for further model validation. Specifically, we classified a species' records falling within the terrestrial ecoregions (Olson et al., 2001 ) overlapping their respective ranges as ‘likely true’, and as ‘likely false’ when falling outside those limits (Figure 2b). In addition to these range-validated GBIF data, we simulated three categories of records (‘easy-to-detect false’ (EDF), ‘hard-to-detect false’ (HDF) and ‘pseudo-true’ (PT) occurrences), to compensate for remaining sampling bias while mimicking common data errors. To simulate likely locations of EDF and HDF records, we considered species-specific habitat suitability, considering species' expert-based habitat preferences and elevational limits (Figure 2c see Supporting Information 1 for details).

          In order to evaluate the performance of the biogeographical models, we classified the combined GBIF and simulated records according to their presumed biogeographical status, that is, those falling within their 1°-buffered native ranges as ‘likely native’, those within their 1°-buffered alien ranges as ‘likely alien’ and those falling outside of both buffers as ‘unknown status’ (Figure 2d).

          The selection and simulation of point-occurrence records resulted in 377,796 unique point occurrences for all species combined (Supporting Information 1, Table S2). Note that the records' binary classifications of both accuracy and biogeographical status according to the above protocol had the sole aim of assessing model performance, and are independent of the general bRacatus method.

          3.1.2 Reference regions

          The definition of species reference regions may be based on expert-drawn range maps or on regional checklists. We derived the reference regions used for training and validating our models from range map data for birds (BirdLife International, 2019 ), amphibians, terrestrial mammals and vascular plants (IUCN, 2019 ). Since range maps are not available for most taxonomic groups, less precise and potentially more incomplete regional checklists are often the only option for reference regions. Therefore, we additionally validated our models with such checklist-based reference regions. To control the checklist regions' degrees of imprecision and incompleteness, we simulated regional checklists of different realistic levels of geographical precision and completeness, by overlaying the range maps with checklist-region boundaries stored in the GIFT database (a comprehensive resource of regional vascular plant species distributions based on checklists and floras Weigelt et al., 2020 see Section 3.2.2).

          We estimated the model parameters from records' positions relative to all available reference regions, with each region sending an independent distance-decaying signal to all records. The bRacatus method accommodates for the large heterogeneity in sizes and shapes of reference regions and the spatial grain (resolution) at which species occupancy can be reliably inferred from these data types, by distributing this signal over the region's entire area.

          Specifically, range maps only delimit the outer range boundaries within which species are expected to be present (Jetz et al., 2012 ), but do not indicate which precise areas are occupied. However, it has been shown that they can estimate species occupancies at coarse grains of circa 2° (Hurlbert & Jetz, 2007 ). Hence, each 2°-grid cell overlaying a range map is considered an independent reference region that sends its own signal (Figure 2e). Unlike in expert-based range maps, the sizes and shapes of the politically defined sampling units of regional checklists are not indicative of the extents of occurrence of the listed species, but merely confirm that those species were recorded at least once somewhere within those regions. Without further information, a priori confidence that a species was recorded in any particular subregion within those regional boundaries (or, in the case of range maps, within a 2°-grid cell) is thus inversely proportional to the share of the larger region represented by the subregion.

          bRacatus represents location uncertainty for three categories: presence (), nativeness () and alienness (). To do this, it calculates an area weighting of confidence for each uncertainty category by rasterising reference regions to 0.5°-resolution and assigning each raster cell overlapping the region a value calculated by (1) where is the a priori confidence that the species in category has been detected in each cell and is the number of cells covering the region of that category (Figure 2f).

          All reference regions used for model training during our testing and default parametrisation of bRacatus were 2°-grid cells artificially derived from range maps (Figure 2e), having exactly the same number of cells and no overlap. For each species, we generated three raster layers from the checklists, carrying the information on presence, nativeness and alienness. Due to this area weighting of confidence, the bRacatus framework can probabilistically validate fine-scale biological records without needing to assume that reference regions can indicate species occupancy at fine scales. It does assume, however, that the broad-scale evidence on species' native or alien presences provided by range maps and checklists is credible (for tests of the method's sensitivity to violating this assumption, see Supporting Information 3).

          3.1.3 Signals sent from reference regions to points

          Each record receives distance-decaying signals from three raster layers, presence, nativeness and alienness respectively (Figure 2g). To calculate the strength of the signals reaching each record, bRacatus first uses pre-computed pairwise geographical distances between all 0.5°-cells globally (). It then normalises to obtain a proximity index () between all pairs of cells as (2) donde is the maximum value of all . While developing bRacatus , we identified the distance-decay function that would lead to the best predictive power by comparing 13 alternative exponential decays given by (3) donde represents the decayed proximity indices and ranges from 0 to 12. bRacatus calculates the index for all species by computing the signals sent from all cells within every independent reference region to each individual record according to the formula (4) donde is the value assigned to a record that will further be used in the model, is the a priori confidence of each cell within the species range, is the distance-decayed proximity index between the cell under consideration and the cell sending the signal and is the maximum value obtained in the signal calculation. The denominator ranges from 0 to 1, making these values comparable among species. The rationale behind this transformation is that the individual record receiving the highest signal has the highest probability of being accurate, or the highest probability of representing the correct biogeographical status among all the species' records. During bRacatus development, we repeated this process for the aforementioned 12 exponential decay functions and a linear decay function (), thus producing 13 alternative versions per records of each index: , y .

          3.2 Model construction, evaluation and validation steps

          We developed our models based on binomial GLMs for both the accuracy and the biogeographical status analyses (Supporting Information 2). Accuracy models use the index as the only predictor. Biogeographical status models use both y indices as predictors, with species having only native range reference regions receiving an score of 0 for all points. The model output is continuous probabilities, ranging from ‘most-likely false’ (0) to ‘most-likely true’ (1) for the accuracy analysis and from ‘most-likely alien’ (0) to ‘most-likely native’ (1) for the biogeographical status analysis (Figure 1b).

          We conducted in-sample and out-of-sample predictive tests to verify the models' performance and ensure their broad applicability, testing for potential biases in model performance towards certain taxa, range sizes or continents, and whether our models can be extrapolated to other taxa, range size bins and continents than those that were used for model training (Supporting Information 2). The model selection relied on two metrics—the area under the receiver operating characteristic curve (AUC) and the root mean squared error (RMSE Figure 2h). The AUC ranges from 0 to 1 and informs about the model's ability to separate classes in a prediction (Swets, 1988 ). For the biogeographical status analyses, we applied a variation of AUC calculation, the multiclass receiver operating characteristic (ROC), which allows analysing multiclass data (Wandishin & Mullen, 2009 ). The RMSE indicates how close the predictions are to the actual values (Chai & Draxler, 2014 ). High AUC and low RMSE values indicate better performing models. To evaluate the models considering both the metrics simultaneously, we calculated the Euclidean distance from the AUC and RMSE obtained in each model to the ideal values (1 and 0 respectively) of these metrics (Draisma et al., 2014 ).

          3.2.1 Model selection

          Initially, we tested 260,000 models (see Supporting Information 2 for details) to identify the best-performing distance-decay function, not considering other parameters. Subsequently, we combined three variations of the signal calculations (), four link functions and two other covariates (average distance to other occurrence points and background sampling effort), resulting in 460,000 different models. We trained and tested all models with all combinations among the aforementioned variables. We deliberately avoided variables based on biological grounded relationships, such as environmental distances, to ensure greatest-possible applicability in downstream analyses without risks of circularities (see Supporting Information 2 for further details).

          The three variations of aimed to ensure that records within reference regions' boundaries are assessed with higher values than those in neighbouring areas. Thus, we performed an analysis on how the models would perform with stronger signals sent from the very cell where a point is located, computing two extra versions of the indices by multiplying the signal sent from the cell where each point is located by 10 (sig10) and by 100 (sig100). For the accuracy analysis, only points assessed as ‘likely true’ underwent signal variation, as the HDF points seeded within the range would magnify the noise they represent. We trained all models with different link functions: logit, probit, cauchit and cloglog. The following equations depict the models using a cauchit link function, which generally performed best: (5 – accuracy)

          (6 – biogeographical status)

          For each record , donde is the number of records is estimated accuracy of each record is the intercept of Equation 5 is the slope associated with the covariate , which represents the presence index of each record is estimated biogeographical status of each record is the intercept of Equation 6 is the slope associated with the covariate , which represents the nativeness index of each record and is the slope associated with the covariate , which represents the alienness index of each point.

          We further included two other covariates in the models: (a) average distance to the closest five occurrence points, to account for the extent to which records are geographical outliers and (b) density of records in the same taxonomic order of the focus species, to represent background sampling intensity (Supporting Information 3).

          3.2.2 Sensitivity tests with reference regions based on regional checklists

          (7) where is the final a priori confidence in the cell and is the confidence of no occurrence informed by each checklist, I, represented in the cell (Figure 2f). We then applied the accuracy and the biogeographical models using the reference regions derived from the simulated checklists and calculated the evaluation metrics (Figure 2h). Checklist data are not necessarily complete and differ in geographical precision. Thus, we ran additional sensitivity tests to evaluate the models' performance under different levels of checklist data incompleteness and different region sizes (Supporting Information 3).

          4.4 Brownian Bridge Movement Models (BBMM)

          The BBMM requires (1) sequential location data, (2) estimated error associated with location data, and (3) grid-cell size assigned for the output utilization distribution. The BBMM is based on two assumptions: (1) location errors correspond to a bivariate normal distribution and (2) movement between successive locations is random conditional on the starting and ending location (Horne et al. 2007). Normally distributed errors are common for GPS data and 1 h between locations likely ensured that movement between successive locations was random (Horne et al. 2007). The assumption of conditional random movement between paired locations, however, becomes less realistic as the time interval increases (Horne et al. 2007).

          1. Exercise 4.4 - Download and extract zip folder into your preferred location
          2. Establezca el directorio de trabajo en la carpeta extraída en R en Archivo - Cambiar dir.

          Primero necesitamos cargar los paquetes necesarios para el ejercicio.
          require(survival)
          biblioteca (maptools)
          require(sp)
          require(gpclib)
          require(foreign)
          require(lattice)
          require(BBMM)

          Now open the script "BBMMscript.R" and run code directly from the script
          panther<-read.csv("pantherjitter.csv",header=T)
          str(panther)
          panther$CatID <- as.factor(panther$CatID)#make CatID a factor

          First, we need to get Date and time into proper format for R because Time in
          DateTimeET2 is single digit for some hours
          panther$NewTime <- str_pad(panther$TIMEET2,4, pad= "0")
          panther$NewDate <- paste(panther$DateET2,panther$NewTime)
          #Used to sort data in code below for all deer
          panther$DT <- as.POSIXct(strptime(panther$NewDate, format='%Y %m %d %H%M'))
          #Sort Data
          panther <- panther[order(panther$CatID, panther$DT),]

          timediff <- diff(panther$DT)*60
          # remove first entry without any difference
          panther <- panther[-1,]
          panther$timelag <-as.numeric(abs(timediff))
          #Subset for only one panther
          cat143<-subset(panther, panther$CatID == "143")
          cat143 <- cat143[-1,] #Remove first record with wrong timelag
          cat143$CatID <- factor(cat143$CatID)

          Figure 4.2: Example of 95% BBMM home range for a Florida Panther.

          BBMM = brownian.bridge(x=cat143$X, y=cat143$Y, time.lag=cat143$timelag,
          location.error=34, cell.size=100)
          bbmm.summary(BBMM)
          #Plot results for all contours
          contours = bbmm.contour(BBMM, levels=c(seq(50, 90, by=10), 95, 99),
          locations=cat143, plot=TRUE)
          # Print result
          print(contours)
          NOTA:
          (a) Time lag refers to the elapsed time between consecutive GPS locations
          that was presented in section 2.3
          (b) GPS collar error can be from error reported by the manufacturer of the GPS
          collar or from error test conducted at the study site
          (c) Cell size refers to grid size we want to estimate the BBMM

          Figure 4.3: Example of 95% KDE home range with hplug-in for a Florida Panther.

          Figure 4.4: Example of 95% KDE home range with href for a Florida Panther.

          bbmm.95 = bbmm.95[bbmm.95$probability <= contours$Z[4],]

          bbmm.contour = data.frame(x = BBMM$x, y = BBMM$y, probability = BBMM$probability)
          # Pick a contour for export as Ascii

          bbmm.50 = data.frame(x = BBMM$x, y = BBMM$y, probability =
          BBMM$probability)
          bbmm.50 = bbmm.50[bbmm.50$probability >= contours$Z[1],]
          # Output ascii file for cells within specified contour.
          m = SpatialPixelsDataFrame(points = bbmm.50[c("x", "y")], data=bbmm.50)
          m = as(m, "SpatialGridDataFrame")
          writeAsciiGrid(m, "50ContourInOut.asc", attr=ncol(bbmm.50))
          # Print result for 80 percent BBMM
          print(contours)
          # Pick a contour for export as Ascii
          bbmm.80 = data.frame(x = BBMM$x, y = BBMM$y, probability =
          BBMM$probability)
          bbmm.80 = bbmm.80[bbmm.80$probability >= contours$Z[4],]
          # Output ascii file for cells within specified contour.
          m = SpatialPixelsDataFrame(points = bbmm.80[c("x", "y")], data=bbmm.80)
          m = as(m, "SpatialGridDataFrame")
          writeAsciiGrid(m, "80ContourInOut.asc", attr=ncol(bbmm.80))
          # Print result for 95 percent BBMM
          print(contours)
          # Pick a contour for export as Ascii
          bbmm.95 = data.frame(x = BBMM$x, y = BBMM$y, probability =
          BBMM$probability)
          bbmm.95 = bbmm.95[bbmm.95$probability >= contours$Z[4],]
          # Output ascii file for cells within specified contour.
          m = SpatialPixelsDataFrame(points = bbmm.95[c("x", "y")], data=bbmm.95)
          m = as(m, "SpatialGridDataFrame")
          writeAsciiGrid(m, "95ContourInOut.asc", attr=ncol(bbmm.95))
          # Print result for 99 percent BBMM
          print(contours)
          87
          # Pick a contour for export as Ascii
          bbmm.99 = data.frame(x = BBMM$x, y = BBMM$y, probability =
          BBMM$probability)
          bbmm.99 = bbmm.99[bbmm.99$probability >= contours$Z[7],]
          # Output ascii file for cells within specified contour.
          m = SpatialPixelsDataFrame(points = bbmm.99[c("x", "y")], data=bbmm.99)
          m = as(m, "SpatialGridDataFrame")
          writeAsciiGrid(m, "99ContourInOut.asc", attr=ncol(bbmm.99))

          Figure 4.5: This figure shows how to summarize size of home range in ArcMap.

          Now we can create shapefiles of contours from ascii files in ArcMap
          (a) Convert ASCII files to Rasters using Conversion Toolbox
          Toolbox>Conversion Tools>To Raster>ASCII to Raster
          Input ASCII raster file: 50ContourInOut.asc
          Output raster: AsciiToRast
          Output data type (optional): INTEGER
          (b) Convert No Data values to value of 1 and those that are not to value of 0 by:
          Toolbox>Spatial Analyst Tools>Math>Logical>Is Null
          Input raster: tv53_99contr
          Output raster: IsNull_bv53_3
          (c) Convert raster probability surface to a shapefile by opening shapefile table.
          Highlight all raster cells with a value=1 then open appropriate Toolbox as follows:
          Toolbox>Conversion Tools>From Raster>Raster to Polygon
          Input raster: IsNull_bv53_3
          Field (Optional): Value
          Output Polygon Features: RasterT_IsNull_2.shp
          Uncheck the "Simplify polygons (optional)" box for proper results. Select OK.
          Tool will convert all cells with value=1 to a shapefile with multiple polygons.
          (d) Calculate area of new shapefile using appropriate tool (i.e., Xtools) Open table to view area of polygon and summarize to get total size of home range (Fig. 4.5)
          Right click on column heading "Hectares"
          Select Statistics and Sum will be the total hectares in the home range

          #First an alternate way to create the ascii files after creating "contours" #from Step 5 above.

          # Create data.frame indicating cells within the contour desired and export as Ascii Grid
          bbmm.contour = data.frame(x = BBMM$x, y = BBMM$y, probability = BBMM$probability)

          str(contours) #Look at contour or isopleth levels 1 to 7 (50%-99%)
          #$List of 2
          #$ Contour: chr [1:7] "50%" "60%" "70%" "80%" .
          #$ Z : num [1:7] 7.35e-05 5.66e-05 4.22e-05 2.81e-05 1.44e-05 .


          Familia

          Free format text: CORRECTIVE ASSIGNMENT TO CORRECT THE CORRECT ASSIGNEE NAME PREVIOUSLY RECORDED AT REEL: 044090 FRAME: 0317. ASSIGNOR(S) HEREBY CONFIRMS THE ASSIGNMENTASSIGNOR:PETERSON, PERRYREEL/FRAME:052890/0555

          Effective date: 20090901

          Free format text: PAYMENT OF MAINTENANCE FEE, 8TH YR, SMALL ENTITY (ORIGINAL EVENT CODE: M2552) ENTITY STATUS OF PATENT OWNER: SMALL ENTITY


          Resultados

          Case study area

          In this paper, Dhaka in Bangladesh was adopted as the case study for the following reasons: (1) good availability of detailed parcel information and hydraulic modelling results (2) large areas and number of buildings to push the boundaries of modelling capacity of the tools (3) dense building distribution to demonstrate the issues of analysing and masking cell sizes (4) rapid urban expanding in the past and in the foreseeable future that highlights the needs of urban growth modelling for planning and (5) potential for other types (e.g. health impact) of impact assessment.

          The Greater Dhaka area includes areas beyond the central Dhaka City Corporation. It is bounded by the Balu River in the east, the Tongi Khal in the north, the Turag-Buriganga Rivers in the west and the Dhaka-Demra-Chittagong Road embankment in the south. The average population density in central Dhaka city is 48,000 inhabitants per km 2 . With rapid urbanisation and the development of city infrastructure, combined with the reduction in water storage and percolation areas, flooding and waterlogging from local rainfall have become a serious problem. Gain and Hoque (2013) recently combined 1D hydraulic modelling results and depth-vulnerability functions to evaluate the flood risk of Eastern Dhaka Area that considered the fluvial flooding scenario only. In the paper, we adopted 2D hydraulic model approach and included the Western Dhaka Area that is also affected by pluvial flooding.

          The drainage in Dhaka depends on the operation of a storm-water drainage system (including pumps and regulators) and the water levels in peripheral rivers (IWM 2008). Thus, flooding in Dhaka may occur due to: congestion of storm-water/wastewater drainage systems inside the city area the high water level in the peripheral rivers under which circumstance drainage is only possible through pumping and the intrusion of floodwater from the peripheral rivers to city area through the drainage routes.

          Flood modelling

          The DHI MIKE Urban model was applied to simulate the urban flooding. The drainage network for Central Dhaka contains a network of underground pipes and some open channels. In this network, there are 9.7 km of box culverts, 40 km of open channels and 134 km of pipes. The city drainage system was schematised from secondary data collection and stakeholder consultation. Accurate records of the drainage infrastructure were difficult to find, so information from different sources was used to cross-verify the model.

          Within MIKE Urban, the 2D overland flow is simulated by MIKE 21 using a 25-m resolution regular grid, and terrain models were built for both Eastern and Central Dhaka. MOUSE and MIKE FLOOD models were used to simulate the storm sewer and the river channel flows, respectively. Both models were coupled with MIKE21 to reflect the flow interactions between the ground surface, the drainage networks and the rivers.

          Datos de uso de la tierra

          The Institute of Water Modelling (IWM), Bangladesh, has collected Detailed Area Plan (DAP) of 2006 that included 1.14 million building parcel information of in Dhaka from the City Development Authority which is (RAJUK). IWM further reviewed and updated for new development or any change in parcel information within the study area. Figure 5 shows the current, i.e. the baseline year 2010, building layouts and uses in a local region. Most buildings are used as residential properties, followed by manufacturing and processing activities, mixed use and commercial activities. The IWM investigated different sectors in Dhaka and established the damage functions for six main building use types in Dhaka: commercial activity, education and research, governmental services, mixed use, manufacturing and processing, and residential.

          The building layouts and land use types in a local region in Dhaka for the baseline year

          Depth-damage functions

          The damage functions were developed by Haque et al. (2014) from a survey of 430 properties. Survey was conducted using a systematic stratified random sampling method based on the land elevation (flood depth) and structure of the building/premise. Questionnaires were designed for different types of properties to include all types of damage items with their coping mechanisms against waterlogging situations. All flood damage categories have been covered that could be reasonably expected to occur. The curve for commercial entities ranged from 4.56 BDT (currency of Bangladesh) per square foot for 5 in. depth of flooding to 33.28 BDT per square foot for 30 in. depth of flooding. The residential asset damage starts at 4 in. depth without considering flood duration. Up to 4 in. of flood depth, there is no damage. With the increase in flood depth at 40 in., damage becomes 28 BDT per square feet. The values were converted into SI system for damage assessment in the paper. Due to lack of historic data on actual damage after a flood event, it was not possible to carry out any validation. More details regarding the depth-damage functions adopted in the paper can be found in Haque et al. (2014).

          Urban growth

          To evaluate the impact of urban growth on flooding, a UGM was developed based on a 2D cellular automata in which cells expressing specific land use characteristics that change state depend on internal growth characteristics and external pressures. LULC classification is based on 30 m cell Landsat 5 TM data, using a maximum-likelihood multi-temporal land cover classification (Bruzzone and Serpico 1997) after which manual corrections were applied (Veerbeek et al. 2015). Similar approach was also adopted by Corner et al. (2014) for the urban sprawl analysis (Dewan and Corner 2014) in Dhaka. The internal growth characteristics are derived using a supervised learning algorithm, which is trained on historic growth data. This means that the generic growth model is adapted to fit the local characteristics of a case study area. Furthermore, spatial constraints and external pressures (e.g. land demand) expressed within scenarios and measures create a probability distribution of future urbanisation which is fulfilled in a probabilistic fashion. The UGM output is primarily a land use distribution for some future point in time. These are translated into possible land cover characteristics, which provide spatial and physical characteristics, required for the flood modelling and impact assessment. It should be noted that the output can include multiple instances in time for a given scenario and response portfolio the model expresses the urban dynamics over a range of years.

          Figure 6 shows the LULC in the area shown in Fig. 4 for the baseline year 2010, predicted by the UGM using historical data. The higher class number (darker colour) represents denser urban development. Compared to the building data shown in Fig. 5, the north-eastern part of the region has a sparser building distribution such that the LULC in Fig. 6 are lower in the area. The detailed relationship between building use and land cover was analysed further. Table 2 shows the building components of each land use cover. The total built-up area of these six main categories for the land cover varies from 3.1 (class 1) to 56.4 % (class 10). These area ratios of building components were used as the weighting factor to combine DDCs for different building uses and to generate new DDCs for each land cover class.

          LULC for area shown in Fig. 5 for the baseline year generated by UGM using historical data

          Flood damage assessment

          Assessment for current baseline and sensitivity analysis

          The main parameters in the tool for raster-based analysis are (1) the cell size used to calculate the damage value of each cell, and (2) the cell size used to clip out the non-building area from a coarse analysing cell. We adopted five combinations, as shown in Table 3, of these two parameters for the sensitivity and performance analysis. Table 3 also lists the damage assessment results of these five cases for a 100-year flood event. The inputs (rainfall and water levels in the rivers) for flood modelling of the event were determined based on statistical analysis, which adopted 50 years historical records in the surrounding catchments of Dhaka City. The current exchange rate for the Bangladeshi Taka (BDT) is €1 ≑ 104 BDT as of 5 August 2014.

          No real data are available for model verification, and so we assumed Case 1, which had the finest resolution of cell sizes, would provide the best estimation and the results are used as benchmark for other cases.

          The dataset includes information on 1.14 million buildings in Dhaka City, although only 250 thousand were within the hydraulic modelling domain. The video in the electronic supplementary material, as well as on Youtube at https://www.youtube.com/watch?v=skAk3giQGrE, illustrates the hydraulic modelling and the damage assessment results for Dhaka City. Table 3 shows that the number of buildings estimated to show flood damage using a 5-m masking cell size was about 11,000 less than when using a 1-m masking cell size. The reason was that only a single building index can be applied to each cell, when the cell contains more than one building (e.g. the three cells in right column of Fig. 3 that each contains two buildings). In the coarser cell representation, the buildings that occupied less area within a cell were filtered out and the total flood damage was smaller than when using fine masking cell size.

          The mean and bias show that the coarse analysis and masking cell sizes produced lower damage estimations. It was due to some buildings being filtered out for the damage calculation such that those buildings had shown no damage and resulted in a lower mean damage. For Case 4 and 5, the MAEs are 19 and 21 % and the RMSEs are 39 and 50 % of mean damage for Case 1, respectively. But the bias is only −6 %, which shows that some of the positive and negative errors were cancelled out when calculating the total damage and Mean. The RMSEs are relatively large, compared to the mean, which indicate that large errors exist when using coarse analysis cells.

          Table 4 lists the statistical information for the cases, using the key residual criteria including mean, bias, mean absolute error (MAE) and root-mean-square error (RMSE). Although 250 thousand buildings were located inside the modelling domain, only about a quarter of them had flood damage for 100-year event. The statistic only considered those with flood damage. However, the number of buildings differed in the five cases. To make a fair comparison, we took the number of the union of buildings with flood damage, i.e. 67,458, as the common base for the comparisons of all cases. The mean is the average flood damage of the 67,458 buildings for each case. The bias, MAE and RMSE were calculated according to the damage differences of individual buildings between each case and Case 1.

          The mean and bias show that the coarse analysis and masking cell sizes produced lower damage estimations. It was due to some buildings being filtered out for the damage calculation such that those buildings had shown no damage and resulted in a lower mean damage. For Cases 4 and 5, the MAEs are 19 and 21 % and the RMSEs are 39 and 50 % of mean damage for Case 1, respectively. But the bias is only −6 %, which shows that some of the positive and negative errors were cancelled out when calculating the total damage and mean. The RMSEs are relatively large, compared to the mean, which indicates that large errors exist when using coarse analysis cells.

          Figure 7 shows the distribution of errors for each case in different bands. Orders of magnitude of errors are used to classify the band of errors. O (norte) represents the error between 10 norte−1 and 10 norte , while −O(norte) for the error between −10 norte and −10 norte−1 , where n is a positive integer or 0. For norte = 0, O(0) represents the positive error band less than 1 and −O(0) is the negative error band greater than −1. The majority of Case 2 and Case 3, using 1 m masking cell size, have zero error while as Case 4 and Case 5 have most errors spreading between −O(3) to −O(1) and O(1) to O(3). Figure 8 shows the sum of errors in each error band. The outliers in the bands −O(5) to −O(4) and O(4) to O(5) contribute significant amount to the error for Cases 3, 4 and 5, which resulted in a large RMSE.


          Ver el vídeo: Extract Point Attributes from Multiple Raster Files in ArcGIS