Conceptos básicos a conocer en fotogrametría

    Conceptos básicos a conocer en fotogrametría

    Dentro de este artículo hablaremos de los conceptos básicos de la fotogrametría y las ideas clave que necesita saber para tener éxito.

    La fotogrametría es el proceso de usar imágenes para hacer mediciones. Imágenes capturadas por varios dispositivos como drones, aviones y cámaras de mano, por nombrar algunos ejemplos. Estas imágenes se utilizan para generar modelos 2D y 3D precisos y exactos. Son varias las industrias que pueden aprovechar estas reconstrucciones, desde la seguridad pública hasta las inspecciones industriales o la agricultura.

    La teoría y los conceptos detrás de la fotogrametría pueden parecer complicados al principio. Es por eso que hemos elaborado una lista de 10 conceptos esenciales que creemos que debe saber para usar la fotogrametría.


    1. Geometría

    La geometría es un conjunto de características que utilizamos para identificar el tamaño, la forma, la orientación y la posición de algo. Esta información recopilada puede reconstruirse y analizarse con un software de fotogrametría. ¿Cómo funciona el software? Una fotografía capta la "colinealidad". La colinealidad en un nivel básico significa que al menos tres puntos aparecen en la misma línea. La fotogrametría considera que la línea es un rayo. Entonces ese rayo o línea tiene tres puntos básicos: el objeto, el punto en el que se enfoca la cámara y la imagen de ese objeto en el sensor de la cámara.

    Ahora, con el software adecuado como lo es Pix4D, Agisoft Metashape incluso DJI Terra, se usarán los datos de la cámara y las propias fotografías para generar una reconstrucción geométricamente precisa del área del proyecto. 


    1. Radiometría

    Este es un método para medir cómo la luz interactúa con varios objetos, incluidas longitudes de onda de energía que son invisibles a simple vista. Cada vez que se mira un objeto, se ve la luz de ciertos colores reflejada. Hay más colores de los que se pueden ver: sólo distinguimos lo que nuestros ojos pueden detectar. Por ejemplo, cuando miras a las plantas, normalmente vas a ver un predominio del verde. La luz verde es reflejada por las plantas porque no la utilizan cuando absorben la energía del sol. La radiometría puede medir cómo las plantas reflejan su luz, la cantidad y los cambios en la luz que son invisibles a simple vista.

    La radiometría permite utilizar las imágenes multiespectrales de los drones para conocer la salud de los cultivos con la teledetección.

    Para usar la radiometría en la fotogrametría, puede usar ciertos sensores y cámaras (también llamados sensores multiespectrales) que recolectan luz infrarroja cercana. Estas cámaras analizan la luz de manera diferente a las cámaras estándar RGB (rojo-verde-azul). Los datos de estas cámaras dedicadas se pueden utilizar para la fotogrametría agrícola. Este es un mapa 2D de un cultivo o campo que analiza cómo las plantas reflejan la luz. Gracias a este método de uso de drones y sensores remotos, los productores pueden usar la fotogrametría para aprender más sobre sus cultivos.


    1. Triangulación

    Las fotos recopiladas para la fotogrametría son 2D, y para muchas salidas, como modelos de superficie digitales o nubes de puntos, necesitamos convertir estos datos para que se puedan utilizar en 3D. La triangulación es la técnica para crear medidas de puntos 3D. 

     La triangulación es la base de la fotogrametría, ya que se utilizan imágenes superpuestas para recrear una imagen o espacio más amplio.

    Nuestros ojos también utilizan la triangulación. La idea es que las imágenes tomadas desde diferentes lugares se puedan usar para crear un modelo 3D comparando las diferencias entre ellos. Cada foto representa una línea de visión diferente, y estas pueden compararse con otras fotos para encontrar intersecciones entre puntos. Como vimos con la colinealidad y la geometría, estos datos se pueden usar para medir distancias y al agregar la superposición entre varias fotos, la triangulación se puede usar para crear un modelo 3D.


    1. Parámetros Internos y Externos

    Para aprovechar esta tecnología, se necesitan herramientas de recopilación de datos fotogramétricos adecuadas, como drones o cámaras. Cada cámara tiene ciertas capacidades dentro de su diseño. Estas especificaciones afectan al funcionamiento de la cámara; por ejemplo, si tiene o no obturador. Los parámetros incluyen: 

    o Lente interna de la cámara.

    o Posición del centro de proyección de la cámara.

    o La matriz de rotación que define la orientación de la cámara.

    Algunos de estos parámetros son internos de la cámara (por ejemplo, la lente de la cámara) mientras que otros son externos, como la posición de la cámara al tomar una foto. Al procesar fotografías con software de fotogrametría, es importante definir estos parámetros para garantizar que se tengan en cuenta durante el procesamiento.


    1. Parámetros Iniciales y Calculados

    Para estar seguros de que podemos generar una reconstrucción precisa, necesitamos cierta información básica sobre el equipo utilizado para reconstruir la escena: la cámara (y el dron, si corresponde). Una cámara se puede definir mediante dos conjuntos de parámetros. La forma en que una cámara interpreta la luz es específica de la cámara y afecta el procesamiento de imágenes para la reconstrucción 3D. Los parámetros externos, por otro lado, definen la posición y orientación de la cámara en el momento en que se captura la foto.

    Después, el software optimiza estos parámetros o calcula un conjunto de parámetros que representan con mayor precisión la geometría, la posición y la orientación de la cámara. Los parámetros iniciales se cambian por los calculados. Estos cambios aseguran la precisión de un proyecto.


    1. RTK y PPK

    RTK (cinemática en tiempo real) y PPK (cinemática de post procesamiento) son métodos para medir y registrar datos de geolocalización. Ambas son tecnologías de corrección de GPS que recopilan datos de ubicación, identifican errores y corrigen durante o después de una investigación.

    Una herramienta de recopilación de datos como un dron o viDoc RTK Rover tiene un receptor RTK GNSS que recopila datos de satélites y se conecta a una estación base o red local para recopilar información de posición durante la captura de imágenes. Las posiciones de la cámara se calculan en tiempo real en relación con la estación base local. Los cálculos se utilizan para compensar si la posición de la cámara no se registra con precisión. Esto asegura una precisión de 2-3 cm horizontal y verticalmente.

    PPK funciona al completarse después de la recopilación de datos y se puede usar sin hardware habilitado para RTK. Al mismo tiempo, las unidades base (como las redes CORS y las estaciones base GNSS) también registran información de ubicación. Estos datos se utilizan para determinar puntos de geolocalización y referencias.

    Ambas técnicas tienen el objetivo común de garantizar la precisión del proyecto en centímetros (cuando se hace correctamente).


    1. Sistema de Coordenadas

    Una persona que utilice un software de procesamiento fotogramétrico deberá determinar qué sistema de coordenadas está utilizando antes de procesar sus datos.

    Los países utilizan diferentes sistemas de coordenadas, por lo que es necesario especificarlo antes del procesamiento.

    Los diferentes sistemas de coordenadas producirán resultados ligeramente diferentes después del procesamiento debido a las variaciones entre los sistemas. Por lo tanto, es importante saber qué sistema de coordenadas usar al recopilar datos, de modo que pueda especificarlo en el software durante el procesamiento y obtener un resultado que muestre su ubicación correctamente, en lugar de confundir el sitio del proyecto con algo completamente diferente.

    1. Puntos de Unión

    Es un punto de anclaje, un lugar donde la posición geográfica es absoluta. Hay varios nombres para los puntos de enlace (por ejemplo, puntos de control terrestre o puntos de control).

    Un Ground Control Point, o GCP, es un punto con coordenadas conocidas.

    Los puntos de control son como GCP, pero no georreferencian proyectos.

    Con GCP´s y puntos de control, un topógrafo puede estar seguro de que sus resultados de fotogrametría están geolocalizados correctamente y que las mediciones realizadas a partir de modelos 2D o 3D serán precisas.

    1. Distancia de Muestreo del Terreno.

    Un problema de precisión es la distancia de muestreo terrestre (GSD). Es una forma de relacionar la distancia en la pantalla con la distancia real.

    Cuanto mayor sea el valor GSD, menor será la resolución espacial de la imagen.

    Sin embargo, si está buscando elementos más detallados para investigaciones de accidentes o estudios en profundidad, es posible que necesite un GSD más pequeño para poder buscar en el modelo más a fondo.

    El GSD está determinado por la altura del vuelo y las especificaciones de la cámara (ancho de la imagen, ancho del sensor, distancia focal, etc.). Un GSD de 5 cm significa que un píxel de la imagen representa 5 cm de suelo en línea recta (es decir, representa 25 centímetros cuadrados). Un GSD de 30 cm significa que 1 píxel equivale a 900 centímetros cuadrados (o 30 x 30 cm).

    1. Medición Volumétrica

    Probablemente sea un concepto familiar, a diferencia de los otros que hemos enumerado. También puede ser uno de los más simples. El volumen se puede medir en función de la base de un objeto en comparación con su altura o profundidad.

    Comentar

    Tenga en cuenta, los comentarios deben ser aprobados antes de ser publicados.

    Este sitio está protegido por reCAPTCHA y se aplican la Política de privacidad de Google y los Términos del servicio.