Medición precisa para sensor de visión de luz de estructura lineal con amplio rango

Noticias

HogarHogar / Noticias / Medición precisa para sensor de visión de luz de estructura lineal con amplio rango

Dec 28, 2023

Medición precisa para sensor de visión de luz de estructura lineal con amplio rango

Scientific Reports volumen 13, Número de artículo: 7234 (2023) Citar este artículo 502 Accesos Detalles de métricas La alta precisión y el amplio rango de medición son el objetivo de cualquier escáner tridimensional.

Scientific Reports volumen 13, número de artículo: 7234 (2023) Citar este artículo

502 Accesos

Detalles de métricas

El objetivo de cualquier escáner tridimensional es una alta precisión y un amplio rango de medición. Para un sensor de visión luminosa de estructura lineal, la precisión de la medición depende de los resultados de su calibración, es decir, de la determinación de la expresión matemática del plano luminoso en el sistema de coordenadas de la cámara. Sin embargo, como los resultados de la calibración son soluciones localmente óptimas, resulta difícil realizar mediciones de alta precisión en un rango amplio. En este artículo, brindamos un método de medición preciso y el procedimiento de calibración correspondiente para un sensor de visión de luz de estructura lineal con un amplio rango de medición. Se utilizan etapas de traslación lineal motorizadas con un rango de recorrido de 150 mm y un objetivo plano que es una placa de superficie con una precisión de mecanizado de 0,05 mm. Con la ayuda de la etapa de traslación lineal y el objetivo plano, se obtienen funciones que dan la relación entre el punto central de la franja láser y la distancia perpendicular/horizontal. Una vez que se captura la imagen de la franja de luz, podemos obtener un resultado de medición preciso a partir de los puntos característicos normalizados. En comparación con un método de medición tradicional, la compensación de la distorsión no es necesaria y la precisión de la medición mejora significativamente. Los experimentos muestran que el error cuadrático medio de los resultados de medición según nuestro método propuesto se reduce en un 64,67% en comparación con el método tradicional.

Un sensor de visión luminosa de estructura lineal tridimensional (LSLVS) normalmente consta de un sensor de imagen y un proyector láser lineal. Se utiliza ampliamente en el área de medición industrial debido a su amplio rango de medición, alta precisión, fácil extracción de información, etc. Estos LSLVS se pueden clasificar en dos categorías según su construcción.

En la primera categoría, el sensor de imagen es una cámara normal con una lente normal1,2, es decir, el plano de la imagen es paralelo al plano de la lente. La relación entre el sensor de imagen y el proyector láser es inmutable y triangular en el proceso de medición. Los puntos espaciales se pueden confirmar una vez que se determina la relación, lo que se conoce como calibración de LSLVS.

Hasta ahora, existen muchos métodos de calibración para LSLVS. Estos métodos se pueden clasificar en tres categorías según las formas de obtener puntos característicos en el plano láser: método basado en objetivos 3D, método basado en objetivos planos y método basado en objetivos 1D3.

En el método basado en objetivos 3D, las características geométricas se han utilizado ampliamente en los últimos años. Xiao et al.4 utilizaron una función adicional para controlar el objetivo 3D, es decir, un cubo de metal muy preciso, para moverlo en traslación pura con precisión con el fin de obtener un punto de fuga del plano de luz estructurado y luego el ángulo de proyección de la luz. El proyector de plano se resolvió desde el punto de fuga, así como la línea de base, la intersección del plano de luz estructurado en el eje x del sistema de coordenadas de la imagen. Yang et al.5 obtuvieron dos líneas paralelas en el plano de luz estructurado utilizando un objetivo 3D con dos planos paralelos visibles con precisión; cuando se obtuvieron varios puntos de fuga, se pudo deducir el vector normal del plano de luz estructurado. Como la línea base se resolvió basándose en la invariancia de la relación cruzada, se logró la calibración del plano de luz estructurado. Desafortunadamente, el método basado en objetivos 3D6,7,8 no es lo suficientemente preciso debido al problema de oclusión mutua entre diferentes planos del objetivo y menos puntos característicos. Además, el objetivo 3D, normalmente un cubo con algunos accesorios especiales, es difícil de fabricar con precisión y engorroso para la calibración in situ.

El método basado en objetivos planos está más disponible para calibrar LSLVS. Wei et al.9,10 utilizaron un objetivo plano con un patrón de tablero de ajedrez para finalizar la calibración. Con base en la invariancia de la relación cruzada doble, los puntos de intersección de la franja luminosa y los tableros de ajedrez se pueden obtener bajo el sistema de coordenadas de la imagen como el tamaño exactamente conocido de cada tablero de ajedrez. Entonces se pueden obtener suficientes puntos característicos en el plano de luz. Según el algoritmo de ajuste relacionado, se puede calcular la expresión del plano de luz bajo el sistema de coordenadas de la cámara. Liu et al.11 propusieron un nuevo método según la matriz de Plücker para representar la franja luminosa en un objetivo plano. Cuando el objetivo se ubica en varias posiciones diferentes, se pueden obtener matrices Plücker de franjas luminosas. Luego, la expresión del plano de luz se puede resolver combinando las matrices de Plücker obtenidas. Wei et al.12 calibran un LSLVS basándose en una característica de desaparición. Los puntos de fuga del plano de luz se podrían obtener a partir del punto de intersección de la franja de luz y la línea de fuga del plano objetivo. Una vez que el objetivo plano se mueve a suficientes posiciones diferentes, se puede calcular el vector normal del plano de luz, así como la línea de fuga. Como se conoce exactamente el tamaño del objetivo plano, se podría deducir en consecuencia el parámetro D. Luego se determinó la función del plano de luz bajo el sistema de coordenadas de la cámara.

En comparación con el método basado en objetivos 3D y el método basado en objetivos planos, se propone el método13 basado en objetivos 1D debido a su conveniente operación. Normalmente, los puntos característicos en el plano de luz se pueden obtener basándose en algoritmos relacionados, como el punto de intersección de la franja de luz y un objetivo 1D, que se puede obtener en función de la invariancia de la relación cruzada. Al mover el objetivo 1D aleatoriamente a más posiciones diferentes, se pueden obtener suficientes puntos característicos para ajustarse al plano de luz.

Como la relación relativa entre el sensor y el proyector láser no se solicita estrictamente como el sensor de la primera categoría, este tipo de sensor es económico y conveniente. Desafortunadamente, las imágenes capturadas en todo el rango de medición no son lo suficientemente nítidas para obtener un resultado de medición preciso, especialmente en la dirección z (dirección de altura). En otras palabras, el rango de medición de este tipo de LSLVS en dirección de altura es limitado.

En la segunda categoría, la relación entre el sensor de imagen y el proyector láser satisface estrictamente la condición de Scheimpflug14, es decir, el plano CCD, el plano de la lente y el plano de enfoque (normalmente un plano láser) se cruzan en una sola línea, que se denomina línea de Scheimpflug. . En este caso, se amplía el rango de medición. Como requisito para un mecanizado preciso, este tipo de LSLVS es costoso y a menudo se utiliza como sensor comercial como KEYENCE LJ-X8000, COGNEX DS910B, etc. Además, el método de calibración es difícil para este tipo de LSLVS. Shao et al15 dan un modelo matemático para definir la cámara con lente inclinada. Luego se proporciona el modo de medición para el LSLVS en condiciones de Scheimpflug. Cuando el objetivo con patrón circular se encuentra en el rango de medición, se puede calibrar el LSLVS. Pero como la ubicación/pose del objetivo es limitada, la precisión de la calibración no es lo suficientemente alta.

Entonces, cómo ampliar el rango de medición y ejecutar un método de calibración sencillo para obtener resultados de medición precisos es importante, y también es el propósito de todo tipo de escáneres láser 3D. En este trabajo proponemos un método de medición para LSLVS en construcción tradicional, incluido su método de calibración. En comparación con un método de medición tradicional, la compensación de la distorsión no es necesaria y la precisión de la medición mejora significativamente. Además, este enfoque también se puede utilizar para el LSLVS en condiciones de Scheimpflug.

En la Fig. 1a se ilustra una estructura típica de un LSLVS en estructura tradicional, mientras que su modelo de medición correspondiente se encuentra en la Fig. 1b. Como se ilustra en la Fig. 1a, un proyector láser proyecta una franja láser sobre la superficie del objeto de medición. La cámara captura imágenes de la franja láser. Según el modelo de medición (que se ilustra en la Fig. 1b), se pueden calcular las coordenadas 3D de los puntos característicos en el plano láser bajo el sistema de coordenadas de la cámara.

(a) La estructura típica de un LSLVS y (b) su modelo de medición.

En la Fig. 1b, O-XYZ es el sistema de coordenadas de la cámara (CCS), mientras que o-xy es el sistema de coordenadas de la imagen (ICS). Bajo el CCS, el centro de la cámara está en el origen y el eje óptico apunta a la dirección Z positiva. Un punto espacial P se proyecta sobre el plano con Z = f0, denominado plano de imagen bajo el CCS, donde f0 es la distancia focal efectiva (EFL). Suponiendo que p = (x, y, 1)T es la proyección de P = (X, Y, Z)T en el plano de la imagen. Según el modelo idealizado de imágenes estenopeicas, P, p y el centro de la cámara O son colineales. La relación entre la cámara y el proyector láser permanece inalterable en el proceso de medición12.

Tradicionalmente, determinar la relación (es decir, la expresión matemática del plano láser bajo el CCS) es muy importante, lo que se conoce como calibración de un LSLVS.

El modelo de imágenes de una cámara Scheimpflug se puede ilustrar en la Fig. 2. El OC-XCYCZC es CCS mientras que el o-xy es el ICS que es paralelo al plano de la lente. Mientras tanto, podemos obtener un sistema de coordenadas 3D \(o{ - }xyZ_{c}\). Cuando la lente está inclinada, \(o{ - }xyZ_{c}\) se transforma en o-XYZ. La matriz de transformación se puede definir como R. En CCS, el centro de la cámara está en el origen y el eje óptico original apunta en la dirección ZC positiva. Cuando se inclina la lente, el eje óptico se transforma en la dirección Z. Un punto espacial P se proyecta al plano o-XY, denominado plano de imagen real en CCS. f0 (\(\left| {oO_{C} \, } \right|\)) es la distancia focal efectiva (EFL). Suponiendo que \(p = \left( {x,y,1} \right)^{{\text{T}}}\) es la proyección de \(P = \left( {X,Y,Z} \right )^{{\text{T}}}\) en el plano de la imagen. Según el modelo idealizado de imágenes estenopeicas, es decir, el modelo ideal de la cámara, P, p y el centro de la cámara O son colineales14,16.

(a) Modelo de imágenes de una cámara Scheimpflug, (b) Modelo de medición de un LSLVS en condiciones de Scheimpflug.

Para el LSLVS relacionado, la estructura satisface la condición de Scheimpflug, es decir, el plano de la imagen, el plano de la lente y el plano de la luz se cruzan teóricamente en la línea de Scheimpflug. Como es sabido, la expresión del plano de la lente bajo el CCS es el plano Z. El plano de luz se puede expresar como

donde \(c_{\theta } = \cos \theta\) y \(s_{\theta } = \sin \theta\). α es el ángulo de rotación alrededor del eje x, mientras que β es el ángulo de rotación alrededor del eje y y γ es el ángulo de rotación alrededor del eje z.

Como es sabido, el objetivo plano más utilizado es el de patrón de tablero de ajedrez, que se utiliza para calibrar los parámetros intrínsecos de la cámara utilizando el método de Zhang17. Cuando se proyecta una franja láser sobre el objetivo, podemos obtener la intersección de la franja de luz y el lado de cada ficha en el plano de la imagen (como el punto D y el punto D1 en la Fig. 3).

Determinación de puntos característicos en un objetivo plano.

Como la longitud del lado de cada tablero de ajedrez se conoce exactamente, las coordenadas de los puntos característicos bajo el sistema de coordenadas objetivo (TCS) se pueden resolver basándose en la invariancia de la relación cruzada. La teoría se describe a continuación:

El paso de la cuadrícula del objetivo se conoce con precisión como l, mientras que la longitud de AD se puede definir como l0 (ver Fig. 3). Con base en la invariancia de la relación cruzada, se puede obtener la siguiente ecuación:

La longitud real de AD se puede resolver, al igual que A1D1. Entonces se puede calcular la distancia entre el punto D y el punto D1. En este caso, se pueden confirmar las coordenadas del punto D y del punto D1 bajo TCS. Además, cualquiera de los puntos característicos entre el punto D y el punto D1 se puede calcular según el algoritmo de interpolación relacionado.

El algoritmo de Steger es un algoritmo de extracción con una precisión de subpíxeles. Se puede utilizar para extraer la línea central de una estructura curvilínea, como una franja láser.

Defina la función de distribución de valores de grises 2D de la imagen como I (X, Y), donde (X, Y) son las coordenadas del punto de la imagen. La cantidad variable de valores de gris en la posición de (X, Y) se define como Δ mientras que el cambio de dirección se define como n. n y Δ pueden determinarse mediante la matriz de Hesse de I (X, Y). La Matriz de Hesse se define como18

donde Hess indica la numeración de una matriz de Hesse y las otras notaciones relacionadas se definen a continuación:

En la ecuación. (4), gxx, gxy y gyy son el núcleo de convolución gaussiano discreto diferencial de segundo orden y \(\otimes\) denota el cálculo de la convolución. Estos dos valores propios de la matriz de Hesse denotan el máximo y el mínimo de la segunda derivada de I(X,Y). En otras palabras, los valores propios de la Matriz de Hesse indican variación en las direcciones del cambio más agudo y del cambio más suave y sus correspondientes vectores propios son las direcciones relacionadas.

La línea central de la estructura curvilínea es la posición donde su derivada de primer orden es cero. Luego, el centro de la estructura curvilínea se puede determinar con precisión de subpíxeles mediante la función de distribución de valores de grises de expansión de Taylor de segundo orden. El centro con precisión de subpíxeles se puede expresar como:

dónde

(x0, y0) es el centro con precisión de píxeles, cuya dirección está determinada por el vector propio de la matriz de Hesse, gx y gy son la derivada parcial de primer orden de la función de distribución de valores de grises en la posición (x0, y0), mientras que gxx, gxy, gyy son las derivadas parciales de segundo orden de la función de distribución de valores de gris en la posición (x0, y0)19

Cuando extraemos los puntos centrales de una característica de estructura de línea (como una franja de luz, etc.) en el plano de la imagen con una precisión de subpíxel, las coordenadas de los puntos característicos no son un número entero. En algunos casos, la coordenada x/la coordenada y del punto característico debe normalizarse a un número entero. Este proceso se denomina normalización de puntos característicos en la dirección x/dirección y en este documento.

Definir el punto I (x, y) es el punto característico extraído de la estructura lineal, el punto A (xA, yA) es el punto más cercano a I a la izquierda, mientras que el punto B (xB, yB) es el punto más cercano a I a la izquierda. bien. Cuando normalizamos el punto I en la dirección x, podemos obtener coordenadas como

Además, cuando normalizamos el punto I en la dirección y, podemos obtener coordenadas como

Cuando se obtienen suficientes puntos característicos en diferentes distancias, se puede determinar la relación entre el punto característico y la distancia. Una vez que se obtienen suficientes puntos de muestra, podemos obtener la relación de acuerdo con varios algoritmos, como el algoritmo de ajuste de curvas, el algoritmo de red neuronal de retropropagación (BP), etc.

Algoritmo de ajuste de curva adaptativa

En esta sección, usamos una función lineal y una función de segundo orden para aproximar la relación. El procedimiento se detalla a continuación:

Paso. 1. Defina una función lineal como

y una función de segundo orden como

Paso. 2. Puntos característicos normalizados y puntos característicos seleccionados con la misma coordenada x/coordenada y que el valor x. Su distancia correspondiente se elige como el valor de y.

Paso. 3. Utilizando el método de ajuste de mínimos cuadrados20 para calcular los coeficientes ayb en la ecuación. (9). Si el valor de la función objetivo ε (Ec. 11) es menor que un umbral (como 1e−4), los coeficientes se guardan y la función lineal se selecciona como la función para expresar la relación. De lo contrario, vaya al Paso 4.

En la ecuación. (11), f(x) se define como la ecuación. (9), xi es la coordenada x/y normalizada, mientras que yi es la distancia real correspondiente.

Paso. 4. Utilizando el método de ajuste de mínimos cuadrados para calcular los coeficientes a, b y c en la ecuación. (10). Si el valor de la función objetivo κ (Ec. 12) es menor que ε, se selecciona la función de segundo orden como función para expresar la relación.

En la ecuación. (12), g(x) se define como la ecuación. (10), xi y yi se definen igual que en la ecuación. (11).

Algoritmo de red neuronal BP21

En esta sección, se elige una red neuronal BP con tres capas para obtener la relación entre el punto característico y la distancia.

Paso. 1. Puntos característicos normalizados y puntos característicos seleccionados con la misma coordenada x/coordenada y que el valor x. Su distancia correspondiente se elige como el valor de y.

Paso. 2. Inicialice la red neuronal BP. Seleccione los pesos y umbrales de conexión de forma aleatoria.

Paso. 3. Según el algoritmo relacionado para entrada y salida, vuelva a calcular los valores de salida de la capa oculta y la capa de salida. Luego actualice los pesos y umbrales relacionados.

Paso. 4. Repita hasta que el error sea inferior al umbral. Entonces podemos obtener la relación entre el punto característico y la distancia.

En el método de calibración tradicional, se debe obtener la expresión del plano láser bajo CCS. Pero cuando estas imágenes capturadas no son lo suficientemente nítidas, los resultados de la calibración implicarán más errores. En esta sección, se propone una nueva calibración, que incluye obtener la relación entre el punto de la imagen y la distancia horizontal y la relación entre el punto de la imagen y la distancia perpendicular. Este método de calibración es adecuado tanto para LSLVS en estructura tradicional como en condiciones Scheimpflug.

Paso. 1. Seleccione una etapa de traducción lineal adecuada. Como se sabe, la precisión posicional de una etapa de traslación lineal es lo suficientemente alta como para calibrar cualquier escáner láser. En este caso, podemos elegir una etapa lineal adecuada según los requisitos de precisión de nuestro LSLVS.

Paso. 2. Mecanizar una placa de superficie con la precisión adecuada. Como la placa no tiene ningún patrón o característica 3D, el proceso productivo no es difícil.

Paso. 3. Un LSLVS de estructura tradicional incluye una cámara con lente normal y un proyector láser. El sensor está fijado sobre una viga rígida. En este caso, la relación entre la cámara y el proyector láser es inalterable.

Paso. 1. Fijar nuestro LSLVS en el escenario. En este caso, el LSLVS puede moverse hacia arriba y hacia abajo a lo largo de la dirección de movimiento de la etapa de traslación lineal. El valor de traducción es el mismo que el del escenario, lo cual es fácil de obtener.

Paso. 2. Coloque la placa de superficie debajo del proyector láser para cubrir el rango de medición y fíjela. En este caso, la cámara puede capturar la imagen de la franja láser en la placa.

Paso. 3. Controlar la etapa de traslación lineal que se mueve dentro del rango de medición longitudinal con un paso fijo, que normalmente es igual a la resolución de medición. Capture una imagen de franja luminosa para cada posición.

Paso. 4. Extraiga los puntos centrales de la franja de luz en cada imagen. En este artículo, el método de extracción es el algoritmo de extracción de Steger19 con una precisión de subpíxel.

Paso. 5. Puntos característicos de la imagen normalizada. Luego obtenga la función entre las coordenadas de los puntos centrales y la distancia perpendicular en cada posición según el método relacionado.

Paso. 1. Fijar nuestro LSLVS en el escenario. En este caso, el LSLVS puede moverse hacia arriba y hacia abajo a lo largo de la dirección de movimiento de la etapa de traslación lineal.

Paso. 2. Coloque un objetivo plano con un patrón de tablero de ajedrez en la placa de superficie.

Paso. 3. Controle la etapa de traslación lineal que se mueve dentro del rango de medición longitudinal con un paso fijo. Luego capture una imagen de la franja de luz (con el objetivo plano) para cada posición.

Paso. 4. Extraiga los puntos centrales de la franja de luz en cada imagen. En este artículo, el método de extracción es el algoritmo de extracción de Steger19 con una precisión de subpíxel.

Paso. 5. Puntos característicos de la imagen normalizada según el algoritmo de normalización mencionado en la Parte B de la Sección III. Luego obtenga la función entre las coordenadas de los puntos centrales y la distancia horizontal en cada posición según el método relacionado.

La estructura de nuestro aparato experimental se ilustra en la Fig. 4. Para simplificar, en nuestro trabajo construimos un LSLVS con una estructura tradicional, que incluye una cámara con una lente normal y un proyector láser (tenga en cuenta que un LSLVS en condición Scheimpflug también puede ser utilizado). El sensor está fijado sobre una viga rígida. En este caso, la relación entre la cámara y el proyector láser es inalterable. Luego la viga se fija en una plataforma de traslación lineal. Los componentes se detallan a continuación.

Construcción de nuestro aparato experimental.

La cámara utilizada en nuestro LSLVS es DaHeng MER-1070-10GM-P con una resolución de 3840 × 2748 píxeles, mientras que el proyector láser tiene una longitud de onda de 405 nm. En la práctica, la resolución en la dirección x se reduce a 3300 píxeles para garantizar que se capture una franja de luz completa. La línea de base entre la cámara y el proyector láser es de unos 500 mm. Como la distancia focal de nuestra lente es de 6 mm, el rango de medición es de aproximadamente 1100 mm, mientras que la distancia perpendicular más cercana desde el haz rígido al plano de referencia es de aproximadamente 800 mm.

La platina utilizada para calibrar el LSLVS se elige como PST150 X-S42 con una carrera de 150 mm. La resolución de la platina es de 2,5 us, mientras que la precisión de reposicionamiento es de 4 us. La precisión posicional de la etapa de traslación lineal es lo suficientemente alta según los requisitos de medición del LSLVS. Como el rango de medición es de 1100 mm, seleccionamos la precisión deseada como 0,1 mm, es decir, 0,09 ‰ en relación con el rango de medición, que es mejor que la mayoría de los sensores existentes en condiciones Scheimpflug.

La precisión de la planicidad es de 0,05 mm y la longitud es de 1200 mm. Como la placa no tiene ningún patrón o característica 3D, el mecanizado preciso es fácil de terminar. En el proceso de calibración, el LSLVS proyecta una franja láser sobre la placa de superficie y la cámara captura imágenes de la franja láser.

El objetivo plano utilizado para obtener puntos característicos en una franja clara tiene un patrón de tablero de ajedrez (como se ilustra en la Fig. 5). La precisión de mecanizado del objetivo plano es de 5 μm. La longitud lateral de cada tablero de ajedrez es de 25 mm. La superficie del objetivo plano se refleja de forma difusa. En este caso, los puntos característicos en el plano de luz se pueden obtener fácilmente.

El objetivo plano con patrón de tablero de ajedrez.

Con la ayuda del objetivo plano mencionado anteriormente, la cámara utilizada en el sistema se calibra mediante el método de calibración de Zhang17. En este método, el objetivo se ubica aleatoriamente en el campo de visión de la cámara. En este caso, la cámara puede capturar imágenes del objetivo con nitidez. Cuando el objetivo está ubicado en más de tres posiciones diferentes con diferentes poses, la cámara se puede calibrar con éxito. En nuestro artículo, se capturan dieciséis imágenes para finalizar la tarea de calibración y parte de las imágenes se ilustran en la Fig. 6.

Parte de las imágenes de destino utilizadas para calibrar la cámara.

Los parámetros intrínsecos obtenidos se enumeran en la Tabla 1.

En la Tabla 1, \(f_{x}\) y \(f_{y}\) son factores de escala en las coordenadas x e y, y \((u_{0} ,v_{0} )\) son el punto principal del plano de la imagen. kc1 y kc2 son factores de distorsión de la imagen.

En la calibración de nuestro LSLVS, el paso fijo de la etapa de traslación lineal es de 0,1 mm, mientras que el rango de medición longitudinal es de 100 mm. En este caso, deberíamos capturar 1001 imágenes para obtener la relación entre los puntos característicos y la distancia perpendicular. Luego, el objetivo plano se ubica en el plano de la superficie para obtener la relación entre los puntos característicos y la distancia horizontal. Para cada imagen, la franja de luz se extrae mediante el método de Steger19 y luego los puntos característicos se normalizan mediante el método mencionado en la Sección II.

Como la resolución de la imagen en la dirección x es 3300, deberíamos obtener 3300 funciones para expresar la relación para cada píxel en todo el rango de medición. La relación entre la distancia y las coordenadas de la franja láser se ilustra en la Fig. 7a. Como se ilustra en la Fig. 7a, cada columna es una variación de la distancia con la misma coordenada x de puntos característicos. En otras palabras, cada columna denota una función de distancia con la coordenada y. En la Fig. 7b se ilustra una muestra de la relación entre la coordenada y y la distancia en una posición de la franja láser. En la Fig. 7b, la relación puede confirmarse mediante dos algoritmos, es decir, el algoritmo de ajuste de curva adaptativa y el algoritmo de red neuronal BP. En el algoritmo de ajuste de curva adaptativa, cada relación (como se representa en la Fig. 7b) se ajusta mediante una función lineal como la ecuación. (9) o una función de segundo orden como la Ec. (10), mientras que en el algoritmo de red neuronal BP la relación de entrada y salida se expresa mediante un modelo de red entrenado.

(a) relación entre la distancia y las coordenadas de la franja láser; (b) relación entre el valor y la distancia en una posición de la franja láser.

Para distancia perpendicular

Para evaluar la precisión de la medición del LSLVS en dirección perpendicular de acuerdo con nuestro enfoque propuesto, producimos una cuña escalonada con una precisión de 0,02 mm. Las alturas de estas superficies de escalón son 10,0 mm, 19,0 mm, 27,9 mm y 32,5 mm respectivamente. La cuña está situada sobre una placa de superficie. Estos resultados de medición se ilustran en la Fig. 8. A partir de estos resultados de medición podemos obtener un error máximo de 0,1 mm. Como el paso fijo de la etapa de traslación lineal utilizada para obtener la relación es de 0,1 mm, la precisión de la medición de nuestro escáner láser es lo suficientemente precisa.

Resultados de medición para evaluar la precisión de medición de nuestro LSLVS.

Para distancia horizontal

Un objetivo 1D que se ilustra en la Fig. 9 se utiliza para evaluar la precisión de medición del escáner láser en dirección horizontal. La distancia entre cada dos puntos característicos adyacentes se conoce exactamente (40 mm). Todos los valores de medición se comparan con su valor verdadero correspondiente. Como el objetivo se puede mover aleatoriamente a diferentes posiciones, podemos obtener distancias suficientes para evaluar nuestro método de medición en dirección horizontal. Parte de los resultados de nuestra evaluación se enumeran en la Tabla 2. En la Tabla 2, Dm1 denota el resultado de la medición según el algoritmo de ajuste de curva adaptativa, mientras que Dm2 denota el resultado de la medición según el algoritmo de red neuronal BP. En consecuencia, Error1 es el error absoluto de Dm1 y Error2 es el error absoluto de Dm2. Como se indica en la Tabla 2, el error cuadrático medio (error RMS) de los resultados de medición según nuestro método propuesto es de 0,065 mm (según el algoritmo de ajuste de curva adaptativa) y 0,052 mm (según el algoritmo de red neuronal BP).

Objetivo 1D para evaluar nuestro método de medición en dirección horizontal.

A modo de comparación, calibramos el LSLVS utilizando el método de calibración de Wei9,10. La expresión bajo CCS del avión ligero es

Medimos el objetivo 1D ilustrado en la Fig. 8 de acuerdo con el método tradicional (\(D_{trad}\)) y nuestro método propuesto (Dm1 y Dm2). Los resultados de la medición se enumeran en la Tabla 3.

Como se indica en la Tabla 3, el error RMS de los resultados de medición según el método tradicional es de 0,184 mm, que se reduce al menos en un 64,67%.

En este artículo, proponemos un método de medición preciso para un sensor de visión de luz de estructura lineal, incluido el método de calibración correspondiente. El procedimiento relacionado se detalla en este documento. En comparación con un método de medición tradicional, no es necesaria la compensación de la distorsión y se mejora la precisión de la medición. Además, demostramos que el error de nuestro método de medición actual en un rango de medición grande (aproximadamente 1100 mm) es de 0,1 mm, es decir, 0,09 ‰ en relación con el rango de medición. Experimentos reales muestran que el error cuadrático medio de los resultados de medición según nuestro método propuesto se reduce en un 64,67% en comparación con el método tradicional. Además, nuestro método propuesto también se puede utilizar para el sensor de visión de luz de estructura lineal en condiciones de Scheimpflug.

Todos los datos generados o analizados durante este estudio se incluyen en este artículo publicado.

Sun, J., Zhang, J., Liu, Z. y Zhang, GJ Un modelo de medición de visión de un sensor de desplazamiento láser y su método de calibración. Optar. Ing. Láser. 51, 1344-1352 (2013).

Artículo de Google Scholar

Shao, MW & Hu, MJ Método de calibración basado en funciones paralelas para un sensor de visión trinocular. Optar. Expreso 28(14), 20573–20586 (2020).

Artículo ADS PubMed Google Scholar

Heikkila, J. Calibración de cámara geométrica mediante puntos de control circulares. Traducción IEEE. Patrón Anal. Mach. Intel 22(10), 1066–1073 (2000).

Artículo de Google Scholar

Xiao, H. & Luo, M. Calibración de un sensor visual 3D de luz estructurada en líneas mediante el método del punto de fuga. Opt.-Electrón. Ing. 23(3), 53–58 (1996).

Google Académico

Yang, P. y Lin, Wu. Un método de calibración rápido para sensores de visión con luz láser. Láser J. 27(4), 35–36 (2006).

CAS Google Académico

Duan, F., Liu, F. y Ye, S. Un nuevo método preciso para la calibración de sensores de luz estructurados en líneas. Mentón. J. Ciencias. Instrumento. 21(1), 108–110 (2000).

Google Académico

Zou, D., Investigación sobre inspección por visión 3D y su aplicación en estaciones ADC. [Doctor. Disertación], Universidad de Tianjin (1992).

Zhang, S. & Huang, PS Nuevo método para la calibración de sistemas de luz estructurada. Optar. Ing. 45, 8. https://doi.org/10.1117/1.2336196 (2006).

Artículo CAS Google Scholar

Wei, Z. y Zhang, G. Enfoque de calibración para sensores de visión de franjas de luz estructuradas basado en la invariancia de doble relación cruzada. Optar. Ing. 42(10), 2959–2966 (2003).

ADS del artículo Google Scholar

Zhou, F. y Zhang, G. Calibración completa de un sensor de visión de franja de luz estructurada a través de un objetivo plano de orientaciones desconocidas. Imagen Vis. Computadora. 23(1), 59–67 (2005).

Artículo MathSciNet Google Scholar

Liu, Z., Zhang, G. y Wei, Z. Un método de calibración preciso para un sensor de visión de luz de estructura lineal. Acta Opc. Pecado. 29(11), 3124–3128 (2009).

Artículo de Google Scholar

Wei, ZZ, Shao, MW, Zhang, GJ y Wang, YL Método de calibración basado en paralelo para sensores de visión de luz estructurados en líneas. Optar. Ing. 53(3), 033101 (2014).

ADS del artículo Google Scholar

Wei, Z., Cao, L. y Zhang, G. Un novedoso método de calibración basado en objetivos 1D con orientación desconocida para sensores de visión de luz estructurada. Optar. Tecnología láser. 42, 570–574 (2010).

Artículo ADS CAS Google Scholar

Scheimpflug, T., Método y aparato mejorados para la alteración o distorsión sistemática de fotografías e imágenes planas mediante lentes y espejos para fotografía y otros fines. Patente de Gran Bretaña 1196 (12 de mayo de 1904)

Shao, MW Métodos de calibración para una cámara con lente inclinada y un escáner láser tridimensional en la condición Scheimpflug. J. Optar. Soc. Soy. R. Optar. Imagen. Ciencia. Vis. 37(7), 1076–1082 (2020).

Artículo ADS PubMed Google Scholar

Shao, MW, Wang, P. y Wang, JH Sensores mejorados basados ​​en condiciones de Scheimpflug y restricciones multifocales. ACCESO IEEE https://doi.org/10.1109/ACCESS.2020.3020731 (2020).

Artículo de Google Scholar

Zhang, Z. Una nueva técnica flexible para la calibración de cámaras. Traducción IEEE. Patrón Anal. Mach. Intel. 22(11), 1330-1334 (2000).

Artículo de Google Scholar

Shao, M., Wei, Z., Hu, M., Un método flexible para calibrar parámetros externos de dos cámaras sin FOV superpuesto. En Séptimo Simposio Internacional sobre Medidas Mecánicas de Precisión, ID:99032C (2016).

Steger, C. Extracción imparcial de líneas con perfiles parabólicos y gaussianos. Computadora. Vis. Comprensión de la imagen. 117, 97-112 (2013).

Artículo de Google Scholar

Zhang, L. y col. Un método adaptativo de mínimos cuadrados totales móviles para el ajuste de curvas. Medición 49, 107–112 (2014).

Artículo de Google Scholar

Yip, HJ, Ji, GR, Liu, JH, Jia, L., Estructura óptima y parámetros de la red neuronal BP para el problema de ajuste de curvas. La VI EMIM, vol. 40, págs. 1647-1652 (2016).

Descargar referencias

Esta investigación fue financiada por la Fundación de Ciencias Naturales de la provincia de Shandong (ZR2022ME182), China.

Facultad de Ciencias, Universidad Tecnológica de Qingdao, Qingdao, 266520, China

Wei Wei Sheng

También puedes buscar este autor en PubMed Google Scholar.

WS escribió el texto principal del manuscrito, preparó figuras y revisó el manuscrito.

Correspondencia a Wei-wei Sheng.

El autor no declara intereses en competencia.

Springer Nature se mantiene neutral con respecto a reclamos jurisdiccionales en mapas publicados y afiliaciones institucionales.

Acceso Abierto Este artículo está bajo una Licencia Internacional Creative Commons Attribution 4.0, que permite el uso, compartir, adaptación, distribución y reproducción en cualquier medio o formato, siempre y cuando se dé el crédito apropiado al autor(es) original(es) y a la fuente. proporcione un enlace a la licencia Creative Commons e indique si se realizaron cambios. Las imágenes u otro material de terceros en este artículo están incluidos en la licencia Creative Commons del artículo, a menos que se indique lo contrario en una línea de crédito al material. Si el material no está incluido en la licencia Creative Commons del artículo y su uso previsto no está permitido por la normativa legal o excede el uso permitido, deberá obtener permiso directamente del titular de los derechos de autor. Para ver una copia de esta licencia, visite http://creativecommons.org/licenses/by/4.0/.

Reimpresiones y permisos

Sheng, Ww. Medición precisa para sensor de visión de luz de estructura lineal con amplio rango. Representante científico 13, 7234 (2023). https://doi.org/10.1038/s41598-023-34428-w

Descargar cita

Recibido: 07 de octubre de 2022

Aceptado: 29 de abril de 2023

Publicado: 04 de mayo de 2023

DOI: https://doi.org/10.1038/s41598-023-34428-w

Cualquier persona con la que compartas el siguiente enlace podrá leer este contenido:

Lo sentimos, actualmente no hay un enlace para compartir disponible para este artículo.

Proporcionado por la iniciativa de intercambio de contenidos Springer Nature SharedIt

Al enviar un comentario, acepta cumplir con nuestros Términos y pautas de la comunidad. Si encuentra algo abusivo o que no cumple con nuestros términos o pautas, márquelo como inapropiado.