Mostrar el registro sencillo del ítem
Sistema de corrección de ruido en imágenes de conducción asistida implementando redes neuronales de tipo autoencoder
dc.contributor.advisor | Medina Delgado, Byron | |
dc.contributor.advisor | Contreras Contreras, Ghiordy Ferney | |
dc.contributor.author | Torres Vega, Luis Carlos | |
dc.date.accessioned | 2024-04-01T14:55:02Z | |
dc.date.available | 2024-04-01T14:55:02Z | |
dc.date.issued | 2023-03-01 | |
dc.identifier.uri | https://repositorio.ufps.edu.co/handle/ufps/6771 | |
dc.description.abstract | Esta investigación tuvo como finalidad desarrollar un sistema que permitió corregir el ruido presente en imágenes de conducción asistida, esto por medio del uso de redes neuronales de tipo autoencoder. Para dar cumplimiento a los objetivos se planteó una metodología estructurada en 5 fases, lo cual permitió llevar a cabo actividades orientadas a cada uno de los objetivos específicos establecidos. Como resultado se pudo apreciar una mejora en la calidad de las imágenes procesadas, esto en función de métricas objetivas de calidad como la proporción máxima de señal a ruido (PSNR) o la medida del índice de similitud estructural (SSIM), incrementando hasta 17 dB el valor de PSNR respecto al obtenido por la imagen con ruido y obteniendo imágenes de 99% de similitud estructural, lo anterior en las pruebas realizadas con ruido Sal & Pimienta; en cuanto a los resultados con ruido Gaussiano, se pudieron obtener ganancias de 9 dB en el PSNR y hasta un 83% de similitud estructural, respuesta que se debe a la forma como el ruido Gaussiano se manifiesta en la imagen, dificultando su modelado y correspondiente procesamiento. | spa |
dc.description.tableofcontents | Introducción 1. 2. Descripción del Problema 1.1. 1.2. Planteamiento del Problema Justificación 1.2.1. Beneficios Tecnológicos 1.2.2. Beneficios Científicos 1.3. Alcance 1.3.1. Resultados Esperados 1.3.2. Impacto Social 1.4. Limitaciones 1.4.1. Hardware 1.4.2. Software 1.5. Delimitaciones 1.5.1. Conceptual 1.5.2. Espacial 1.5.3. Temporal 1.6. Objetivos 1.6.1. General 1.6.2. Específicos Marco Referencial 17 19 19 22 23 23 24 24 24 25 25 25 26 26 26 26 27 27 27 28 2.1. Antecedentes 28 2.1.1. Deep Learning on Image Denoising: An Overview 2.1.2. Autoencoders Based Deep Learner for Image Denoising 2.1.3. Devdan: Deep Evolving Denoising Autoencoder 2.1.4. Llnet: A Deep Autoencoder Approach to Natural Low-Hight Image Enhancement 2.1.5. Underwater Color Restoration Using U-Net Denoising Autoencoder 2.2. Marco teórico 2.2.1. Conducción Asistida 2.2.2. Obtención de Información del Entorno 2.2.2.1. Radar. 2.2.2.2. Cámaras. 2.2.2.3. LASER Imaging Detection and Ranging (LiDAR). 2.2.2.4. Sensores de Proximidad (Ultrasonido). 2.2.3. Tipos de Imágenes y Métodos de Denoising 2.2.3.1. Eliminación de Ruido Blanco Aditivo. 2.2.3.2. Eliminación de Ruido en Imágenes Realmente Ruidosas. 2.2.3.3. Eliminación de Ruido a Ciegas. 2.2.3.4. Eliminación de Ruido Híbrido. 2.2.4. Redes Neuronales 2.2.5. Autoencoders 2.2.6. Métricas Aplicadas en el Procesamiento de Imágenes 2.2.6.1. Relación de Compresión (CR). 29 29 29 30 30 31 31 32 32 32 33 33 33 34 34 34 35 35 36 37 38 2.2.6.2. Mean Squared Error (MSE). 38 2.2.6.3. Peak Signal-to-Noise Ratio (PSNR). 2.2.6.4. Structural Similarity Index (SSIM). 2.3. Marco legal 2.3.1. Reglamentación en el Ámbito de la Conducción Asistida 2.3.2. Uso de Software Libre 2.3.3. Tratamiento de Datos 3. 4. Metodología 3.1. 3.2. 3.3. 3.4. 3.5. Análisis Diseño Implementación Evaluación Divulgación Resultados 4.1. Métodos de Denoising y Requerimientos Técnicos 4.1.1. Revisión del Estado del Arte 4.1.2. Identificación de Métodos de Denoising 4.1.2.1. Tipos de Ruido. 4.1.2.2. Métodos de Denoising. 4.1.3. Requerimientos de la Problemática 4.1.3.1. Costo Computacional. 4.1.3.2. Métricas. 4.2. 39 39 40 41 42 43 45 45 46 47 48 49 50 50 50 51 52 54 55 55 58 Diseño del Algoritmo DCAEAD 60 4.2.1. Fuentes de Libre Acceso 60 4.2.1.1. Lenguaje de Programación. 4.2.1.2. Entorno de Desarrollo Integrado (IDE). 4.2.1.3. Dataset. 4.2.2. Asignación de Recursos 4.2.2.1. Selección del Lenguaje de Programación. 4.2.2.2. Selección del Entorno de Desarrollo Integrado. 4.2.2.3. Selección del Dataset. 4.2.3. Estructura del Software 4.2.3.1. Parámetros de la Red. 4.3. Implementación y Pruebas de Funcionamiento 4.3.1. Programación en Python 4.3.1.1. Lectura y Procesamiento de los Datos. 4.3.1.2. Insertar Ruido. 4.3.1.3. Modelo del Sistema DCAEAD. 4.3.1.4. Entrenamiendo del Sistema. 4.3.2. Ajuste del Software a los Requerimientos 4.3.3. Pruebas Unitarias 4.3.3.1. Pruebas con Ruido Gaussiano. 4.3.3.2. Pruebas con Ruido Salt & Pepper. 4.4. Evaluación del Sistema 4.4.1. Análisis Estadístico 4.4.1.1. Resultados con AWGN. 60 61 62 64 65 69 69 69 71 72 72 72 74 75 77 77 80 81 82 84 85 85 4.4.1.2. Resultados con Ruido Salt & Pepper. 87 4.4.1.3. Ganancia del Sistema en Función de PSNR y SSIM. 4.4.1.4. Contrastar Resultados. 4.4.2. Análisis de Costo Computacional 4.4.3. Retroalimentación 4.5. 5. Divulgación de Resultados Conclusiones Referencias Bibliográficas Anexos 89 91 91 93 94 96 98 106 | spa |
dc.format.extent | 118 páginas. ilustraciones,(Trabajo completo) 3.539 KB | spa |
dc.format.mimetype | application/pdf | spa |
dc.language.iso | spa | spa |
dc.publisher | Universidad Francisco de Paula Santander | spa |
dc.rights | Derechos Reservados - Universidad Francisco de Paula Santander, 2023 | spa |
dc.source | https://catalogobiblioteca.ufps.edu.co/descargas/tesis/1161637.pdf | spa |
dc.title | Sistema de corrección de ruido en imágenes de conducción asistida implementando redes neuronales de tipo autoencoder | spa |
dc.type | Trabajo de grado - Pregrado | spa |
dcterms.references | Agencia Nacional de Seguridad Vial. (s.f.). Cifras año en curso. Recuperado el Enero de 2023, de https://ansv.gov.co/es/observatorio/estad%C3%ADsticas/cifras-ano-en-curso | spa |
dcterms.references | Ahn, B. C. (2017). Block-Matching Convolutional Neural Network for Image Denoising. Computer Vision and Pattern Recognition. | spa |
dcterms.references | Anwar, S., & Barnes, N. (2019). Real Image Denoising With Feature Attention. Proceedings of the IEEE/CVF International Conference on Computer Vision. Seoul, Korea. | spa |
dcterms.references | Ashfahani, A., Pratama, M., Lughofer, E., & Ong, Y.-S. (2020). DEVDAN: Deep evolving denoising autoencoder. Neurocomputing, 390, 297-314. | spa |
dcterms.references | Atienza, R. (2018). Advanced Deep Learning with Keras: Apply deep learning techniques, autoencoders, GANs, variational autoencoders, deep reinforcement learning, policy gradients, and more. Packt Publishing Ltd. | spa |
dcterms.references | Bajaj, K., Kumar, D., & Aquib, M. (2020). Autoencoders Based Deep Learner for Image Denoising. Procedia Computer Science, 171, 1535-1541. | spa |
dcterms.references | Bank, D., Koenigstein, N., & Giryes, R. (2021). Autoencoders. arXiv. | spa |
dcterms.references | Barradas, C. (2020). Estudio y diseño de un proceso de monitorización aplicado aun motor eléctrico por medio de la inteligencia artificial. Barcelona: Universidad politècnica de Catalunya. | spa |
dcterms.references | Benavides, Ó. (2004). La innovación tecnológica desde una perspectiva evolutiva. Cuadernos de economía, 23(41), 49-70. | spa |
dcterms.references | Burguillos, C. (2016). Algoritmos de lenguaje máquina para la detección de vehículos mediante cámaras infrarrojas. Universidad Carlos III de Madrid. | spa |
dcterms.references | C++ Foundation. (s.f.). News, Status & Discussion about Standard C++. Recuperado el 99 Septiembre de 2021, de https://isocpp.org/ | spa |
dcterms.references | Cano, L., & Bautista, R. (2019). Alcance del derecho al olvido en el tratamiento de datos personales en Colombia. Verba luris(41), 45-63. | spa |
dcterms.references | Caparrós, A. (1999). El comportamiento humano en conducción: factores perceptivos, cognitivos y de respuesta. Cognición y Psicología Aplicada a la conducción de vehículos . | spa |
dcterms.references | Charte, F. (2021). Autoencoders ¿Qué son, para qué sirven y cómo funcionan? Jaén: DaSCI. | spa |
dcterms.references | Christian, S., Wei, L., Yangqing, J., Pierre, S., Scott, R., Dragomir, A., . . . Andrew, R. (2015). Going deeper with convolutions. Conference on Computer Vision and Pattern Recognition (CVPR). Boston, USA. | spa |
dcterms.references | Congreso de Colombia. (1993). Ley 44 de 1993. Recuperado el Enero de 2023, de https://www.funcionpublica.gov.co/eva/gestornormativo/norma.php?i=3429#:~:text=%22 Los%20derechos%20consagrados%20a%20favor,a%20partir%20de%20su%20muerte. | spa |
dcterms.references | Continental. (2020). Blind Spot Detection. Recuperado el 6 de Mayo de 2021, de http://www.continental-corporation.com | spa |
dcterms.references | Contreras, G., Pabón, J., García, H., Rojas, F., & Arguello, H. (2021). Correction of Designed Compressive Spectral Imaging Measurements Using a Deep Learning-Based Method. XXIII Symposium on Image, Signal Processing and Artificial Vision (STSIVA). Popayán, Colombia. | spa |
dcterms.references | Dabov, K., Foi, A., Katkovnik, V., & Egiazarian, K. (2007). Image Denoising by Sparse 3-D Transform-Domain Collaborative Filtering. IEEE Transactions on Image Processing , 16(8), 2080 - 2095. | spa |
dcterms.references | de los Reyes, Á. (2019). Análisis de rendimiento de eutoencoders en entornos big data. Madrid: Universidad Carlos III. | spa |
dcterms.references | Doulamis, N., Doulamis, A., Voulodimos, A., & Protopapadakis, E. (2018). Deep Learning for Computer Vision: A Brief Review. Computational intelligence and neuroscience, 2018. | spa |
dcterms.references | Elad, M., & Aharon, M. (2006). Image Denoising Via Sparse and Redundant Representations Over Learned Dictionaries. IEEE Transactions on Image Processing, 15(12), 3736-3745. | spa |
dcterms.references | Esqueda, J. (2002). Fundamentos de Procesamiento de Imágenes. CONATEC. | spa |
dcterms.references | Fernández, M. (1996). Señales aleatorias y ruido. Valladolid: E.T.S. de Ingenieros de Telecomunicación. | spa |
dcterms.references | Florez, M. (2001). Los sistemas inteligentes de transporte ITS. Ciencia e Ingeniería Neogranadina(10), 39-45. | spa |
dcterms.references | Google. (s.f.). What is Colaboratory? Recuperado el Septiembre de 2021, de https://colab.research.google.com/ | spa |
dcterms.references | Gu, S., Zhang, L., Zuo, W., & Feng, X. (2014). Weighted Nuclear Norm Minimization with Application to Image Denoising. IEEE Conference on Computer Vision and Pattern Recognition. Columbus, OH, USA. | spa |
dcterms.references | Gupta, A., Anpalagan, A., Guan, L., & Shaharyar, A. (2021). Deep learning for object detection and scene perception in self-driving cars: Survey, challenges, and open issues. Array, 100057, 10. | spa |
dcterms.references | Hashisho, Y., Albadawi, M., Krause, T., & Freiherr, U. (2019). Underwater Color Restoration Using U-Net Denoising Autoencoder. 11th International Symposium on Image and Signal Processing and Analysis (ISPA). Dubrovnik, Croatia. | spa |
dcterms.references | Horé, A., & Ziou, D. (2010). Image Quality Metrics: PSNR vs. SSIM. 20th International 101 Conference on Pattern Recognition. Istanbul, Turkey. | spa |
dcterms.references | Huynh-Thu, Q., & Mohammed, G. (2008). Scope of validity of PSNR in image/video quality assessment. Electronics letters, 44(13), 800-801. | spa |
dcterms.references | Jain, P., & Tyagi, V. (2016). A survey of edge-preserving image denoising methods. Information Systems Frontiers, 18, 159-170. | spa |
dcterms.references | Jarrett, K., Kavukcuoglu, K., Ranzato, A., & LeCun, Y. (2009). What is the best multi-stage architecture for object recognition? 12th International Conference on Computer Vision. Kyoto, Japon. | spa |
dcterms.references | JetBrains. (s.f.). PyCharm. Recuperado el Sepptiembre de 2021, de www.jetbrains.com/eses/pycharm/ | spa |
dcterms.references | Kotevski, Z., & Mitrevski, P. (2009). Experimental Comparison of PSNR and SSIM Metrics for Video Quality Estimation. ICT Innovations, 357-366. | spa |
dcterms.references | Larrue, T., Li, Y., Meng, X., & Han, C.-M. (2018). Denoising Videos with Convolutional Autoencoders. Proceedings of ACM Conference. New York: University of Maryland. | spa |
dcterms.references | Lau, M., & Hann, K. (2018). Review of Adaptive Activation Function in Deep Neural Network. Conference on Biomedical Engineering and Sciences (IECBES). Sarawak, Malasia. | spa |
dcterms.references | Leal, J. (2021). Características de la infraestructura que pueden favorecer la conducción asistida y automatizada. Revista digital del CEDEX(197), 106-117. | spa |
dcterms.references | León, A., Bermeo, J., Paredes, J., & Torres, H. (2020). Una revisión de las métricas aplicadas en el procesamiento de imágenes. RECIMUNDO: Revista Científica de la Investigación y el Conocimiento, 4(3), 267-273. | spa |
dcterms.references | Li, L., Yu, X., Jin, Z., Zhao, Z., Zhuang, X., & Liu, Z. (2020). FDnCNN-based image denoising for multi-labfel localization measurement. Measurement, 152. | spa |
dcterms.references | Lore, K., Akintayo, A., & Sarkar, S. (2017). LLNet: A deep autoencoder approach to natural low-light image enhancement. Pattern Recognition, 61, 650-662. | spa |
dcterms.references | Lv, H., & Li, H. (2021). Denoising method of low illumination underwater motion image based on improved canny. Microprocessors and microsystems, 82. | spa |
dcterms.references | Majumdar, A. (2019). Blind Denoising Autoencoder. IEEE Transactions on Neural Networks and Learning Systems, 30(1), 312-317. | spa |
dcterms.references | Marreiros, A., Daunizeau, J., Kiebel, S., & Friston, K. (2008). Population dynamics: Variance and the sigmoid activation function. NeuroImage, 42(1), 147-157. | spa |
dcterms.references | MathWorks. (s.f.). Métricas de calidad de imagen. Recuperado el 22 de Junio de 2021, de es.mathworks.com | spa |
dcterms.references | MathWorks. (s.f.). Soporte para ISO 26262 en MATLAB y Simulink. Recuperado el 3 de Julio de 2021, de es.mathworks.com | spa |
dcterms.references | McCulloch, W., & Pitts, W. (1943). A logical calculus of the ideas immanent in nervous activity. The bulletin of mathematical biophysics, 5(4), 115–133. | spa |
dcterms.references | McGunnigle, L. (2020). Berkely deep drive. | spa |
dcterms.references | McGunnigle, L. (2020). Berkely deep drive. | spa |
dcterms.references | Mérida, M. (2012). Reconocimiento biométrico basado en imágenes de huellas palmares. Universidad autónoma de Madrid. | spa |
dcterms.references | Microsoft. (s.f.). Visual Studio Code. Recuperado el Septiembre de 2021, de https://code.visualstudio.com/ | spa |
dcterms.references | Ministerio de educación. (30 de Noviembre de 2020). Protección de Datos Personales. Recuperado el 27 de Julio de 2021, de www.mineducacion.gov.co | spa |
dcterms.references | Ministerio de educación. (30 de Noviembre de 2020). Protección de Datos Personales. 103 Recuperado el 27 de Julio de 2021, de www.mineducacion.gov.co | spa |
dcterms.references | Ministerio de educación. (30 de Noviembre de 2020). Protección de Datos Personales. 103 Recuperado el 27 de Julio de 2021, de www.mineducacion.gov.co | spa |
dcterms.references | NumPy Developers. (s.f.). numpy.random.normal. Recuperado el 16 de Febrero de 2022, de https://numpy.org/doc/stable/reference/random/generated/numpy.random.normal.html | spa |
dcterms.references | NumPy Developers. (s.f.). numpy.random.normal. Recuperado el 16 de Febrero de 2022, de https://numpy.org/doc/stable/reference/random/generated/numpy.random.normal.html | spa |
dcterms.references | Oracle. (s.f.). Java. Recuperado el Septiembre de 2021, de dev.java | spa |
dcterms.references | Organización mundial de la salud (OMS). (2017). 10 datos sobre la seguridad vial en el mundo. Recuperado el 7 de Mayo de 2021, de https://www.who.int/ | spa |
dcterms.references | Organización mundial de la salud (OMS). (2017). 10 datos sobre la seguridad vial en el mundo. Recuperado el 7 de Mayo de 2021, de https://www.who.int/ | spa |
dcterms.references | Organización mundial de la salud (OMS). (2017). 10 datos sobre la seguridad vial en el mundo. Recuperado el 7 de Mayo de 2021, de https://www.who.int/ | spa |
dcterms.references | Organización mundial de la salud (OMS). (2017). 10 datos sobre la seguridad vial en el mundo. Recuperado el 7 de Mayo de 2021, de https://www.who.int/ | spa |
dcterms.references | Organización mundial de la salud (OMS). (2017). 10 datos sobre la seguridad vial en el mundo. Recuperado el 7 de Mayo de 2021, de https://www.who.int/ | spa |
dcterms.references | Python Software Foundation. (s.f.). Python. Recuperado el Septiembre de 2021, de 104 www.python.org/ | spa |
dcterms.references | Reddy, S., Mathew, M., Gomez, L., & Rusinol, K. D. (2020). RoadText-1K: Text Detection & Recognition Dataset for Driving Videos. | spa |
dcterms.references | Reddy, S., Mathew, M., Gomez, L., Rusinol, M., & Karatzas, D. (2020). RoadText-1K: Text Detection & Recognition Dataset for Driving Videos. 2020 IEEE International Conference on Robotics and Automation (ICRA). Paris. | spa |
dcterms.references | Riveros, J. (2013). Reconocimiento y tratamiento de imágenes en sistemas embebidos para la detección de enfermedades en plantas. Bogotá D.C.: Universidad de los andes. | spa |
dcterms.references | Rohrer, C. (2020). Adversarial detection using denoising autoencoder. Politecnico Milano. | spa |
dcterms.references | Rosenblatt, F. (1958). The perceptron: a probabilistic model for information storage and organization in the brain. Psychological review, 65(6), 386. | spa |
dcterms.references | SAE International. (30 de Abril de 2021). Taxonomy and Definitions for Terms Related to Driving Automation Systems for On-Road Motor Vehicles. Recuperado el 3 de Julio de 2021, de www.sae.org | spa |
dcterms.references | Szeliski, R. (2010). Computer Vision: Algorithms and Applications. Springer Science & Business Media. | spa |
dcterms.references | Tai, Y., Yang, J., Liu, X., & Xu, C. (2017). MemNet: A Persistent Memory Network for Image Restoration. Proceedings of the IEEE international conference on computer vision, (págs. 4539-4547). | spa |
dcterms.references | Talero, W. (2015). Seguridad en los autos con sistemas de apoyo a la conducción. Universidad Piloto de Colombia. | spa |
dcterms.references | Tian, C., Fei, L., Zheng, W., Xu, Y., & Lin, C.-W. (2020). Deep learning on image denoising: An overview. Neural Networks, 131, 251-275. | spa |
dcterms.references | Torres, L., Ardila, A., Contreras, G., Castro, S., Medina, B., & Guevara, D. (2022). DCAEAD: Denoising system for assisted driving images applying an autoencoder architecture. IEEE International Conference on Automation/XXV Congress of the Chilean Association of Automatic Control (ICA-ACCA). Curicó, Chile. | spa |
dcterms.references | Visual Data. (s.f.). Recuperado el 8 de Mayo de 2021, de https://visualdata.io/ | spa |
dcterms.references | Wang, S., Wang, H., Xiang, S., & Yu, L. (2020). Densely connected convolutional network block based autoencoder for panorama map compression. Signal Processing: Image Communication, 80, 115678. | spa |
dcterms.references | Wu, P., Liu, J., Li, M., Sun, Y., & Shen, F. (2020). Fast sparse coding networks for anomaly detection in videos. Pattern Recognition, 107, 107515. | spa |
dcterms.references | Xu, D., Yan, Y., Ricci, R., & Sebe, N. (2017). Detecting anomalous events in videos by learning deep representations of appearance and motion. Computer Vision and Image Understanding, 156, 117-127. | spa |
dcterms.references | Yapici, A., & Akcayol, A. (2021). A Review of Image Denoising With Deep Learning. 2nd International Informatics and Software Engineering Conference. Ankara, Turkey. | spa |
dcterms.references | Zhang, K., Zuo, W., Chen, Y., Meng, D., & Zhang, L. (2017). Beyond a Gaussian Denoiser: Residual Learning of Deep CNN for Image Denoising. IEEE Transactions on Image Processing, 26(7), 3142-3155. | spa |
dc.contributor.corporatename | Universidad Francisco de Paula Santander | spa |
dc.description.degreelevel | Pregrado | spa |
dc.description.degreename | Ingeniero(a) Electrónico(a) | spa |
dc.publisher.faculty | Facultad de Ingeniería | spa |
dc.publisher.place | San José de Cúcuta | spa |
dc.publisher.program | Ingeniería Electrónica | spa |
dc.rights.accessrights | info:eu-repo/semantics/openAccess | spa |
dc.rights.creativecommons | Atribución-NoComercial-CompartirIgual 4.0 Internacional (CC BY-NC-SA 4.0) | spa |
dc.subject.lemb | Corrección de ruido | |
dc.subject.lemb | Visión | |
dc.subject.lemb | Deep learning | |
dc.subject.proposal | Corrección de ruido | spa |
dc.subject.proposal | Deep learning | spa |
dc.subject.proposal | Visión | spa |
dc.type.coar | http://purl.org/coar/resource_type/c_7a1f | spa |
dc.type.content | Text | spa |
dc.type.driver | info:eu-repo/semantics/bachelorThesis | spa |
dc.type.redcol | https://purl.org/redcol/resource_type/TP | spa |
oaire.accessrights | http://purl.org/coar/access_right/c_abf2 | spa |
oaire.version | http://purl.org/coar/version/c_970fb48d4fbd8a85 | spa |
dc.type.version | info:eu-repo/semantics/publishedVersion | spa |
dc.contributor.jury | Moreno García, Francisco Ernesto | |
dc.contributor.jury | Páez Peña, Andrés Eduardo |