Mostrar el registro sencillo del ítem

dc.contributor.advisorMedina Delgado, Byron
dc.contributor.advisorContreras Contreras, Ghiordy Ferney
dc.contributor.authorTorres Vega, Luis Carlos
dc.date.accessioned2024-04-01T14:55:02Z
dc.date.available2024-04-01T14:55:02Z
dc.date.issued2023-03-01
dc.identifier.urihttps://repositorio.ufps.edu.co/handle/ufps/6771
dc.description.abstractEsta investigación tuvo como finalidad desarrollar un sistema que permitió corregir el ruido presente en imágenes de conducción asistida, esto por medio del uso de redes neuronales de tipo autoencoder. Para dar cumplimiento a los objetivos se planteó una metodología estructurada en 5 fases, lo cual permitió llevar a cabo actividades orientadas a cada uno de los objetivos específicos establecidos. Como resultado se pudo apreciar una mejora en la calidad de las imágenes procesadas, esto en función de métricas objetivas de calidad como la proporción máxima de señal a ruido (PSNR) o la medida del índice de similitud estructural (SSIM), incrementando hasta 17 dB el valor de PSNR respecto al obtenido por la imagen con ruido y obteniendo imágenes de 99% de similitud estructural, lo anterior en las pruebas realizadas con ruido Sal & Pimienta; en cuanto a los resultados con ruido Gaussiano, se pudieron obtener ganancias de 9 dB en el PSNR y hasta un 83% de similitud estructural, respuesta que se debe a la forma como el ruido Gaussiano se manifiesta en la imagen, dificultando su modelado y correspondiente procesamiento.spa
dc.description.tableofcontentsIntroducción 1. 2. Descripción del Problema 1.1. 1.2. Planteamiento del Problema Justificación 1.2.1. Beneficios Tecnológicos 1.2.2. Beneficios Científicos 1.3. Alcance 1.3.1. Resultados Esperados 1.3.2. Impacto Social 1.4. Limitaciones 1.4.1. Hardware 1.4.2. Software 1.5. Delimitaciones 1.5.1. Conceptual 1.5.2. Espacial 1.5.3. Temporal 1.6. Objetivos 1.6.1. General 1.6.2. Específicos Marco Referencial 17 19 19 22 23 23 24 24 24 25 25 25 26 26 26 26 27 27 27 28 2.1. Antecedentes 28 2.1.1. Deep Learning on Image Denoising: An Overview 2.1.2. Autoencoders Based Deep Learner for Image Denoising 2.1.3. Devdan: Deep Evolving Denoising Autoencoder 2.1.4. Llnet: A Deep Autoencoder Approach to Natural Low-Hight Image Enhancement 2.1.5. Underwater Color Restoration Using U-Net Denoising Autoencoder 2.2. Marco teórico 2.2.1. Conducción Asistida 2.2.2. Obtención de Información del Entorno 2.2.2.1. Radar. 2.2.2.2. Cámaras. 2.2.2.3. LASER Imaging Detection and Ranging (LiDAR). 2.2.2.4. Sensores de Proximidad (Ultrasonido). 2.2.3. Tipos de Imágenes y Métodos de Denoising 2.2.3.1. Eliminación de Ruido Blanco Aditivo. 2.2.3.2. Eliminación de Ruido en Imágenes Realmente Ruidosas. 2.2.3.3. Eliminación de Ruido a Ciegas. 2.2.3.4. Eliminación de Ruido Híbrido. 2.2.4. Redes Neuronales 2.2.5. Autoencoders 2.2.6. Métricas Aplicadas en el Procesamiento de Imágenes 2.2.6.1. Relación de Compresión (CR). 29 29 29 30 30 31 31 32 32 32 33 33 33 34 34 34 35 35 36 37 38 2.2.6.2. Mean Squared Error (MSE). 38 2.2.6.3. Peak Signal-to-Noise Ratio (PSNR). 2.2.6.4. Structural Similarity Index (SSIM). 2.3. Marco legal 2.3.1. Reglamentación en el Ámbito de la Conducción Asistida 2.3.2. Uso de Software Libre 2.3.3. Tratamiento de Datos 3. 4. Metodología 3.1. 3.2. 3.3. 3.4. 3.5. Análisis Diseño Implementación Evaluación Divulgación Resultados 4.1. Métodos de Denoising y Requerimientos Técnicos 4.1.1. Revisión del Estado del Arte 4.1.2. Identificación de Métodos de Denoising 4.1.2.1. Tipos de Ruido. 4.1.2.2. Métodos de Denoising. 4.1.3. Requerimientos de la Problemática 4.1.3.1. Costo Computacional. 4.1.3.2. Métricas. 4.2. 39 39 40 41 42 43 45 45 46 47 48 49 50 50 50 51 52 54 55 55 58 Diseño del Algoritmo DCAEAD 60 4.2.1. Fuentes de Libre Acceso 60 4.2.1.1. Lenguaje de Programación. 4.2.1.2. Entorno de Desarrollo Integrado (IDE). 4.2.1.3. Dataset. 4.2.2. Asignación de Recursos 4.2.2.1. Selección del Lenguaje de Programación. 4.2.2.2. Selección del Entorno de Desarrollo Integrado. 4.2.2.3. Selección del Dataset. 4.2.3. Estructura del Software 4.2.3.1. Parámetros de la Red. 4.3. Implementación y Pruebas de Funcionamiento 4.3.1. Programación en Python 4.3.1.1. Lectura y Procesamiento de los Datos. 4.3.1.2. Insertar Ruido. 4.3.1.3. Modelo del Sistema DCAEAD. 4.3.1.4. Entrenamiendo del Sistema. 4.3.2. Ajuste del Software a los Requerimientos 4.3.3. Pruebas Unitarias 4.3.3.1. Pruebas con Ruido Gaussiano. 4.3.3.2. Pruebas con Ruido Salt & Pepper. 4.4. Evaluación del Sistema 4.4.1. Análisis Estadístico 4.4.1.1. Resultados con AWGN. 60 61 62 64 65 69 69 69 71 72 72 72 74 75 77 77 80 81 82 84 85 85 4.4.1.2. Resultados con Ruido Salt & Pepper. 87 4.4.1.3. Ganancia del Sistema en Función de PSNR y SSIM. 4.4.1.4. Contrastar Resultados. 4.4.2. Análisis de Costo Computacional 4.4.3. Retroalimentación 4.5. 5. Divulgación de Resultados Conclusiones Referencias Bibliográficas Anexos 89 91 91 93 94 96 98 106spa
dc.format.extent118 páginas. ilustraciones,(Trabajo completo) 3.539 KBspa
dc.format.mimetypeapplication/pdfspa
dc.language.isospaspa
dc.publisherUniversidad Francisco de Paula Santanderspa
dc.rightsDerechos Reservados - Universidad Francisco de Paula Santander, 2023spa
dc.sourcehttps://catalogobiblioteca.ufps.edu.co/descargas/tesis/1161637.pdfspa
dc.titleSistema de corrección de ruido en imágenes de conducción asistida implementando redes neuronales de tipo autoencoderspa
dc.typeTrabajo de grado - Pregradospa
dcterms.referencesAgencia Nacional de Seguridad Vial. (s.f.). Cifras año en curso. Recuperado el Enero de 2023, de https://ansv.gov.co/es/observatorio/estad%C3%ADsticas/cifras-ano-en-cursospa
dcterms.referencesAhn, B. C. (2017). Block-Matching Convolutional Neural Network for Image Denoising. Computer Vision and Pattern Recognition.spa
dcterms.referencesAnwar, S., & Barnes, N. (2019). Real Image Denoising With Feature Attention. Proceedings of the IEEE/CVF International Conference on Computer Vision. Seoul, Korea.spa
dcterms.referencesAshfahani, A., Pratama, M., Lughofer, E., & Ong, Y.-S. (2020). DEVDAN: Deep evolving denoising autoencoder. Neurocomputing, 390, 297-314.spa
dcterms.referencesAtienza, R. (2018). Advanced Deep Learning with Keras: Apply deep learning techniques, autoencoders, GANs, variational autoencoders, deep reinforcement learning, policy gradients, and more. Packt Publishing Ltd.spa
dcterms.referencesBajaj, K., Kumar, D., & Aquib, M. (2020). Autoencoders Based Deep Learner for Image Denoising. Procedia Computer Science, 171, 1535-1541.spa
dcterms.referencesBank, D., Koenigstein, N., & Giryes, R. (2021). Autoencoders. arXiv.spa
dcterms.referencesBarradas, C. (2020). Estudio y diseño de un proceso de monitorización aplicado aun motor eléctrico por medio de la inteligencia artificial. Barcelona: Universidad politècnica de Catalunya.spa
dcterms.referencesBenavides, Ó. (2004). La innovación tecnológica desde una perspectiva evolutiva. Cuadernos de economía, 23(41), 49-70.spa
dcterms.referencesBurguillos, C. (2016). Algoritmos de lenguaje máquina para la detección de vehículos mediante cámaras infrarrojas. Universidad Carlos III de Madrid.spa
dcterms.referencesC++ Foundation. (s.f.). News, Status & Discussion about Standard C++. Recuperado el 99 Septiembre de 2021, de https://isocpp.org/spa
dcterms.referencesCano, L., & Bautista, R. (2019). Alcance del derecho al olvido en el tratamiento de datos personales en Colombia. Verba luris(41), 45-63.spa
dcterms.referencesCaparrós, A. (1999). El comportamiento humano en conducción: factores perceptivos, cognitivos y de respuesta. Cognición y Psicología Aplicada a la conducción de vehículos .spa
dcterms.referencesCharte, F. (2021). Autoencoders ¿Qué son, para qué sirven y cómo funcionan? Jaén: DaSCI.spa
dcterms.referencesChristian, S., Wei, L., Yangqing, J., Pierre, S., Scott, R., Dragomir, A., . . . Andrew, R. (2015). Going deeper with convolutions. Conference on Computer Vision and Pattern Recognition (CVPR). Boston, USA.spa
dcterms.referencesCongreso de Colombia. (1993). Ley 44 de 1993. Recuperado el Enero de 2023, de https://www.funcionpublica.gov.co/eva/gestornormativo/norma.php?i=3429#:~:text=%22 Los%20derechos%20consagrados%20a%20favor,a%20partir%20de%20su%20muerte.spa
dcterms.referencesContinental. (2020). Blind Spot Detection. Recuperado el 6 de Mayo de 2021, de http://www.continental-corporation.comspa
dcterms.referencesContreras, G., Pabón, J., García, H., Rojas, F., & Arguello, H. (2021). Correction of Designed Compressive Spectral Imaging Measurements Using a Deep Learning-Based Method. XXIII Symposium on Image, Signal Processing and Artificial Vision (STSIVA). Popayán, Colombia.spa
dcterms.referencesDabov, K., Foi, A., Katkovnik, V., & Egiazarian, K. (2007). Image Denoising by Sparse 3-D Transform-Domain Collaborative Filtering. IEEE Transactions on Image Processing , 16(8), 2080 - 2095.spa
dcterms.referencesde los Reyes, Á. (2019). Análisis de rendimiento de eutoencoders en entornos big data. Madrid: Universidad Carlos III.spa
dcterms.referencesDoulamis, N., Doulamis, A., Voulodimos, A., & Protopapadakis, E. (2018). Deep Learning for Computer Vision: A Brief Review. Computational intelligence and neuroscience, 2018.spa
dcterms.referencesElad, M., & Aharon, M. (2006). Image Denoising Via Sparse and Redundant Representations Over Learned Dictionaries. IEEE Transactions on Image Processing, 15(12), 3736-3745.spa
dcterms.referencesEsqueda, J. (2002). Fundamentos de Procesamiento de Imágenes. CONATEC.spa
dcterms.referencesFernández, M. (1996). Señales aleatorias y ruido. Valladolid: E.T.S. de Ingenieros de Telecomunicación.spa
dcterms.referencesFlorez, M. (2001). Los sistemas inteligentes de transporte ITS. Ciencia e Ingeniería Neogranadina(10), 39-45.spa
dcterms.referencesGoogle. (s.f.). What is Colaboratory? Recuperado el Septiembre de 2021, de https://colab.research.google.com/spa
dcterms.referencesGu, S., Zhang, L., Zuo, W., & Feng, X. (2014). Weighted Nuclear Norm Minimization with Application to Image Denoising. IEEE Conference on Computer Vision and Pattern Recognition. Columbus, OH, USA.spa
dcterms.referencesGupta, A., Anpalagan, A., Guan, L., & Shaharyar, A. (2021). Deep learning for object detection and scene perception in self-driving cars: Survey, challenges, and open issues. Array, 100057, 10.spa
dcterms.referencesHashisho, Y., Albadawi, M., Krause, T., & Freiherr, U. (2019). Underwater Color Restoration Using U-Net Denoising Autoencoder. 11th International Symposium on Image and Signal Processing and Analysis (ISPA). Dubrovnik, Croatia.spa
dcterms.referencesHoré, A., & Ziou, D. (2010). Image Quality Metrics: PSNR vs. SSIM. 20th International 101 Conference on Pattern Recognition. Istanbul, Turkey.spa
dcterms.referencesHuynh-Thu, Q., & Mohammed, G. (2008). Scope of validity of PSNR in image/video quality assessment. Electronics letters, 44(13), 800-801.spa
dcterms.referencesJain, P., & Tyagi, V. (2016). A survey of edge-preserving image denoising methods. Information Systems Frontiers, 18, 159-170.spa
dcterms.referencesJarrett, K., Kavukcuoglu, K., Ranzato, A., & LeCun, Y. (2009). What is the best multi-stage architecture for object recognition? 12th International Conference on Computer Vision. Kyoto, Japon.spa
dcterms.referencesJetBrains. (s.f.). PyCharm. Recuperado el Sepptiembre de 2021, de www.jetbrains.com/eses/pycharm/spa
dcterms.referencesKotevski, Z., & Mitrevski, P. (2009). Experimental Comparison of PSNR and SSIM Metrics for Video Quality Estimation. ICT Innovations, 357-366.spa
dcterms.referencesLarrue, T., Li, Y., Meng, X., & Han, C.-M. (2018). Denoising Videos with Convolutional Autoencoders. Proceedings of ACM Conference. New York: University of Maryland.spa
dcterms.referencesLau, M., & Hann, K. (2018). Review of Adaptive Activation Function in Deep Neural Network. Conference on Biomedical Engineering and Sciences (IECBES). Sarawak, Malasia.spa
dcterms.referencesLeal, J. (2021). Características de la infraestructura que pueden favorecer la conducción asistida y automatizada. Revista digital del CEDEX(197), 106-117.spa
dcterms.referencesLeón, A., Bermeo, J., Paredes, J., & Torres, H. (2020). Una revisión de las métricas aplicadas en el procesamiento de imágenes. RECIMUNDO: Revista Científica de la Investigación y el Conocimiento, 4(3), 267-273.spa
dcterms.referencesLi, L., Yu, X., Jin, Z., Zhao, Z., Zhuang, X., & Liu, Z. (2020). FDnCNN-based image denoising for multi-labfel localization measurement. Measurement, 152.spa
dcterms.referencesLore, K., Akintayo, A., & Sarkar, S. (2017). LLNet: A deep autoencoder approach to natural low-light image enhancement. Pattern Recognition, 61, 650-662.spa
dcterms.referencesLv, H., & Li, H. (2021). Denoising method of low illumination underwater motion image based on improved canny. Microprocessors and microsystems, 82.spa
dcterms.referencesMajumdar, A. (2019). Blind Denoising Autoencoder. IEEE Transactions on Neural Networks and Learning Systems, 30(1), 312-317.spa
dcterms.referencesMarreiros, A., Daunizeau, J., Kiebel, S., & Friston, K. (2008). Population dynamics: Variance and the sigmoid activation function. NeuroImage, 42(1), 147-157.spa
dcterms.referencesMathWorks. (s.f.). Métricas de calidad de imagen. Recuperado el 22 de Junio de 2021, de es.mathworks.comspa
dcterms.referencesMathWorks. (s.f.). Soporte para ISO 26262 en MATLAB y Simulink. Recuperado el 3 de Julio de 2021, de es.mathworks.comspa
dcterms.referencesMcCulloch, W., & Pitts, W. (1943). A logical calculus of the ideas immanent in nervous activity. The bulletin of mathematical biophysics, 5(4), 115–133.spa
dcterms.referencesMcGunnigle, L. (2020). Berkely deep drive.spa
dcterms.referencesMcGunnigle, L. (2020). Berkely deep drive.spa
dcterms.referencesMérida, M. (2012). Reconocimiento biométrico basado en imágenes de huellas palmares. Universidad autónoma de Madrid.spa
dcterms.referencesMicrosoft. (s.f.). Visual Studio Code. Recuperado el Septiembre de 2021, de https://code.visualstudio.com/spa
dcterms.referencesMinisterio de educación. (30 de Noviembre de 2020). Protección de Datos Personales. Recuperado el 27 de Julio de 2021, de www.mineducacion.gov.cospa
dcterms.referencesMinisterio de educación. (30 de Noviembre de 2020). Protección de Datos Personales. 103 Recuperado el 27 de Julio de 2021, de www.mineducacion.gov.cospa
dcterms.referencesMinisterio de educación. (30 de Noviembre de 2020). Protección de Datos Personales. 103 Recuperado el 27 de Julio de 2021, de www.mineducacion.gov.cospa
dcterms.referencesNumPy Developers. (s.f.). numpy.random.normal. Recuperado el 16 de Febrero de 2022, de https://numpy.org/doc/stable/reference/random/generated/numpy.random.normal.htmlspa
dcterms.referencesNumPy Developers. (s.f.). numpy.random.normal. Recuperado el 16 de Febrero de 2022, de https://numpy.org/doc/stable/reference/random/generated/numpy.random.normal.htmlspa
dcterms.referencesOracle. (s.f.). Java. Recuperado el Septiembre de 2021, de dev.javaspa
dcterms.referencesOrganización mundial de la salud (OMS). (2017). 10 datos sobre la seguridad vial en el mundo. Recuperado el 7 de Mayo de 2021, de https://www.who.int/spa
dcterms.referencesOrganización mundial de la salud (OMS). (2017). 10 datos sobre la seguridad vial en el mundo. Recuperado el 7 de Mayo de 2021, de https://www.who.int/spa
dcterms.referencesOrganización mundial de la salud (OMS). (2017). 10 datos sobre la seguridad vial en el mundo. Recuperado el 7 de Mayo de 2021, de https://www.who.int/spa
dcterms.referencesOrganización mundial de la salud (OMS). (2017). 10 datos sobre la seguridad vial en el mundo. Recuperado el 7 de Mayo de 2021, de https://www.who.int/spa
dcterms.referencesOrganización mundial de la salud (OMS). (2017). 10 datos sobre la seguridad vial en el mundo. Recuperado el 7 de Mayo de 2021, de https://www.who.int/spa
dcterms.referencesPython Software Foundation. (s.f.). Python. Recuperado el Septiembre de 2021, de 104 www.python.org/spa
dcterms.referencesReddy, S., Mathew, M., Gomez, L., & Rusinol, K. D. (2020). RoadText-1K: Text Detection & Recognition Dataset for Driving Videos.spa
dcterms.referencesReddy, S., Mathew, M., Gomez, L., Rusinol, M., & Karatzas, D. (2020). RoadText-1K: Text Detection & Recognition Dataset for Driving Videos. 2020 IEEE International Conference on Robotics and Automation (ICRA). Paris.spa
dcterms.referencesRiveros, J. (2013). Reconocimiento y tratamiento de imágenes en sistemas embebidos para la detección de enfermedades en plantas. Bogotá D.C.: Universidad de los andes.spa
dcterms.referencesRohrer, C. (2020). Adversarial detection using denoising autoencoder. Politecnico Milano.spa
dcterms.referencesRosenblatt, F. (1958). The perceptron: a probabilistic model for information storage and organization in the brain. Psychological review, 65(6), 386.spa
dcterms.referencesSAE International. (30 de Abril de 2021). Taxonomy and Definitions for Terms Related to Driving Automation Systems for On-Road Motor Vehicles. Recuperado el 3 de Julio de 2021, de www.sae.orgspa
dcterms.referencesSzeliski, R. (2010). Computer Vision: Algorithms and Applications. Springer Science & Business Media.spa
dcterms.referencesTai, Y., Yang, J., Liu, X., & Xu, C. (2017). MemNet: A Persistent Memory Network for Image Restoration. Proceedings of the IEEE international conference on computer vision, (págs. 4539-4547).spa
dcterms.referencesTalero, W. (2015). Seguridad en los autos con sistemas de apoyo a la conducción. Universidad Piloto de Colombia.spa
dcterms.referencesTian, C., Fei, L., Zheng, W., Xu, Y., & Lin, C.-W. (2020). Deep learning on image denoising: An overview. Neural Networks, 131, 251-275.spa
dcterms.referencesTorres, L., Ardila, A., Contreras, G., Castro, S., Medina, B., & Guevara, D. (2022). DCAEAD: Denoising system for assisted driving images applying an autoencoder architecture. IEEE International Conference on Automation/XXV Congress of the Chilean Association of Automatic Control (ICA-ACCA). Curicó, Chile.spa
dcterms.referencesVisual Data. (s.f.). Recuperado el 8 de Mayo de 2021, de https://visualdata.io/spa
dcterms.referencesWang, S., Wang, H., Xiang, S., & Yu, L. (2020). Densely connected convolutional network block based autoencoder for panorama map compression. Signal Processing: Image Communication, 80, 115678.spa
dcterms.referencesWu, P., Liu, J., Li, M., Sun, Y., & Shen, F. (2020). Fast sparse coding networks for anomaly detection in videos. Pattern Recognition, 107, 107515.spa
dcterms.referencesXu, D., Yan, Y., Ricci, R., & Sebe, N. (2017). Detecting anomalous events in videos by learning deep representations of appearance and motion. Computer Vision and Image Understanding, 156, 117-127.spa
dcterms.referencesYapici, A., & Akcayol, A. (2021). A Review of Image Denoising With Deep Learning. 2nd International Informatics and Software Engineering Conference. Ankara, Turkey.spa
dcterms.referencesZhang, K., Zuo, W., Chen, Y., Meng, D., & Zhang, L. (2017). Beyond a Gaussian Denoiser: Residual Learning of Deep CNN for Image Denoising. IEEE Transactions on Image Processing, 26(7), 3142-3155.spa
dc.contributor.corporatenameUniversidad Francisco de Paula Santanderspa
dc.description.degreelevelPregradospa
dc.description.degreenameIngeniero(a) Electrónico(a)spa
dc.publisher.facultyFacultad de Ingenieríaspa
dc.publisher.placeSan José de Cúcutaspa
dc.publisher.programIngeniería Electrónicaspa
dc.rights.accessrightsinfo:eu-repo/semantics/openAccessspa
dc.rights.creativecommonsAtribución-NoComercial-CompartirIgual 4.0 Internacional (CC BY-NC-SA 4.0)spa
dc.subject.lembCorrección de ruido
dc.subject.lembVisión
dc.subject.lembDeep learning
dc.subject.proposalCorrección de ruidospa
dc.subject.proposalDeep learningspa
dc.subject.proposalVisiónspa
dc.type.coarhttp://purl.org/coar/resource_type/c_7a1fspa
dc.type.contentTextspa
dc.type.driverinfo:eu-repo/semantics/bachelorThesisspa
dc.type.redcolhttps://purl.org/redcol/resource_type/TPspa
oaire.accessrightshttp://purl.org/coar/access_right/c_abf2spa
oaire.versionhttp://purl.org/coar/version/c_970fb48d4fbd8a85spa
dc.type.versioninfo:eu-repo/semantics/publishedVersionspa
dc.contributor.juryMoreno García, Francisco Ernesto
dc.contributor.juryPáez Peña, Andrés Eduardo


Ficheros en el ítem

Thumbnail

Este ítem aparece en la(s) siguiente(s) colección(ones)

Mostrar el registro sencillo del ítem