Yovine, Sergio FabiánMayr Ojeda, Franz2025-02-242025-02-242024Molinolo De Ferrari, M. (2024) Exploring attention patterns and neural activations in transformer architectures for sequence classification in context free grammars (Proyecto). Universidad ORT Uruguay, Facultad de Ingeniería. Recuperado de https://rad.ort.edu.uy/handle/20.500.11968/7131https://hdl.handle.net/20.500.11968/7131Incluye bibliografía y anexos.El siguiente proyecto investiga los patrones de atención y activaciones neuronales en modelos con arquitecturas Transformer, específicamente en tareas de clasificación de secuencias de lenguajes Dyck-k, que son ejemplos de gramáticas libres de contexto. Se analiza si los Transformers pueden modelar y clasificar estos lenguajes, centrándose en su capacidad de aprender estructuras recursivas. Los resultados empíricos muestran que los patrones de atención coinciden con las dependencias estructurales de las secuencias. Se observó que las máscaras bidireccionales mejoran significativamente el rendimiento, mientras que las máscaras causales limitan la entrenabilidad. Además, el proyecto destaca la importancia de los mecanismos de atención para reconocer lenguajes jerárquicos. Se desarrolló la librería "transformer-checker", que facilita el entrenamiento, evaluación y visualización de Transformers en tareas de lenguajes formales, con un módulo de explicabilidad para analizar las matrices de atención. El código está disponible públicamente.54 p., tbls., grafs.PDFAcceso abiertoPROYECTOS-IDDESARROLLO DE SOFTWAREINTELIGENCIA ARTIFICIALREDES NEURONALESMODELOS DE LENGUAJE GRANDELENGUAJES FORMALESExploring attention patterns and neural activations in transformer architectures for sequence classification in context free grammarsTrabajo final de carrera