Fractal sounds : Generación musical e interactiva por medio de machine learning y sampling aplicado a fractales

dc.contributor.advisorFonseca De Oliveira, André Luiz
dc.contributor.advisorBarros Andrade, Fabián
dc.contributor.tribunalCohn Noachas, Ilan
dc.contributor.tribunalZapata, Emiliano
dc.creatorLanzani Lagomarsino, Ignacio
dc.creatorRodríguez Barreto, Gabriel
dc.creatorCarbajal Otton, María José
dc.date.accessioned2024-06-07T13:51:13Z
dc.date.available2024-06-07T13:51:13Z
dc.date.issued2024
dc.descriptionIncluye bibliografía y anexos.
dc.description.abstractEl siguiente proyecto introduce un sistema integrado que combina música, movimiento corporal y generación de elementos visuales en tiempo real, haciendo uso de técnicas avanzadas de aprendizaje automático, visión por computadora y generación de imágenes basadas en fractales. Su principal innovación es ofrecer una experiencia multisensorial envolvente, diseñada no solo para entretener sino también para impulsar la expresión creativa y personal de los usuarios mediante una interacción intuitiva con la música y las visualizaciones generadas. Mediante la captura de movimientos del usuario, se facilita una interacción dinámica con los elementos visuales, lo que resulta en la creación de composiciones musicales únicas. Este proceso se apoya en una metodología que integra el aprendizaje automático (machine learning) para capturar movimiento y generar música a través del protocolo MIDI, junto con la producción de audio utilizando REAPER. Este proyecto destaca por su accesibilidad, ya que está diseñado para funcionar en computadoras personales con sistema operativo Windows, utilizando cámaras web estándar para la captura de movimiento. Esto facilita su implementación en una amplia variedad de entornos domésticos. Al explorar la relación dinámica entre música, imagen y movimiento, este proyecto no solo avanza las fronteras de la creación artística tecnológica sino que también ofrece una plataforma para la expresión personal y la experimentación creativa. De esta manera, promueve la integración entre la tecnología musical y visual para enriquecer la experiencia humana a través del movimiento. Estas características introducen componentes de HIC y UX design que guiaron este producto a su destino final.
dc.format.extent133 p. il., diagrs., tbls.
dc.format.mimetypePDF
dc.identifier.citationLanzani Lagomarsino, I., Rodríguez Barreto, G., Carbajal Otton, M. J. (2024). Fractal sounds Generación musical e interactiva por medio de machine learning y sampling aplicado a fractales (Proyecto). Universidad ORT Uruguay, Facultad de Ingeniería. Recuperado de https://rad.ort.edu.uy/handle/20.500.11968/6968
dc.identifier.urihttps://hdl.handle.net/20.500.11968/6968
dc.languagespa
dc.publisherUniversidad ORT Uruguay
dc.relation.otherhttps://sisbibliotecas.ort.edu.uy/bib/95684
dc.rights.levelAcceso abierto
dc.subjectPROYECTOS-YI
dc.subjectAPRENDIZAJE AUTOMÁTICO
dc.subjectMÚSICA
dc.subjectMIDI
dc.subjectFRACTALES
dc.subjectEXPERIENCIA DE USUARIO
dc.titleFractal sounds
dc.title.subtitleGeneración musical e interactiva por medio de machine learning y sampling aplicado a fractales
dc.typeTrabajo final de carrera
dc.type.versionVersión publicada
ort.thesis.careerFI - Ingeniería en Electrónica - IZ
ort.thesis.degreegrantorFacultad de Ingeniería
ort.thesis.degreelevelCarrera universitaria
ort.thesis.degreenameIngeniero en Electrónica
ort.thesis.degreetypeProyecto
ort.thesis.noteProyecto (Carrera Universitaria). Universidad ORT Uruguay, Facultad de Ingeniería
Files
Original bundle
Now showing 1 - 1 of 1
Loading...
Thumbnail Image
Name:
Material completo.pdf
Size:
29 MB
Format:
Adobe Portable Document Format
Description: