Press Enter to Search
hackaton-musical

¿Que es? ¿De dónde surge?

MIDInect es una interfaz MIDI, que utiliza como elemento de interacción el sensor Kinect, un escáner 3D, creado para explorar nuevas formas de interacción Hombre-Máquina. Las variables que utiliza son las variaciones de forma y distribución espacial, permitiendo que múltiples personas, objetos o construcciones móviles, generen sonidos.

Las principales motivaciones para encarar este proyecto fueron: el aprendizaje de técnicas de procesamiento de imágenes, en este caso, de un ”Point Cloud”, y analizar la viabilidad técnica, de realizar la segmentación y extracción de features utilizando Python y OpenCV.

¿Cómo funciona?

El sistema permite dos tipos de mensajes: nota MIDI (Note on y note off) y eventos de control (CC)

La detección se realiza seleccionando una banda del espacio, y detectando las variaciones que suceden dentro de ella. Esa banda se divide en una grilla, a partir de las cual se envía el mensaje MIDI correspondiente, en forma similar a un Laser Harp.

Una vez que se detecta un objeto, se comienza a monitorear su desplazamiento, y forma, enviando mensajes de control, a partir de esas características. Esto permite “Modular” el sonido generado a su vez que se disparan nuevos sonidos.

A fin de simplificar el “aprendizaje” de eventos MIDI desde el software a utilizar (en este caso Ableton Live®) se pueden simular los eventos desde el teclado de la computadora.

Se logró llegar a un prototipo funcional que fue utilizado por el público el último día de la Hackatón.

Copia de P1040563

Desarrollador

Referencias

t Twitter f Facebook g Google+