Javier Figueroa

Heliodón Interactivo

 

¿Qué tienen en común un arquitecto con un músico o un artesano?
Todo proceso de diseño por muy grande o complejo que sea involucra traer el mundo a nuestra escala para poder así intervenirlo. Que tan directas a nuestra propia sensibilidad sean las herramientas con las que contemos influirá cuanto podremos experimentar y encontrar nuevas soluciones que antes pudimos no haber visto, ya se trate de un acorde o el diseño de una ciudad.

En el diseño en arquitectura es necesario entender múltiples y complejas variables espaciales que interactúan entre si y que muchas veces no alcanzamos siquiera a considerar en nuestros procesos de diseño. El descollante desarrollo de programas computacionales, principalmente orientados a la construcción, ahondan más el quiebre entre el desarrollo de la industria y el trabajo de experimentación en taller que tradicionalmente nos enseñan en las universidades.
Frente a esta falta de continuidad entre los procesos análogos y digitales mi proyecto plantea combinar el trabajo a través modelos a escala y elementos físicos con programas de modelamiento y análisis permitiendo procesos de diseño que favorezcan la experimentación y por sobre todo la libertad sin tener que perder la rigurosidad en nuestras propuestas. Poder visualizar, y aún más importante, manipular de manera fluida datos desde ambientales, como asoleamiento o ventilación, hasta información de escala urbana como movilidad todo en un mismo dispositivo y con la premisa de no alejar el ojo de la mano.

El primer desarrollo es un heliodón interactivo. Los heliodones son dispositivos
mecánicos para realizar estudios solares en modelos a escala de arquitectura que
operan al ajustar los ángulo en azimut (planta) y altura de una fuente de iluminación que simula ser el haz de luz solar en relación a una superficie plana donde se ubican las maquetas. El problema es que no es posible registrar los datos que arrojan más que de manera visual y al tratarse de un sistema análogo muchas veces resultan más una herramienta de comprobación que parte integral a los procesos de diseño. Por otro lado existen potentes programas computacionales que permiten hacer estudios de radiación solar e iluminación. Sin embargo tienen la debilidad que al ser modelos digitales, se pierde la riqueza del trabajo manual que involucra el trabajar con modelos físicos.
Actualmente se encuentra desarrollado en su primera etapa para el análisis de
modelos bidimensionales para trabajar con superficies o secciones de edificios.

La segunda etapa, aún en desarrollo, involucra el análisis de profundidad para integrar modelos tridimensionales.

El dispositivo consta de una superficie traslucida con dos cámaras más un proyector para poder visualizar los resultados directamente en la misma superficie. Adicionalmente otros sensores ayudan a orientar y desplazar los objetos digitales para hacer más fluido el trabajo.

La cámara de video infrarrojo captura los objetos colocados sobre la superficie translucida, el código funciona de tal manera que digitaliza solo los objetos próximos esto gracias al foco de led infrarrojo (DIY) que al operar en un haz espectro de luz específico elimina cualquier otra contaminación lumínica de luz artificial, en este caso la proveniente del proyector.

Mientras el o los objetos son modelados como superficies es necesario desplazarlos y orientarlos en el espacio para hacer más fluido el trabajo. Para esto se decidió utilizar un teléfono android que envía la rotación en los tres ejes del aparato y la posición en x e y mediante el sistema touch.
Para realizar los estudios solares es necesario modificar la posición en altura y azimut del sol de acuerdo al día del año y hora del día específicos. Para esto otra cámara bajo la superficie captura los códigos de reactivision asignados a cada mes y hora.
Toda esta cantidad de información es enviada a programas de modelamiento y
enlazada a programas específicos con los cuales son realizados en tiempo real los
estudios de asoleamiento y radiación propiamente tal.
La segunda etapa implica la captura de objetos tridimensionales a través de una
cámara de profundidad (kinect). Para esto se requiere construir una estructura
controlada por arduino capaz de desplazar la ubicación del kinect de acuerdo a los ángulos de azimut y altura según la posición del sol y en coordinación con el modelo digital.

Link: http://hapticarq.wordpress.com/

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out /  Change )

Twitter picture

You are commenting using your Twitter account. Log Out /  Change )

Facebook photo

You are commenting using your Facebook account. Log Out /  Change )

Connecting to %s