Computación sensible, el día que el ordenador empezó a sentir

siri-ejemplos Si simplificamos al mínimo común la interacción entre ser humano y ordenador lo podemos reducir a la introducción de inputs. Un teclado, un ratón, objetos mecánicos que traducen las pulsaciones o los movimientos… Tradicionalmente esta acción ha sido siempre activa, producida por el usuario.

Sin embargo, desde hace tiempo la computación sensible ha saltado del mundo de la investigación a la realidad del gran público. Asistentes de voz, sistemas de monitorización a través de webcam… La computación sensible está más cerca. Que se quede o no, está por ver.

Ordenadores que “sienten”

Aunque se habla de computación sensible, lo cierto es que resulta difícil decir que un ordenador, y por extensión cualquier gadget, es capaz de sentir. Pueden captar más información de forma pasiva, de eso no hay duda, pero hablar de sentir resulta un tanto tendencioso.



Resumiendo mucho, la computación sensible es la tendencia que estamos viendo en los últimos años por introducir todo tipo de sensores y software para captar información del entorno y traducirla en diferentes acciones.

Tenemos de todo. Elementos sencillos como sensores de temperatura a otros más complejos como reconocimiento de voz y ejecución de comandos… Todos conocemos los proyectos más comerciales: Siri, Kinect, Sherpa…

Todos nos los venden como algo realmente útil: ahora el ordenador te escucha, te oye, reconoce tus movimientos y tú eres el “mando”. Ya sabéis, la gente de marketing. Al caso, la computación sensible parece una tendencia de futuro y lo cierto es que hay algunos sistemas bastante avanzados.

Kinect

Sin embargo, más allá de su progreso, cabe cuestionarse su utilidad. Durante muchos años nos hemos acostumbrado a sistemas de inputs mecánicos activos. Sin ir más lejos, estas líneas las estoy escribiendo con un teclado cuando en un futuro podría hacerlo con un sistema de dictado.

Sin embargo, no sería lo más práctico en todos los contextos. De hecho, si escribiera estas líneas con dictado de voz, ahora mismo mi novia me tiraría un libro a la cabeza porque ella está dando una clase particular a tres metros de donde estoy sentado.

Vamos por la calle y tenemos que buscar una dirección. ¿Sostenemos el móvil y le hablamos para que nos busque el sitio? Quizá, es una solución más práctica escribir pulsando los dedos. De hecho, a veces puede ser frustrante cuando falla y he aquí uno de los problemas.

Este problema, es el que rompe la magia de este tipo de interfaces. En cuanto falla no queremos volver a usarlo. Pasa con los asistentes de voz, con la realidad aumentada, los sistemas de reconocimiento de movimientos… Si no funciona siempre a la perfección, lo aparcamos.

Aquí los sistemas mecánicos, que tienen tendencia a romperse, no tienen ese problema. Si un teclado deja de funcionar lo cambiamos. No buscamos otra alternativa. Y haberlas las hay, como los teclados virtuales. Que también están disponibles en PC.

Que se esté investigando en esta línea es algo positivo pero de momento su integración y utilidad es bastante cuestionable en muchos casos. Quizá el futuro vaya en esa dirección pero de momento la computación sensible que nos intentan vender andan lejos de ser práctica en el día a día.

Fuente: http://www.xataka.com