sept. 26
2011
Hay ciertas personas con encanto a la hora de explicar. No se trata sólo de un buen discurso, sino de un tono de voz, un ritmo, una expresión que hipnotiza.
Cuando esa persona además habla de una actividad profesional que cambió su actitud en torno a la vulnerabilidad, merece dedicarle un rato.
Brene Brown habla sobre la conexión entre las personas, el miedo y la vergüenza, y el papel de la vulnerabilidad y el coraje en nuestras relaciones con los demás.
...Y ya saben qué pienso sobre la vulnerabilidad: la detesto. Por eso pensaba que era mi oportunidad para destrozarla con mi vara de medir. (...) voy a entender cómo opera la vulnerabilidad, pero yo voy a ser más astuta. (...) Como saben, no resultó ser así.
sept. 22
2011
La tecnología se propone a sí misma como el arquitecto de nuestras intimidades. Así empieza la introducción del libro de Sherry Turkle, Alone Together - Why we expect more from technology and less from each other.
Empecé a leer este libro con la intención de recibir visiones diferentes a las que, por mi dedicación a la tecnología, estoy más acostumbrado a escuchar. Es un ejercicio que hago de vez en cuando. Ojalá lo hiciera más.
Ese fue el punto de partida, y el objetivo se ha cumplido. Sin embargo, en el paso por los ingentes casos que expone la autora, cierta angustia se ha sumado al objetivo inicial. Y no a lo desconocido, sino a lo palpable en el día a día que nos rodea; a lo que de alguna manera se intuye pero que en este libro se explicita: el papel de la tecnología de la comunicación como la tecnología de la soledad.
Atrás quedaron los tiempos de los tamagotchis. Aunque esos llaveros animados provocaron emociones entre los pequeños (quienes no querían cambiar las pilas para reiniciar el aparato, sino enterrarlo como a un familiar muerto), su apariencia externa no provocaba dudas en los adultos: era un juguete.
Pero la evolución tecnológica ya permite crear materiales con tacto similar a la piel humana, caras con músculos faciales, y robots que reconocen tonos de voz, la voz, y que están programados para que podamos sentir que tenemos una interacción social realista.
Este proceso de proyección, similar al test de Rorschach (del de las manchas) es un mecanismo adaptativo para contrastar nuestras hipótesis internas con la realidad. Si esa proyección funciona, la mente se adapta: reconoce patrones y formas de comunicación con ese entorno.
En este proceso hay una laguna significativa que la evolución no nos ha enseñado: ¿qué sucede si esa realidad es simulada mediante la tecnología? Es decir, ¿Qué sucede si un robot que sonríe lo hace porque está programado para ello, y no como algo genuino?
Nuestro cerebro responde igual. Y es así como se crea la ilusión de mantener una conversación con una máquina, que no ha tenido vivencias, ni frustraciones ni alegrías. Sólo está programado para simular las conclusiones de quien lo ha creado.
Esto que suena evidente para cualquiera que tenga una iniciación en tecnología, es algo casi mágico para alguien que ajeno a ésta. Y esa sensación ingenua de magia conduce a la admiración, y finalmente de confianza.
¿Cuál es la diferencia entre este robot y un animal? Para la autora, la diferencia es clara: el robot no entiende nada. Miriam, la paciente con la que se entrevistó, vivía con el robot. Se sentía reconfortada por él. Pero en realidad, Miriam estaba sola. La dejaron sola.
Y es que, a diferencia de las limitaciones físicas, las racionales o emocionales no son tan fáciles de valorar entre las personas con un cerebro sano. Podemos hacer deporte para ejercitar nuestros músculos y podemos ver claramente que esos músculos evolucionan pero... ¿tenemos medios para hacer lo mismo con nuestra musculatura emocional y relacional? ¿Y con los demás?
En el fondo, ese límite está en el rol futuro de esta tecnología: ¿complementar o suplir? El futuro apunta a la segunda opción: a ser los arquitectos de nuestra intimidad para que no nos obligue a convivir con las frustraciones de la realidad. Los robots lo harán por nosotros.
Es obvio el papel de los móviles y las redes sociales (que al menos en USA tomaron una importancia clave después del 11-S para estar conectado en caso de otra catástrofe similar). Los primeros en su intrusión en la vida familiar, y los segundos por el papel que juegan en la construcción de la identidad de los adolescentes.
Y en el sustrato de todo el texto, un fantasma de fondo: el riesgo de que la tecnología nos evite vivir con la frustración, y que por ello se nos escape la oportunidad de aprendizaje que ello supone.
En resumen, es un libro reflexivo, escrito por una psicóloga clínica que tiene la oportunidad de vivir en primera persona la tecnología que pasa por el MIT en cuanto a robots sociales. Una gran parte de sus preocupaciones las reconozco en mí, pero leyendo este libro he tenido la oportunidad para poder entender los argumentos de fondo que me faltaban.
Me ha gustado la reseña del NYT sobre Alone Together, donde se resume parte de la obra y la trayectoria de la propia autora (del optimismo en libros anteriores al pesismismo actual).
Read more »
jun. 16
2011
Javascript Infovis Toolkit (JIT) es otra de las bibliotecas de gráficos y visualización que he utilizado puntualmente en los últimos meses. A diferencia de Protovis, se trata de una biblioteca de visualización más enfocada a visualizaciones concretas como se puede ver en las muestras del sitio, aunque con elementos interesantes en su filosofía.
Infovis también permite la composición. Es decir, el elemento de una visualización (el nodo de un grafo) puede ser también otro componente (ver el ejemplo del hiperárbol de diagramas de sectores).
La diferencia, eso sí, es también el peso de la biblioteca. JIT está mucho más pensada para el entorno web y sus archivos de javascript son mucho más ligeros que Protovis.
Por lo tanto, es una velocidad con vistas al futuro, considerando que el proceso de optimización a la que están sometidos los navegadores (aparte de la introducción de tecnologías HTML5 especialmente interesante como los web workers) permitirá que en un futuro cercano estas visualizaciones sean potentes en todos los navegadores.
Si utilizas el código de alguna de las visualizaciones de demostración, y prevees su uso en navegadores diferentes de Chrome (pienso en Firefox, y siendo optimistas IE8, aunque mejor es intentarlo antes de decepcionar), procura desactivar las animaciones (o escoger la menos intensiva) para garantizar la experiencia del usuario.
En este punto existen dos razones para justificar el uso de WebGL: su capacidad de visualizar en 3D, y por otro lado la capacidad de utilizar la GPU de la tarjeta gráfica para agilizar las visualizaciones concretas.
En el primer caso es una cuestión metodológica y está por ver que el 3D aporte mucho valor a la visualización en general.
En el segundo caso, el uso del webGL puede estar justificado para el caso de visualizaciones que requieren cálculos complejos delegables en la GPU. Este es el caso de los grafos con representación por equilibrio de fuerzas entre los nodos (Force Directed Layout). En este punto, el Canvas no es una alternativa frente a una GPU dedicada.
Como muestra de esto último se puede ver el vídeo que muestra Nicolás García Belmonte (creador de JIT) en el blog del proyecto sobre la demostración de Infovis con webGL.
Read more »
jun. 12
2011
Desde la última vez que comenté herramientas para mostrar gráficos estadísticos en la web (entonces en Flash), han cambiado infinidad de cosas.
HTML5, aunque en vías de implantación (probablemente durante meses o algunos años), representa todo lo que no se hizo durante los últimos 5 años porque se disponía de Flash y ya era suficiente. Probablemente también porque el mercado de navegadores estaba dominado por Internet Explorer.
Con la nueva versión de HTML aparecen dos elementos clave para representar gráficamente datos en la web: el Canvas y WebGL. El canvas está pensado para mostrar gráficos en 2D, mientras que webGL está pensado para visualizaciones 3D que aprovechen la unidad gráfica de proceso (o GPU) de nuestra tarjeta gráfica. En el segundo caso hay un objetivo claro: utilizar juegos con altas exigencias gráficas en el navegador.
Sin embargo el gran motivo de cambio hacia el HTML5 son los móviles, con los que Flash provoca problemas de rendimiento, si es que lo tienen integrado en los navegadores.
Como colofón, se puede encontrar la muestra del gráfico de Minard realizada con Protovis que Tufte considera el mejor gráfico de la historia. Este gráfico también aparece en el libro de la gramática de los gráficos, como muestra de los factores componentes de esta visualización.
Por otro lado, también es posible incrustar gráficos de Protovis en Wordpress, utilizando el plugin de carga de Protovis.
Read more »
jun. 9
2011
Curioso artículo el que he encontrado hoy en arxiv.org, sobre una simulación que propone la hipótesis con la que titulo esta entrada (salvo los interrogantes, que los he añadido yo). El preprint en cuestión está en inglés y se titula Accidental Politicians: How Randomly Selected Legislators Can Improve Parliament Efficiency (puedes descargar directamente la versión PDF del artículo).
El resumen (traducido y con resaltado mío) es el que sigue:
Estudiamos un modelo prototípico de un Parlamento con dos Partidos o dos Coaliciones políticas, y mostramos cómo la introducción de un porcentaje variable de legisladores independientes seleccionados aleatorioamente pueden aumentar la eficiencia global de una legislatura, tanto en términos del número de leyes aprobadas y de la media de bienestar social obtenido. También encontramos analíticamente un "número áureo de la eficiencia" que permite establecer el número óptimo de legisladores que deben ser seleccionados aleatoriamente después de que las elecciones regulares hayan establecido la proporción relativa de los dos Partidos o Coaliciones. Estos resultados están alineados tanto con el antiguo sistema democrático Griego como con el descubrimiento de que la adopción de las estrategias aleatorias pueden mejorar la eficiencia de las organizaciones jerárquicas.
En este caso, los agentes se encuentran en un espacio planteado por Carlo M. Cipolla, donde se plantean dos factores:
La razón para escoger el intervalo entre +1 y -1, está en parte explicada en el artículo sobre normalización y distancias normalizadas. En una palabra: simplicidad y facilidad de cálculo, aparte de ser muy intuitiva. Se podría escoger +100 y -100, pero esto sólo aumenta la complejidad de los cálculos: a nivel de simulación no aportan valor alguno.
Los agentes pueden realizar dos acciones: presentar una ley, o bien votarla (a favor o en contra).
En el momento de la decisión, los agentes parten de su centro de gravedad, pero están de acuerdo con cualquier ley que tenga valores más positivos que su centro de gravedad. Gráficamente: que se encuentren más a la derecha y por encima de su centro de gravedad personal.
Por otro lado, cuando los agentes son miembros de un partido, aceptan sus directrices. Estas directrices se representan gráficamente por el círculo de tolerancia del partido. Este círculo muestra las leyes que el partido en conjunto está dispuesto a votar.
En suma, el agente depende de su adscripción política (círculo de tolerancia) y de su postura personal (ventana de aceptación). Esta dependencia impone las siguientes reglas en el juego:
Gráficamente se puede imaginar dos grandes círculos (los partidos), con todo su entorno salpicado por los individuos seleccionados aleatoriamente. Estos individuos pueden servir como soporte para leyes que quiera presentar el miembro de un partido, cuando estas leyes estén en el límite.
Considerando el caso del bipartidismo, los votos del partido más votado pueden oscilar desde el 50% hacia arriba. En el eje vertical vemos el número de diputados en el caso que el congreso tuviera 500 escaños (el caso de la simulación).
Como se puede ver, si el resultado es equilibrado (50-55% para el partido ganador: casi un empate técnico) el número de votantes independientes es pequeño porque es fácil desequilibrar la balanza. Cuanto más grande es la mayoría, más independientes.
Quizá sea posible esperar nuevas simulaciones con multipartidismo, para así poder analizar casos más complejos.
Aunque la conclusión se basa en un análisis de los resultados de la simulación, la causa, según la explicación de los autores, es relativamente intuitiva: Si la selección de independientes es realmente aleatoria, su soporte será mayoritario para el partido ganador. Sin embargo, al evitar la disciplina de voto pueden favorecer a más acuerdos.
En palabras de los autores: No se pierde nada del sistema de partidos (efectividad en los sistemas de votación) y se gana todo por la aparición de diputados independientes (la calidad de sus propuestas).
may. 20
2011
Los artículos sobre las elecciones europeas y la decisión de voto (en la que se explica las diferencias entre el voto nulo, en blanco y abstención) y la ley d'Hondt en este blog están recibiendo más visitas de lo habitual.
Ha sucedido en otras ocasiones, con la cercanía de algunas elecciones. Pero en anteriores casos este aumento se mantenía en el tiempo. En este caso, el efecto es claro: empezaron a subir a partir del día 16, y siguen subiendo (especialmente el del voto en blanco).
Esto no me sorprende. Ayer tuve la oportunidad de ir a Plaça Catalunya y comprobar, en primera persona, y como uno más, lo que estaba sucediendo. Y lo que sucedió es que hablaba, escuchaba y preguntaba. Cualquiera que desee salir de dudas sobre lo que está pasando, tiene un punto de referencia.
Read more »
abr. 20
2011
Sólo hay que ver las conclusiones que extrae Patricia Kuhl:
Un apunte corto, pero que quería comentar por cómo de evidente es el ejemplo. El experimento se ha llevado a cabo en niños por lo que no significa que no se pueda trasladar a los adultos. Personalmente lo creo así.
El proceso es diferente pero, en el fondo, esa necesidad de adaptación al medio que lleva a cabo el cerebro recopilando información permite detectar patrones, recopilar feedback de nuestras acciones y, finalmente, aprender.
Read more »
abr. 14
2011
¿Qué elementos forman parte de un gráfico? ¿Cómo se trasladan los datos de una representación gráfica a otra? ¿Cómo se pueden integrar los gráficos? ¿Qué combinación de parámetros hay que tener en cuenta en el momento de crearlos?
Estas son preguntas que por lo general no nos planteamos en el momento de representar datos gráficamente. Lo obviamos por agilidad, igual que no estamos dando órdenes conscientes de inspirar-expirar o pie izquierdo/pie derecho.
La pregunta de fondo es: ¿Importa tenerlo presente? Puede que antes no fuera necesario, pero ahora, para mí, sí.
Me refiero a antes como a las épocas en que los conjuntos de datos eran más bien limitados, las interrelaciones entre ellos eran simples, e incluso cuando se dibujaban los gráficos a mano. Hablo de antes como el momento en el que las interrelaciones entre datos no formaban parte del núcleo del análisis ni había interacción posible con ellos.
Ahora, el momento en el que hay (sobre)abundancia de datos, disponemos de aplicaciones informáticas capaces de gestionar la interactividad; cuando buscamos respuestas más profundas, revisar la razón de ser de los gráficos y sus componentes resultaba para mí un ejercicio casi imprescindible.
Buscando entre libros que pudieran servirme de base y que plantearan una definición estructurada, me topé con el libro de Leland Wilkinson, The Grammar of Graphics (Springer, 2a ed. 2005).
Con su experiencia empezó a recopilar gráficos de cualquier tipo para empezar a detectar patrones, factores y elementos a tener en cuenta para desarrollar esta gramática. A partir de esa base, desarrollo un marco de trabajo sobre el que se puede definir prácticamente cualquier representación gráfica de datos.
¿A quién va dirigido este libro? Exceptuando los conceptos puramente matemáticos/estadísticos, Wilkinson comenta que ha desarrollado su exposición partiendo de una terminología no especializada. Según él, cualquier persona interesada en los gráficos científicos o de negocios. Diferencia en tres niveles según el grado de conocimiento en matemáticas:
Hay una delimitación explícita sobre lo que no tiene por objetivo este libro. Lo que Wilkinson no plantea es:
Además, las coordenadas incluyen guías visuales, aunque también las proyecciones y en definitiva todo lo que da forma al conjunto del gráfico. Bajo mi punto de vista en las coordenadas tienen lugar los aciertos y errores más claros, a la vez que difíciles de detectar por un espectador.
No es comparable con los libros de Tufte, más bien complementario. En algunos puntos parece que se hubieran puesto de acuerdo: donde empieza uno acaba el otro.
Tanto Wilkinson como Tufte me han aportado muchas ideas y enfoques renovados a la representación gráfica. Espero sumar en breve la lectura de un tercer autor que tengo en el punto de mira, Jacques Bertin y su semiología de los gráficos. Hasta el pasado Noviembre no se reeditó el libro, pero ahora ya no hay excusa...
Read more »
abr. 7
2011
Durante el último año y medio he estado utilizando herramientas desarrolladas en el proyecto Selenium. Estas herramientas de software abierto para el testeo de interficies de aplicaciones web se ha vuelto casi imprescindible para mí en el momento de revisar la interacción con el usuario.
Aunque existen muchos tipos de pruebas de aplicaciones, considero que las pruebas de UI son especialmente críticas: en último término determinan la calidad percibida, con independencia de la calidad interna del producto.
Mi utilización de Selenium (en especial Selenium RC) se ha limitado a su objetivo original, pero durante las horas de vuelo que transcurren durante las pruebas surgen ideas sobre el papel del testeo en el desarrollo de aplicaciones web. Sólo con ver la ejecución automática del testeo y adoptar el sombrero del usuario final, se pueden llegar a contar las mejoras por docenas.
He comprobado también por la experiencia que el tiempo de testeo y documentación se acaban recuperando, quizá fuera de plazo, y a lo peor con la decepción del cliente. Porque al cliente le importa poco la implantación del modelo de datos, e incluso las luces y colores. Si no funciona como la entiende, la aplicación está rota.
Sé que testear la interacción y documentar para el usuario final son tareas percibidas como tediosas, ya que suponen un cambio de sombrero para cualquier desarrollador. Es el equivalente informático a corregir nuestro propio dictado.
¿Argumentos habituales? Sobre el testeo de UI se dice que ya es suficiente con las pruebas que se realizan mientras se desarrolla (falso); de la documentación de usuario... quizá ni hablemos, porque con el axioma Mac segun el cual un programa se explica por sí solo (error grave), la excusa está servida. Claro, porque todas las empresas de desarrollo han de ser como Apple, ¿no?
Ponerse unas horas en la situación del usuario después de semanas de verlo todo desde dentro es mucho más complejo de lo que pueda parecer: un programador conoce los datos y la estructura de la aplicación. Ve todas las opciones aunque sean invisibles (porque las ha puesto él), y sabe que ante un error puede resolverlo rápidamente (no como el usuario final). Su percepción de las consecuencias no está alineada con la del usuario final, y esto le resta capacidad crítica.
Pero si además se le plantea que redacte el manual de usuario, utilizará terminología técnica (porque se han familiarizado con ella). Y yo, que conste, lo entiendo. No sólo porque desarrolle, sino porque cuando lo veo desde el otro lado sé que es complicado. Por no decir lo poco que motiva explicar la aplicación por segunda vez (la primera vez lo ha explicado a una máquina) y en términos distintos.
Con la información recopilada en esas reuniones puede desarrollar casos de uso (o escenarios de usuario), describir la prueba, estructurar las fases y establecer los requerimientos.
Con esto, puede pactar con el equipo de desarrollo las tareas a realizar, desarrollar la prueba, y redactar la documentación de usuario bajo un guión unificado. Y lo que verificará que la tarea está hecha es la superación de las pruebas.
Espero tener tiempo para comentar en otros artículos el detalle de estas relaciones, lo que permiten y lo que pueden complementarse con otros métodos.
Read more »
mar. 31
2011
Reflexionaban en FlowingData sobre la posibilidad que se esté cerrando la era de los anuarios estadísticos.
La deducción es la siguiente:
¿Quién se ve afectado? Todo aquél que no tiene medios para convertir los datos en estructuras similares a los anuarios.
¿Es una decisión acertada? Por el corto plazo de tiempo que llevan los datos en abierto, creo que no.
Desconozco la situación, pero si no se ha cerrado el espacio que hay entre quien sabe procesar los datos y quien quiere consumirlos en un formato como el del anuario estadístico, existe un colectivo que deja de tener los datos en un formato que era suficientemente abierto.
Un posible ejemplo (si realmente no hay nadie que cumpla con ese rol editorial) que abrir los datos puede ser contraproducente con el objetivo de la transparencia.
Read more »© 2007 and beyond Mario Alberich, licensed under CC-BY-SA unless stated otherwise.