Entrando a picar más profundo en ROS

Si leyeron el artículo anterior, quizás les dieron ganas de profundizar más en ROS. Como el tutorial anterior era una introducción, no entré en tantos detalles. Ahora pretendo explicar más sobre los elementos fundamentales a entender cuando se trabaja con ROS.

Dentro de ROS existen ciertos conceptos clave que entender y algunas aplicaciones asociadas a estos elementos que nos harán la vida más sabrosa al trabajar. Dentro de esos elementos están los nodos, los tópicos, los servicios, los mensajes, el servidor de parámetros, y otros más. Más abajo iré explicándolos paso a paso y escribiendo las referencias oficiales de cada tema.

Logo ROS

ROS como un sistema distribuido

Como mencioné en el otro artículo, ROS es un framework distribuido. Su idea principal es que los robots son sistemas en los que una falla en un componente no debe dañar el funcionamiento de la máquina completa. Para esto, se pensó para funcionar implementado en programas con funciones puntuales, los nodos, que se comunican entre sí para obtener el funcionamiento completo del robot. Análogo a lo que en otros sistemas distribuidos hace la labor de coordinar el trabajo global, como el namenode en Hadoop, en ROS existe una aplicación que coordina la ejecución de todos los otros nodos: el roscore.

Roscore

El roscore [1] es un conjunto de herramientas necesarias para hacer funcionar los demás nodos de ROS. Es la primera aplicación que se debe ejecutar para que el resto funcione. Esta aplicación se encarga de llamar al nodo Master [2], que se encarga de hacer que los nodos se puedan encontrar unos a otros y de gestionar las llamadas a tópicos y servicios. También se encarga de llamar al servidor de parámetros [3], que se utiliza para almacenar variables que deben estar disponibles para todos los nodos mediante APIs. Por último, roscore abre un nodo que sirve como la salida estándar de ROS para generar logs e impresiones por consola que se publican en el tópico “/rosout”, el nodo rosout [4].

Para lanzar el roscore, basta llamarlo desde la consola y quedará funcionando. La mayoría de las aplicaciones incluidas al instalar ROS dependen de que el roscore esté funcionando.

roscore
... logging to /home/bruno/.ros/log/1976e978-2e49-11e5-aa44-b803058568da/roslaunch-cronidea-2483.log
Checking log directory for disk usage. This may take awhile.
Press Ctrl-C to interrupt
Done checking log file disk usage. Usage is <1GB.

started roslaunch server http://cronidea:51918/
ros_comm version 1.11.13

SUMMARY
========

PARAMETERS
 * /rosdistro: indigo
 * /rosversion: 1.11.13

NODES

auto-starting new master
process[master]: started with pid [2497]
ROS_MASTER_URI=http://cronidea:11311/

setting /run_id to 1976e978-2e49-11e5-aa44-b803058568da
process[rosout-1]: started with pid [2510]
started core service [/rosout]

También existe otra forma de ejecutar aplicaciones, que es mediante roslaunch. Al ejecutar roslaunch, se ejecutará un archivo .launch que especifica mediante una notación XML una serie de parámetros y nodos a lanzar. Al usar roslaunch, si no está corriendo el roscore, se ejecuta automáticamente antes de ejecutar los contenidos del archivo .launch.

ROS también puede ejecutarse usando varias máquinas, de las que sólo una estará corriendo el roscore. Pero como aún no he trabajado con ROS en varias máquinas, prefiero hablar de eso cuando tenga más experiencia.

Paquetes y Nodos

Como ya mencioné varias veces, ROS está pensado para funcionar con programas puntuales llamados nodos [5]. Los nodos se organizan en paquetes (packages [6]) que generalmente incluyen varios nodos de funciones similares o complementarias. Los paquetes también se puede organizar en stacks, pero eso ya es irse por las ramas para el alcance de este tutorial. Lo habitual es que el sistema de un robot utilice distintos nodos para ejecutar las tareas necesarias. Por ejemplo, un nodo puede encargarse de recibir imágenes de la cámara y publicarlas en un tópico particular, otro nodo puede leer las imágenes desde ese tópico y aplicar algún proceso de detección de objetos. Otro nodo puede leer los resultados de la detección de objetos y planificar una ruta, mientras que otro nodo leerá la ruta y aplicará los comandos de movimiento que seguirán esa ruta.

Para ejecutar un nodo, se llama la instrucción rosrun seguida del nombre del paquete y el nombre del nodo. Por ejemplo, cuando en el tutorial anterior se ejecutó el simulador de tortuga, se llamó:

rosrun turtlesim turtlesim_node

y se comenzó a ejecutar el simulador.

También se pueden pasar argumentos a los nodos que se ejecuten, por ejemplo en el nodo “image_view” del paquete “image_view” que se encarga de mostrar imágenes, se puede especificar el tópico en el que se están publicando las imágenes usando la forma:

rosrun image_view image_view image:=/camera/image

Rosnode

Rosnode [7] es una herramienta para obtener información de los nodos en ejecución. Imaginemos que está funcionando el nodo del simulador de tortuga. Si ejecutamos “rosnode list” podemos ver la lista de nodos en ejecución. En este caso mostraría:

/rosout
/turtlesim

(Nótese que el nombre con el que se registra un nodo no es necesariamente el mismo nombre con el que se ejecuta el nodo)

Ahora podemos usar “rosnode info turtlesim” y obtener información sobre los tópicos a los que publica el nodo, a los que está suscrito y los servicios que tiene abiertos.

--------------------------------------------------------------------------------
Node [/turtlesim]
Publications:
 * /turtle1/color_sensor [turtlesim/Color]
 * /rosout [rosgraph_msgs/Log]
 * /turtle1/pose [turtlesim/Pose]

Subscriptions:
 * /turtle1/cmd_vel [unknown type]

Services:
 * /turtle1/teleport_absolute
 * /turtlesim/get_loggers
 * /turtlesim/set_logger_level
 * /reset
 * /spawn
 * /clear
 * /turtle1/set_pen
 * /turtle1/teleport_relative
 * /kill

contacting node http://cronidea:36697/ ...
Pid: 8877
Connections:
 * topic: /rosout
    * to: /rosout
    * direction: outbound
    * transport: TCPROS

Existen otras opciones más con las que se puede usar rosnode. Para verlas todas, basta con escribir “rosnode” en la terminal.

Tópicos

Dentro de un robot (o una simulación), son muchos los datos que fluyen de manera constante. Imágenes, datos de acelerómetros, nubes de puntos, estados de motores, necesitan estar siendo publicados continuamente para que el sistema funcione en tiempo real. Especificar canales de comunicación cada vez que un nodo quiere enviarle datos de este tipo a otro nodo no sería eficiente por varias razones: habría que saber de antemano desde donde y hasta donde hay que enviar los datos, hay que controlar la sincronía de los envíos… Para evitar estos problemas, ROS posee una forma de comunicación del estilo Publish/Subscribe [9] en el que un elemento envía mensajes (los publica) y otro elemento recibe mensajes (se suscribe a ellos). En ROS esto se hace a través de tópicos [8]. Los tópicos son un medio de comunicación pensado en la transmisión asíncrona de mensajes. Todos los datos que tengan que ser publicados constantemente y estar disponibles para que otros nodos se publican a través de tópicos.

Los nodos son quienes abren y leen tópicos. Para poder leer o publicar en un tópico, el mensaje entregado tiene que tener un cierto tipo. Existen tipos predefinidos para comunicar distintos datos, como el “geometry_msgs/Twist” que es el mensaje estándar para comandos de movimiento, y también se pueden definir tipos de mensajes de acuerdo a las necesidades de la aplicación.

Rostopic

Rostopic [10] es la herramienta para interactuar con los tópicos de ROS. Tiene funciones similares a las de “rosnode” y otras que son propias de la naturaleza de los tópicos. Una de las funciones más comunes es “rostopic list” que nos muestra la lista de los tópicos abiertos. En este caso la ejecuté habiendo lanzado el simulador de tortuga y me mostró lo siguiente:

/rosout
/rosout_agg
/turtle1/cmd_vel
/turtle1/color_sensor
/turtle1/pose

“rostopic info” puede mostrar información de un tópico en particular, por ejemplo “rostopic info /turtle1/cmd_vel” muestra:

Type: geometry_msgs/Twist

Publishers: None

Subscribers:
 * /turtlesim (http://cronidea:49932/)

Como sabemos que el tópico cmd_vel de la tortuga recibe comandos del tipo geometry_msgs/Twist (también podríamos haberlo sabido llamando directamente a “rostopic type /turtle1/cmd_vel”), podemos publicar un mensaje en este tópico para que la tortuga se mueva. Para publicar un mensaje usamos “rostopic pub”.
Escribimos:

rostopic pub -1 /turtle1/cmd_vel geometry_msgs/Twist -- '[2.0, 0.0, 0.0]' '[0.0, 0.0, 1.8]'

y verificamos que la tortuga del simulador se movió en la dirección indicada.

Figura 1: Tortuga moviéndose luego de un mensaje publicado en /turtle1/cmd_vel
Figura 1: Tortuga moviéndose luego de un mensaje publicado en /turtle1/cmd_vel

Para monitorear los mensajes publicados en un tópico, podemos usar “rostopic echo”. Antes de enviar el mensaje al simulador de la tortuga, ejecuté “rostopic echo /turtle1/cmd_vel” en una terminal y me mostró esto:

linear:
  x: 2.0
  y: 0.0
  z: 0.0
angular:
  x: 0.0
  y: 0.0
  z: 1.8
---

Existen varias opciones más con las que se puede ejecutar rostopic. Para verlas todas basta con escribir “rostopic” en la consola.

Servicios

Existe otra forma de comunicación en la que sólo en ciertas ocasiones necesitamos que se ejecute un procedimiento o necesitamos que la llamada venga acompañada de una respuesta. Esto en ciertos contextos se llama Remote Procedure Call o RPC, que permite que procesos intercambien información de manera directa. En ROS esta forma de comunicación se lleva a cabo mediante los servicios.

Los servicios se definen mediante un nombre y dos tipos de servicio: uno de consulta y otro de respuesta.

Rosservice

Una de las formas en las que se puede llamar un servicio es mediante rosservice. Imaginemos que estamos corriendo el simulador de tortuga y que queremos añadir una tortuga más a la simulación. Si ejecutamos “rosservice list” podemos ver que hay un servicio “/spawn” abierto.

/clear
/kill
/reset
/rosout/get_loggers
/rosout/set_logger_level
/spawn
/turtle1/set_pen
/turtle1/teleport_absolute
/turtle1/teleport_relative
/turtlesim/get_loggers
/turtlesim/set_logger_level

Ejecutando “rosservice info /spawn” podemos ver información sobre este servicio:

Node: /turtlesim
URI: rosrpc://cronidea:59998
Type: turtlesim/Spawn
Args: x y theta name

Ahí se puede ver que este servicio requiere 4 argumentos para llamarse, así que para generar una nueva tortuga podemos escribir:

rosservice call /spawn 5 7 1.57 William

Y tendremos una nueva tortuga llamada William en la simulación.

Figura 2: William, “el musculoso”, ha entrado en escena

Ahora, si llamamos a “rosservice list” podemos ver que se han habilitado servicios nuevos:

/William/set_pen
/William/teleport_absolute
/William/teleport_relative
/clear
/kill
/reset
/rosout/get_loggers
/rosout/set_logger_level
/spawn
/turtle1/set_pen
/turtle1/teleport_absolute
/turtle1/teleport_relative
/turtlesim/get_loggers
/turtlesim/set_logger_level

Podemos llamar a uno de ellos para cambiar la posición de William.

rosservice call /William/teleport_absolute 1 1 2.5

Y William juntará su Ki y se teletransportará.

Figura 3: William teletransportado
Figura 3: William teletransportado (It’s over 9000!)

Para ver todas las opciones de rosservice hay que llamarlo en la terminal.

Servidor de Parámetros

El servidor de parámetros es un espacio común para almacenar variables para todos los nodos. Es gestionado por el Master. Para ejemplificar el uso del servidor de parámetros es conveniente usar ejemplos más avanzados, por lo que los detalles pueden quedar para otra ocasión. Un ejemplo a grandes rasgos puede ser el lanzar un robot en simulación. Un robot se puede especificar en un archivo .xacro que es una sintaxis simplificada del estándar .urdf. Un nodo puede procesar el archivo .xacro y generar el .urdf correspondiente. Este archivo quedará en el servidor de parámetros, desde donde un nodo puede enviarlo al simulador. Así mismo en el servidor de parámetros se pueden guardar valores como por ejemplo las constantes PID del controlador de un motor.

Rosparam

Rosparam [12] es la herramienta estándar para interactuar con el servidor de parámetros desde la línea de comandos. Si llamamos a “rosparam list” vemos todos los parámetros almacenados. Al abrir el roscore se muestra algo así:

/rosdistro
/roslaunch/uris/host_cronidea__36626
/rosversion
/run_id

Lo mismo que antes: si queremos ver todas las opciones, escribimos rosparam en la consola.

Para ir cerrando

Así como para ir terminando el tutorial, estos son los elementos principales con los que se desarrollan las aplicaciones de ROS. Cuando se quieren desarrollar aplicaciones nuevas, generalmente el proceso consiste en implementar un paquete y programar sus nodos usando las bibliotecas disponibles de ROS (hasta donde sé, lo más común es trabajar con C++ y Python). Espero que a alguien le sea de utilidad este paseo por los elementos principales y que se motive a seguir aprendiendo. En tal caso, yo me motivaré a hacer más tutoriales.

Referencias

  1. Roscore: http://wiki.ros.org/roscore
  2. ROS Master: http://wiki.ros.org/Master
  3. ROS Parameter Server: http://wiki.ros.org/Parameter%20Server
  4. Rosout: http://wiki.ros.org/rosout
  5. ROS Nodes: http://wiki.ros.org/Nodes
  6. ROS Packages: http://wiki.ros.org/rosbuild/Packages
  7. Rosnode: http://wiki.ros.org/rosnode
  8. ROS Topics: http://wiki.ros.org/Topics
  9. Publish Subscribe Pattern: https://en.wikipedia.org/wiki/Publish%E2%80%93subscribe_pattern
  10. Rostopic: http://wiki.ros.org/rostopic
  11. ROS Parameter Server: http://wiki.ros.org/Parameter%20Server
  12. Rosparam: http://wiki.ros.org/rosparam
Anuncios

Entrando al mundo de la robótica contemporánea con ROS

En los últimos años, la robótica ha dado saltos tremendos que si bien, no ha alcanzado esas sociedades extremadamente automatizadas que nos muestra la ciencia ficción (R. Daneel Olivaw [1], la humanidad necesita tu apoyo), ha logrado grandes progresos y contribuciones y, de lo que trata el tema de hoy, ha motivado a más gente a entrar al mundo de la robótica.

Es común ver, cuando se habla de educación en robótica, que en carreras de orientación tecnológica y que no necesariamente son de especialización robótica se hacen talleres en los que los participantes pueden interactuar con pequeños robots, o armar los suyos propios con diversos sensores y actuadores. Esto es una experiencia altamente recomendable y disfrutable para personas con cualquier nivel de experiencia, incluso niños o personas sin formación en áreas tecnológicas. Pero cuando uno quiere profundizar e investigar en el área se pregunta, ¿cómo se puede cruzar esa barrera que separa el taller de robótica de la robótica comercial que uno ve en la TV o en internet? Bueno, hacer un primer acercamiento no es tan difícil.

Las personas que me conocen de cerca me habrán escuchado hablar en algunas ocasiones sobre el Software Libre y la importancia de las tecnologías abiertas. Aún hay quien dice que las tecnologías abiertas no son oportunidades para competir en el mercado… pero yo creo que a esas personas les falta un poco de visión de mundo. Basta considerar el hecho anunciado recientemente de que 486 de los 500 supercomputadores más rápidos del mundo funcionan con Linux [2][3]. Bajo mi perspectiva, vivimos en una sociedad tan interconectada que es imposible que un sólo individuo se adueñe de una idea. Las ideas complejas que benefician a mucha gente, se desarrollan desde una colectividad, ya que es en la colectividad dónde pueden nutrirse y refinarse a una velocidad que las hace usables. Así, vamos poco a poco pasando de una economía enfocada en productos (ideas desde un único agente) a una economía basada en servicios, o sea, “qué es lo que hacemos con una idea”. Y en el mundo de la robótica hace tiempo se dieron cuenta de esto, de que el avance es demasiado rápido como para intentar hacerlo todo desde un único lugar para poder competir. Así es como nació ROS, uno de los frameworks de robótica más robustos y populares en la actualidad.

ROS: Robotic Operating System

Los orígenes de ROS se remontan al Laboratorio de Inteligencia Artificial de Stanford y posteriormente su desarrollo fue acogido por la incubadora de robótica Willow Garage [4]. Estos esfuerzos han dado origen a una gran comunidad y a un conjunto de herramientas abiertas que permiten avanzar sin tener que reinventar la rueda.

Logo ROSTécnicamente, ROS no es un sistema operativo. Generalmente, se lo considera un middleware o un framework y ambas expresiones son más acertadas. Si hablamos de sistemas operativos, lo común es que asociemos ROS a Ubuntu, que es donde funcionan la mayoría de sus aplicaciones. Existen iniciativas para utilizar ROS junto a otros sistemas operativos, pero lo más común es usar ROS junto con Ubuntu (existen formas de instalarlo en Fedora, pero no todos los paquetes funcionan [5]), así que está de más decir que es un framework pensado para trabajar en Linux (¡yay!).

ROS funciona en un sistema basado en nodos. Tenemos un nodo maestro que gestiona las comunicaciones entre los distintos nodos que se van conectando. Cada nodo puede ser un programa que implemente las bibliotecas de ROS y desarrolle una función puntual, así se logran diseños modularizados en los que el sistema general no depende de manera crítica en la presencia de un componente (“Por una yegua coja no vamos a perder la trilla.”). Y esto último es algo fundamental en la robótica, ya que el sistema debe ser robusto a errores imprevistos. Incluso, los nodos pueden ejecutarse en varias máquinas para aligerar el cómputo y desarrollarlo de manera distribuida.

rqt_graph: aplicación de ROS que permite ver los nodos funcionando y su comunicación mediante los tópicos
Figura 1: rqt_graph, una aplicación de ROS que permite ver los nodos funcionando y su comunicación mediante los tópicos

La comunicación en ROS se realiza mediante tópicos y servicios. Los tópicos son canales de comunicación al estilo publisher-subscriber [6]. Un nodo puede abrir un tópico en el que publica un tipo de dato particular. Por ejemplo, yo tengo un dron Parrot AR.Drone 2.0 (ya hablaré de esa criatura, ahora que llegó su repuesto y puedo volver a usarlo <3) que mediante un nodo llamado ardrone_autonomy [7] puede publicar las imágenes que se reciben del dron en el tópico ardrone/front/image_raw. Luego otra aplicación se comporta como suscriptor de ese tópico y lee los datos publicados. Así se separa el proceso de producir datos y de procesarlos, lo que hace posible el que los distintos nodos estén desarrollados en distintos lenguajes de programación. Existen tipos de datos predefinidos para levantar tópicos para las distintas labores habituales en la comunicación en robótica, ya sea recibir datos de sensores o publicar comandos de control. Además, se pueden definir nuevos tipos de mensajes de acuerdo a las necesidades particulares de cada aplicación.

Los servicios son interfaces que un nodo abre a una determinada función. Otro nodo cliente, puede realizar una llamada a un servicio y solicitar que otro nodo realice una tarea, e incluso que envíe cierta información de vuelta. A diferencia de los tópicos, que están constantemente publicando independientemente de si son leídos o no, los servicios funcionan de acuerdo a cuando son llamados. Un ejemplo de servicio es el abierto por el simulador Gazebo, que permite reiniciar una simulación, devolviendo todos los robots instanciados a sus posiciones originales; para ejecutarlo, basta con hacer una llamada a /gazebo/reset_simulation. También hay tipos de mensajes para los servicios y se pueden desarrollar otros nuevos.

Además, ROS cuenta con diversas herramientas que ayudan a trabajar sobre esta arquitectura orientada a nodos. Por ejemplo, están las herramientas rqt, como rqt_graph (Figura 1) que permite ver un grafo con todos los nodos funcionando y los tópicos como flechas desde los nodos que publican hacia los nodos que están suscritos.

También ROS cuenta con un servidor de parámetros que guarda variables y datos que sean comunes a todo el entorno que se está ejecutando, como por ejemplo el modelo de un robot que se esté simulando o las especificaciones de un robot real con el que se esté conectado.

Instalar ROS

El desarrollo de ROS se ha enfocado fuertemente en Ubuntu como plataforma principal. Existen otras plataformas sobre las que se puede instalar [8], pero yo tengo una instalación sobre Ubuntu, así que sobre esta puedo hablar con conocimiento de causa. ROS se basa en distribuciones, que son cambios mayores en sus herramientas principales junto con conjuntos de paquetes compatibles con estas herramientas. Las distribuciones llevan nombres de acuerdo a las letras del abecedario y sus logos tienen que ver con tortugas (creo que tiene que ver con que el ejemplo más básico en ROS se basa en gráficos de tortuga [9]). La versión actual es Jade Turtle, pero yo tengo instalada la versión anterior, que es Indigoo Igloo y es una de las versiones con más soporte (y sobre la que se desarrollaron unos módulos para el dron con los que quiero empezar a trabajar). Para comenzar, yo creo que es recomendable instalar cualquiera de las dos ya que la mayoría del desarrollo se ha estandarizado. Por ahora, para seguir con el conocimiento de causa, vamos con Indigo.

Instalar ROS en Ubuntu es relativamente sencillo si se hace instalando desde los repositorios. Se puede instalar desde los archivos fuente, pero no se recomienda a menos que la ocasión lo requiera. Los pasos de la instalación se pueden encontrar en inglés en [11].

Mi versión de Ubuntu es la 14.04.2 (Trusty Tahr). Indigo es compatible con las versiones 13.10 y 14.04.

Para comenzar la instalación, hay que asegurarse de que los repositorios permitan la instalación desde los componentes “restricted”, “universe” y “multiverse”. En mi instalación venían habilitados por defecto, así que no tuve que hacer ningún cambio. En caso de necesitar configurarlos, se pueden seleccionar en “Sistema > Administración > Orígenes del Software”o revisar el artículo [10].

Luego se configura el sistema para que acepte paquetes desde packages.ros.org y se acepta su clave:

sudo sh -c 'echo "deb http://packages.ros.org/ros/ubuntu $(lsb_release -sc) main" > /etc/apt/sources.list.d/ros-latest.list'
sudo apt-key adv --keyserver hkp://pool.sks-keyservers.net --recv-key 0xB01FA116

Es conveniente revisar que el índice de paquetes esté actualizado ejecutando:

sudo apt-get update

Luego, basta instalar el paquete que incluye todas las aplicaciones de ROS. El paquete más completo, y el que yo instalé, es ros-indigo-desktop-full que incluye todas las herramientas gráficas y las bibliotecas genéricas de robótica.

sudo apt-get install ros-indigo-desktop-full

También existen alternativas que incluyen menos cosas (porque creo recordar que esa versión pesaba como un giga) como ros-indigo-desktop y ros-indigo-ros-base.

sudo apt-get install ros-indigo-desktop

Además, se pueden instalar los paquetes de manera individual de la forma:

sudo apt-get install ros-indigo-NOMBRE_DEL_PAQUETE

Para gestionar las dependencias de paquetes de ROS que vayamos a instalar, se debe instalar rosdep. Esto sirve cuando vayamos a probar algún paquete descargado como código fuente.

sudo rosdep init
rosdep update

Para dejar el sistema listo para usar, hay que registrar las variables de entorno de ROS. Esto se puede hacer añadiendo un archivo de configuración predeterminado al final del archivo .bashrc.

echo "source /opt/ros/indigo/setup.bash" >> ~/.bashrc
source ~/.bashrc

Para seleccionar las variables de entorno de una versión particular de ROS, se puede ejecutar source con el archivo predeterminado.

source /opt/ros/indigo/setup.bash

Otro paquete conveniente de instalar es rosinstall que permite instalar aplicaciones y gestionar sus dependencias de manera más automática.

sudo apt-get install python-rosinstall

Para verificar que todo está instalado y funcionando, abrimos una terminal y escribimos “roscore” y presionamos Enter. Deberíamos ver lo siguiente:

... logging to /home/bruno/.ros/log/70729674-2d80-11e5-9a3d-b803058568da/roslaunch-cronidea-3040.log
Checking log directory for disk usage. This may take awhile.
Press Ctrl-C to interrupt
Done checking log file disk usage. Usage is &lt;1GB.

started roslaunch server http://cronidea:60080/
ros_comm version 1.11.13

SUMMARY
========

PARAMETERS
 * /rosdistro: indigo
 * /rosversion: 1.11.13

NODES

auto-starting new master
process[master]: started with pid [3053]
ROS_MASTER_URI=http://cronidea:11311/

setting /run_id to 70729674-2d80-11e5-9a3d-b803058568da
process[rosout-1]: started with pid [3066]
started core service [/rosout]

Esto significa que lanzamos el nodo principal (master) de ROS y sus componentes, y que ahora podemos empezar a abrir otros nodos.

Un primer ejemplo de funcionamiento

Para usar ROS, es necesario que esté corriendo el roscore. Si lo hicimos funcionar como se mencionó recién, ahora abrimos otra consola y lanzamos el nodo del simulador de tortuga. Este simulador dibuja una tortuga en la pantalla y queda a la escucha de comandos de control para moverla en dos dimensiones. Esta tortuga recibe mensajes del tipo “Twist” en el tópico “/turtle1/cmd_vel”, que es el tipo de mensajes estándar que se utiliza para controlar un robot. Puede servir para hacer demostraciones o incluso poner a prueba ciertos algoritmos.

Para lanzar el simulador de tortuga, escribimos:

rosrun turtlesim turtlesim_node

Las aplicaciones de ros se organizan en paquetes, los que pueden contener varios nodos. En este caso “rosrun” busca en el paquete “turtlesim” el nodo “turtlesim_node”. Si todo funciona bien, deberíamos ver en la consola algo como:

[ INFO] [1437246767.585809489]: Starting turtlesim with node name /turtlesim
[ INFO] [1437246767.603619905]: Spawning turtle [turtle1] at x=[5.544445], y=[5.544445], theta=[0.000000]

y una imagen con el simulador funcionando.

Figura 2: turtlesim_node funcionando
Figura 2: turtlesim_node funcionando

Al lanzar el simulador de tortuga, se abrirán nuevos tópicos. El simulador abre el tópico mencionado antes “/turtle1/cmd_vel” en el que recibe comandos de movimiento, y dos tópicos más: “/turtle1/color_sensor” y “/turtle1/pose” en los que publica el color del pixel en el que está y la posición que tiene en la imagen. Para ver los tópicos actualmente abiertos, se puede ejecutar en otra terminal:

rostopic list

y aparecerá algo como:

/rosout
/rosout_agg
/turtle1/cmd_vel
/turtle1/color_sensor
/turtle1/pose

Ahora que la tortuga está suscrita a un tópico en el que recibe comandos, podemos publicar comandos a ese tópico. Para hacer un primer ejemplo, usaremos el nodo “turtle_teleop_key” que viene en el paquete “turtlesim”. Este nodo recibe las entradas de las flechas del teclado y publica mensajes para controlar la tortuga.

rosrun turtlesim turtle_teleop_key

Deberíamos ver:

Reading from keyboard
---------------------------
Use arrow keys to move the turtle.

Usando las teclas, la tortuga comenzará a moverse.

Figura 3: turtlesim_node recibiendo comandos de control
Figura 3: turtlesim_node recibiendo comandos de control

Si abrimos otra consola y lanzamos rqt_graph, podemos ver todos los nodos funcionando y sus respectivos tópicos.

rosrun rqt_graph rqt_graph
Figura 4: rqt_graph con los nodos y tópicos de la tortuga
Figura 4: rqt_graph con los nodos y tópicos de la tortuga

Dónde seguir

En este tutorial, mostré un poco sobre cómo funciona ROS, uno de los frameworks de robótica más populares en la actualidad. Para ver su popularidad, basta considerar la cantidad de robots del DARPA Robotics Challenge que lograron grandes resultados usándolo (18 de 23 equipos [12]). Estos mismos principios mostrados en el breve ejemplo de la tortuga, son los que subyacen a toda la arquitectura de ROS y permiten desarrollar complejas aplicaciones distribuidas de alto desempeño.

Para seguir aprendiendo, los pasos siguientes son profundizar en los nodos, los tópicos, los servicios y aplicaciones como el simulador Gazebo o el visualizador RViz. Un buen punto de partida son los tutoriales oficiales de ROS [13]. Además, pretendo hacer más tutoriales para ir profundizando en varios temas que he aplicado.

Referencias

  1. R. Daneel Olivaw en Wikipedia: https://es.wikipedia.org/wiki/R._Daneel_Olivaw
  2. “It’s Official: Linux is the King of Supercomputing”: http://fossbytes.com/supercomputer-operating-system-linux/
  3. Top 500 Supercomputers: http://www.top500.org/statistics/details/osfam/1
  4. Historia de ROS: http://www.ros.org/history/
  5. Instalando ROS en Fedora 19: http://www.jann.cc/2013/04/29/building_ros_on_fedora_19.html
  6. Patrón Publisher-Subscriber: https://en.wikipedia.org/wiki/Publish%E2%80%93subscribe_pattern
  7. Nodo ROS ardrone_autonomy: http://ardrone-autonomy.readthedocs.org/en/latest/
  8. Instalación de ROS Indigo: http://wiki.ros.org/indigo/Installation
  9. Gráficas Tortuga: https://es.wikipedia.org/wiki/Gr%C3%A1ficas_tortuga
  10. Repositorios de Ubuntu: http://doc.ubuntu-es.org/Repositorios_desde_Ubuntu
  11. Instalación de ROS en Ubuntu: http://wiki.ros.org/indigo/Installation/Ubuntu
  12. ROS y la revolución en la robótica: http://www.zdnet.com/article/long-live-ros-why-the-robotics-revolution-is-being-driven-by-open-source-development/
  13. Tutoriales de ROS: http://wiki.ros.org/ROS/Tutorials/

Una selfie al estilo de la Inteligencia Artificial de Google

Hace algunos días llegó a mi correo un artículo [2] de pyimagesearch.com, en sitio de tutoriales sobre imágenes en Python del que ya he aprendido bastantes cosas. En este artículo hablaban sobre “la creación de imágenes artísticas usando sueños guiados” en base a los “Deep Dreams” o “Sueños Profundos” de Google, los que podemos describir como imágenes obtenidas desde las redes de Deep Learning de Google. Una explicación bastante completa de este tema puede ser encontrada en [3], pero para contextualizar podemos decir a grandes rasgos que Google está utilizando técnicas de Inteligencia Artificial para aprender patrones de una gran cantidad de imágenes (una GRAN cantidad de imágenes) para luego poder describir imágenes nuevas en base a los patrones aprendidos. Esto es lo que se conoce como Deep Learning, o el aprendizaje de patrones desde Redes Neuronales Artificiales de gran profundidad, que ya ha dado grandes logros como la descripción automatizada de imágenes en base a texto [7].

Una de las razones por las que se volvió llamativa la nueva investigación de Google para el público, fue que mediante estos modelos generados por el Deep Learning, se hizo el proceso inverso a la obtención de patrones. Es decir, en base a una imagen resultante, se le pide al sistema obtener los patrones que componen la imagen. Esto dio como resultado imágenes muy bizarras en las que la imagen original se convierte en una combinación de líneas y figuras, y luego de formas como ojos o caras de animales. La explicación completa desde Google se puede leer (en inglés) en [8].

Fuente: GoogleResearch Blog
Fuente: GoogleResearch Blog [8]

En el artículo que llegó a mi correo, se habla de un módulo de Python que permite utilizar este modelo generado por Google para producir una imagen usando otra imagen como guía. O sea, usamos una imagen de base y usamos otra imagen que orienta la búsqueda de patrones en el modelo de Google para que la imagen que entregamos se exprese como una combinación de patrones relacionados a la imagen que usamos de guía.

El módulo de Python que se nombra es bat-country, que se presenta en un artículo anterior del mismo sitio [4]. Por curiosidad, intenté instalarlo y aproveché de hacer un tutorial para registrar la experiencia.

Instalación de bat-country

Hay varias cosas que instalar antes de hacer el experimento. Voy a partir por lo que me jodió por más tiempo: instalar bat-country.

Instalar bat-country no es difícil, pero me quitó tiempo porque sus dependencias se demoran un rato en instalar (matplotlib, te estoy mirando a ti) y si uno no tiene ciertas dependencias de las dependencias, la instalación falla al final y hay que descargar todo de nuevo (sí, matplotlib, te sigo mirando a ti). Las dependencias de matplotlib que me hicieron tener que descargar todo de nuevo son freetype y png. Para los usuarios de sistemas debian como Ubuntu, encontré un tutorial de cómo instalarlas [6], pero como yo uso Fedora, los instalé con yum:

sudo yum install freetype-devel libpng-devel

Otra cosa que tuve que instalar antes de ejecutar el script de instalación de bat-country, fue scipy. Scipy es un conjunto de herramientas científicas para Python, entre las que se incluye el conocido módulo Numpy. Intenté instalar Scipy mediante pip, pero se puso pesado buscando otros módulos, así que como era tarde y yo quería ver luego si el experimento resultaba, lo instalé directamente desde Yum:

sudo yum install scipy

Ahora que estamos seguros de que la ausencia de freetype y png no nos va a obligar a descargar matplotlib de nuevo, empezamos a instalar bat-country (entiéndanme, con mi internet fue todo un asunto el descargar todo otra vez). Existen dos formas de instalar bat-country. Una es usando directamente los repositorios de pip, la herramienta para instalar módulos de Python. La otra es descargando directamente bat-country desde el repositorio de GitHub (y luego usando pip. Me gusta decir pip, suena chistoso).

Para instalar bat-country mediante pip:

pip install bat-country

Para instalar bat-country desde GitHub:

#Nos ubicamos en alguna carpeta de nuestro sistema y descargamos el repositorio
git clone https://github.com/jrosebr1/bat-country.git
#Descomprimimos el archivo
cd bat-country
pip install -r requirements.txt
python setup.py install

Mientras se instalan las dependencias del archivo requirements.txt podemos ir a darnos una vuelta por ahí, beber algo (esta vez fue sólo Pepsi) o ponernos a perder el tiempo en algo improductivo como Agar.io (aunque no lo hice esta vez. Fucking lag).

Ahora tenemos la biblioteca mágica instalada, ¿estamos listos para probar la magia?

Instalando Caffe [8]

La verdad es que no estamos listos. El poder utilizar un modelo de Deep Learning no es una cosa sencilla, pues se requiere una gran arquitectura funcionando por debajo. En este caso, bat-country se basa en el framework Caffe, desarrollado en Berkeley.

Caffe es un framework de Deep Learning. Es un conjunto de herramientas diseñado para implementar aplicaciones al nivel del estado-del-arte en aprendizaje automatizado, capaz de funcionar con un altísimo desempeño aprovechando al máximo los recursos de la máquina. Tiene la opción de funcionar sobre GPU, pero este no es mi caso… -se va a un rincón y llora-.

Para instalar Caffe, debemos descargarlo desde GitHub y compilarlo en nuestra máquina. Para eso, nos ubicamos en alguna carpeta en la que queramos instalarlo. Yo tengo una carpeta llamada src en mi carpeta personal para probar programas, así que lo descargué ahí.

cd ~/src
git clone https://github.com/BVLC/caffe.git
#Descomprimimos el archivo y entramos a la carpeta
cd caffe-master

Antes de compilar Caffe, se deben instalar algunas dependencias. Estas dependencias salen explicadas en la página oficial de instalación de Caffe. Aquí hay un tutorial para Ubuntu [10] y uno para Fedora, que es el que pongo a continuación [11].

sudo yum install protobuf-devel leveldb-devel snappy-devel opencv-devel boost-devel hdf5-devel
#Existen otras dependencias que se aplican para versiones recientes
sudo yum install gflags-devel glog-devel lmdb-devel
#Si no se encontraron ciertas dependencias, se pueden instalar las siguientes
# glog
wget https://google-glog.googlecode.com/files/glog-0.3.3.tar.gz
tar zxvf glog-0.3.3.tar.gz
cd glog-0.3.3
./configure
make && make install
# gflags
wget https://github.com/schuhschuh/gflags/archive/master.zip
unzip master.zip
cd gflags-master
mkdir build && cd build
export CXXFLAGS="-fPIC" && cmake .. && make VERBOSE=1
make && make install
# lmdb
git clone git://gitorious.org/mdb/mdb.git
cd mdb/libraries/liblmdb
make && make install

Para que Caffe funcione, necesita un módulo BLAS (Basic Linear Algebra Subprograms) funcionando en el sistema. Este tipo de módulos sirven para paralelizar operaciones vectoriales y matriciales a bajo nivel. No me manejo en el tema, así que no voy a intentar profundizar mucho (igual les dejo el artículo de Wikipedia, por si acaso: [12]). Existen varias alternativas para instalaciones de módulos BLAS como ATLAS, OpenBLAS y MKL (que es específico para CPUs Intel). El que viene por defecto en Caffe es ATLAS, pero para hacer la instalación más rápida, yo instalé OpenBLAS desde Yum:

sudo yum install openblas openblas-devel

(Nótese que es importante instalar openblas-devel, creo que openblas-dev en sistemas Debian, porque ahí se incluyen las bibliotecas que Caffe importará al compilar).

Ahora deberíamos estar dentro de la carpeta de caffe (caffe-master en mi caso) para empezar la compilación. Para compilar, necesitamos primero copiar la plantilla del Makefile que se incluye en Caffe y configurar ciertos parámetros. Primero, debemos seleccionar si utilizaremos la GPU o la CPU. Luego debemos seleccionar qué módulo de BLAS utilizaremos y luego indicar las rutas de las bibliotecas del módulo BLAS.

#Copiamos la plantilla de Makefile incluida en la carpeta de Caffe
cp Makefile.config.example Makefile.config
#Luego se configura el Makefile (explicación más abajo)
#Se ejecutan las instrucciones make
make all
make test
make runtest

Las configuraciones que hay que hacer en el Makefile son:

  1. Seleccionar la opción de compilar solamente con CPU (si tienen GPU pueden saltarse este paso).  Para eso hay que descomentar la línea que dice CPU_ONLY := 1
  2. Seleccionar el módulo BLAS. Bajo una línea que dice “#BLAS choice:” hay que modificar para que diga “BLAS := open” si estamos usando openblas, o las opciones que ahí salen indicadas para el módulo correspondiente de BLAS.
  3. Si cambiamos la opción de BLAS que viene por defecto, debemos indicar las rutas en las que se encuentran las bibliotecas a incluir. En mi caso, tuve que especificar estas dos líneas (recuerdo que así es para Fedora. Para otro sistema quizás las rutas sean distintas) “BLAS_INCLUDE := /usr/include/openblas/” y “BLAS_LIB := /usr/lib/”.

Habiendo hecho lo anterior, se ejecutan los comandos make y se espera que pase lo mejor. Si no aparece ningún error, significa que al fin Caffe está compilado y listo para funcionar.

Preparar los wrappers de Python (pycaffe)

No se desanimen, esto es cortito. Para poder correr bat-country, se deben activar los wrappers de Python. Los wrappers son funciones que encapsulan la llamada a una aplicación para usarse en otro lenguaje. Esto nos deja llamar a Caffe desde Python.

Primero debemos instalar las dependencias de Python necesarias para hacer funcionar Caffe (recuerden que seguimos dentro de la carpeta de Caffe). Aquí vuelve a aparecer el compadre pip:

for req in $(cat requirements.txt); do pip install $req; done

Luego, añadimos la ruta de Caffe a la variable de entorno PYTHONPATH para que Python pueda encontrar el módulo de Caffe. Ejecutamos lo siguiente en la consola:

export PYTHONPATH=$HOME/src/caffe-master/python:$PYTHONPATH

Esta instrucción modificará la variable de entorno sólo mientras la consola esté abierta. Para no tener que ejecutarla siempre, añadí esa instrucción al final de mi archivo .bashrc, lo que es totalmente opcional.

Después de esto, llamamos a make para generar el wrapper pycaffe:

sudo make pycaffe

Con esto ya podemos usar Caffe desde Python, y a la vez, el módulo bat-country.

Usando bat-country

En [8] se muestra el siguiente código, con el que se puede probar el módulo bat country:

# import the necessary packages
from batcountry import BatCountry
from PIL import Image
import numpy as np
import argparse

# construct the argument parser and parse the arguments
ap = argparse.ArgumentParser()
ap.add_argument("-b", "--base-model", required=True, help="base model path")
ap.add_argument("-l", "--layer", type=str, default="inception_4c/output",
	help="layer of CNN to use")
ap.add_argument("-i", "--image", required=True, help="path to base image")
ap.add_argument("-g", "--guide-image", required=True, help="path to guide image")
ap.add_argument("-o", "--output", required=True, help="path to output image")
args = ap.parse_args()

# we can't stop here...
bc = BatCountry(args.base_model)
features = bc.prepare_guide(Image.open(args.guide_image), end=args.layer)
image = bc.dream(np.float32(Image.open(args.image)), end=args.layer,
	iter_n=20, objective_fn=BatCountry.guided_objective,
	objective_features=features)
bc.cleanup()

# write the output image to file
result = Image.fromarray(np.uint8(image))
result.save(args.output)

Ese código se debe guardar en un archivo .py. Antes de ejecutarlo hay que hacer una última cosa. No se puede empezar la fiesta si no está el anfitrión principal: el modelo de Deep Learning generado por Google. Este modelo se puede descargar mediante Caffe. Para descargar el modelo abrimos una consola y nos ubicamos en la carpeta donde quedó Caffe. Para descargar el modelo ejecutamos un script que viene incluido de antemano:

./scripts/download_model_binary.py models/bvlc_googlenet/

Ese  código se encargará de descargar el modelo y guardarlo en la carpeta “models” como la carpeta “bvlc_googlenet”.

Ahora ya podemos ejecutar bat-country. Para ejecutar el código, se necesita especificar cuatro cosas:

  1. El modelo base: Aquí es donde especificamos el modelo con el que vamos a procesar las imágenes. Lo especificamos con “-b nombre_de_modelo” o “–base-model nombre_de_modelo”. Este “nombre_de_modelo” debe ser la ruta de la carpeta del modelo que vamos a usar. Para eso se puede apuntar con la ruta completa a la carpeta “models/bvlc_googlenet” dentro de Caffe, pero para no hacer la ruta tan larga, yo copié la carpeta “bvlc_googlenet” a la misma carpeta del script de Python. Al final esta parte quedó como “-b bvlc_googlenet”.
  2. La imagen de entrada: Esta imagen de entrada es la que queremos “interpretar” por el modelo. En este caso yo me tomé una foto (a fin de cuentas, todo esto fue con el fin de conseguir una selfie engorrosa y poco convencional) y la especifiqué con “-i imagen.jpg”.
  3. La imagen de guía: Para que la búsqueda de patrones para describir la imagen no sea completamente exhaustiva, le entregamos una imagen de guía, que va a darle prioridad a los patrones que se encuentren dentro de ella. Por ejemplo, si ponen una imagen de ojos, se puede conseguir una de esas composiciones bizarras en las que las figuras se componen de muchas formas de ojos. Se especifica con “-g imagen”
  4. La imagen de salida: Bueno, la descripción lo dice todo. Se especifica con “-o archivo_de_salida”.

En una línea de código, y asumiendo que el archivo de Python se llama bat-country-test.py y las imágenes están en la misma carpeta, se puede ejecutar todo con:

python bat-country-test.py -b bvlc_googlenet -i input.jpg -g guide.jpg -o output.jpg

Después hay que esperar un rato. Para generar la imagen de abajo, en mi PC se demoró como 400 segundos.

En mi caso, usé las siguientes imágenes:

Primero, una selfie como imagen de entrada.

Sé que tengo cara de zombie. Pero no se puede pedir mucho a las tres de la mañana.
Sé que tengo cara de zombie. Pero no se puede pedir mucho a las tres de la mañana.

Luego, pillé una imagen de un bosque en Google. Me gustan los bosques. Esta fue la imagen de guía.

¿Cierto que son bonitos los bosques?
¿Cierto que son bonitos los bosques?

Y taratarán… esta cosa fue lo que resultó.

No, no hagan chistes sobre Jesús. Mantengamos este blog como un espacio laico, por favor.
No, no hagan chistes sobre Jesús. Mantengamos este blog como un espacio laico, por favor.

Conclusión

Sí, es una forma terrible de conseguir una foto de perfil. Lo interesante, es que a través de todo este experimento me pude acercar a un montón de tecnologías nuevas. Sirvió un poco para ver cómo un modelo de aprendizaje profundo puede lograr reconstruir imágenes en base a patrones con los que se haya entrenado. Hasta ahora era muy poco lo que se conocía sobre los patrones generados internamente en las redes neuronales artificiales. El hecho de poder visualizarlas, ayuda de gran manera a que podamos entender mejor su funcionamiento y sus capacidades, y también, por qué no, entender un poco mejor las redes neuronales naturales que tenemos en la ca’eza.

Referencias:

  1. pyimagesearch.com
  2. Generating art with deep guided dreaming
  3. Las increíbles imágenes de los sueños de la inteligencia artificial de Google
  4. bat-country: an extendible, lightweight Python package for deep dreaming with Caffe and Convolutional Neural Networks
  5. bat-country en GitHub
  6. Matplotlib and its local dependencies
  7. How Google “Translates” Pictures into Words Using Vector Space Mathematics
  8. http://googleresearch.blogspot.com/2015/06/inceptionism-going-deeper-into-neural.html
  9. Caffe
  10. Instalación de Caffe para Ubuntu
  11. Instalación de Caffe para Fedora
  12. BLAS en Wikipedia

El color-k

[Este artículo está en proceso de pre-edición. Por lo tanto, carece de la exhaustividad de un texto científico válido y sólo debe ser considerado como un conjunto de ideas en estudio y constantes modificaciones.]

(…) De recientes discusiones llevadas a cabo por estudiosos cromatólogos, junto con relatos de diversas personas, se desprende la posibilidad de la existencia del llamado color-k. El color-k, llamado así pese al debate sobre su condición de color, es un término utilizado para describir la existencia teórica de regiones visualmente imperceptibles de la materia.

Personas entrevistadas han descrito la sensación de un “agujero en los recuerdos” o de “sentir que había algo en ese lugar, pero quizás no había nada”. Casos como estos se dan individualmente y son explicados por excesos de preocupaciones o problemas de atención en el sujeto (posible herencia de pueblos antiguos). En consecuencia, no se había contemplado la posibilidad de algún fenómeno presente en la materia que desencadenara esa sensación en el observador. Pero dados ciertos casos como los reportados en el lago Kailé o en el bosque Valau se está considerando el fenómeno con mayor atención.

En el lago Kailé, un barquero reportó la existencia de una isla que, según él, “apareció de la nada”. El barquero sólo fue consciente de la existencia de la pequeña isla cuando su barca encalló en ella. Hasta entonces, los barqueros comentan, jamás se había percatado nadie de la existencia de esta isla pese a que durante años habían navegado a metros de ella.

En el bosque Valau, los recolectores de frutas mantienen sus cosechas en bodegas de altura que carecen de techos para que las frutas se “carguen de sol”, como ellos denominan el proceso. Durante las temporadas recientes se han reportado desapariciones de frutas y ligeros rasguños en la madera que los recolectores han asumido como la evidencia de algún tipo de ave. El caso captó particular atención cuando se depositó la cosecha en una bodega y se observó desde los alrededores por toda una tarde. Cuando fueron a revisar en la noche, ya faltaban frutas y se encontraron los habituales rasguños.

Estas historias han comenzado a reforzar la teoría de que existe un color (si es que no son más de uno) que no es retenido por la memoria humana pese a mostrarse frente a los ojos de individuos con capacidades visuales normales. La teoría de la invisibilidad ha quedado fuertemente de lado, porque resulta difícil imaginar que una isla y criaturas consumidoras de frutas puedan ser completamente transparentes a los ojos de varios observadores.

Hasta ahora, la discusión se mantiene a un nivel teórico en el que se discuten las posibles relaciones entre los colores y la retención en la memoria de los objetos percibidos. Se ha llegado a asumir que los colores poseen ciertos tipos de oscilaciones además de las ya percibidas en la luz que se conectan directamente con la mente de quien los observa.

Llevar la discusión a un nivel empírico aún es complejo, pues se carece de un marco de trabajo apropiado para fenómenos en los que no se puede confiar en la memoria del observador.

Algunos investigadores han expresado… (…)

Las Cronídeas

Las Cronídeas son flores de tallos alargados y delgados, con una textura ligeramente áspera y una coloración que comienza como un verde muy oscuro cerca de la raíz y asciende degradándose hasta un tono de esmeralda casi transparente. Los pétalos tienen una contextura que se asemeja al cristal y varían en diversas tonalidades de azul dependiendo de factores como la hora del día, la velocidad del viento y la cantidad de Cronídeas cercanas. Pese a ser unas flores escasas, logran su mayor desarrollo de manera gregaria, ya que es así como refuerzan sus propiedades temporales. Por esto mismo, generalmente se encuentran en conjuntos de apariencia circular que oscilan entre uno y cinco metros de diámetro.

Según estudios históricos desarrollados desde la primera generación de mutaciones, en un principio eran flores muy frágiles y a la vez muy atractivas por el sutil resplandor violáceo que se forma en la punta de sus pétalos. Como muchas flores aparecidas en la primera generación, nacían en grupos pequeños (entre dos y cinco) y eran propensas por esto a la rápida extinción a manos de comerciantes cromatófagos y la poda indiscriminada. Pese a esto, las Cronídeas desarrollaron una forma especial de supervivencia que se comenzó a manifestar cuando lograban reunirse varias en un mismo lugar. Este método consiste en un ligero aletargamiento que se produce en los seres vivos que se acercan a ellas. Cuando se encuentran grupos pequeños de Cronídeas, esta sensación es casi imperceptible de manera consciente, pero cuando se encuentran en conjunto o cuando llegan al período de madurez sexual generan en el sujeto la noción de ralentización del tiempo en su propio cuerpo y en el entorno que lo rodea. Según entrevistas a humanos que se han acercado a conjuntos de Cronídeas, se ha descrito que este efecto lleva a los sujetos a un estado en el que la consciencia funciona a un ritmo mucho mayor que el de sus propios cuerpos y, en consecuencia, pasan por un largo período de introspección antes de volver al control de sus movimientos. Los teóricos del ímpetu conjeturan que este fenómeno de “tiempo a solas”, como lo llaman, provoca que el individuo termine perdiendo todo deseo de cortar o dañar una Cronídea al verse obligado a contemplarlas por lo que en tiempo normal parecerían horas, o incluso días.

Las Cronídeas siguen siendo un objeto de estudio, pues aún no se determina la razón que las lleva a dejar de reproducirse cuando alcanzan una población determinada, ni cuáles son los factores que provocan el resplandor violáceo que se forma en sus pétalos. Además, aún se mantiene en pie el debate entre si las Cronídeas tienen la facultad de alterar la percepción de los sujetos o si realmente tienen alguna influencia sobre el tiempo físico.

Con las primeras regulaciones sobre estetización ambiental post-natural, la recolección de Cronídeas quedó limitada en sectores y cantidad, aunque ya son pocas las personas que demuestran gran interés en adquirirlas para decoración privada.

El hombre moderno

El hombre moderno despierta en medio de un sueño y lo olvida. Le abre los ojos todos los días la misma canción. Se dice a sí mismo que antes de dormir elegirá una canción nueva, pero cuando llega a la cama se le cierran los ojos de agotamiento.

El hombre moderno quiere disfrutar la vida, pero ha olvidado cómo. No lo pregunta. Preguntar es vergüenza e inmadurez. Por eso va a la tienda y compra el primer paquete rotulado con algún signo de alegría.

El hombre moderno está siempre rodeado de gente y se ríe, porque reír está bien. Saluda a todos y les pregunta “¿cómo estás?”. A veces le responden “¿cómo estás?”. Otras veces el hombre moderno dice “Hola” y le responden “Bien, ¿y tú?”. El hombre moderno tiene unas formas muy curiosas de expresarse.

El hombre moderno se pone cabizbajo porque tienen muchos amigos y todos son interesantes. Él también quiere ser interesante como ellos y deja palabras por ahí, en las calles azules, esperando una prueba de que alguien las lee. Si se lo dicen, sonríe; otras veces, espera.

El hombre moderno sonríe a la cámara, porque alguien lo va a ver. Está seguro de que alguien lo va a ver y le va a sonreír. El mismo hombre moderno sabe que él mismo se va a ver y querrá recordar (o imaginar) que estuvo feliz. Porque estar feliz siempre es bueno.

El hombre moderno estudia muchas cosas importantes que no le son importantes. Lo importante vendrá después. El hombre moderno trabaja y a veces eso no le gusta. Pero eso no importa, lo importante viene después. El hombre moderno se cansa y no recuerda muy bien lo que era importante.

El hombre moderno tiene ganas de fotografiar el viento, de quitarse los zapatos y de conversar con el pasajero de al lado; pero no puede, porque hay algo que hacer, siempre hay algo que hacer. Pone la música fuerte, no vaya a ser que alguien escuche sus pensamientos.

El hombre moderno se mete a la cama y se pone en posición fetal mirando a la pared. No sabe que quiere volver al principio, ir más lento y detenerse a escuchar un río que no sea de personas, de palabras, de imágenes coloridas. No, el hombre moderno quiere un río de agua fresca, fría y que se le escurra por entremedio de los dedos. Agua de verdad, transparente, sin colores ni otras mentiras.

El hombre moderno escribe poemas que no le muestra a nadie.

El hombre moderno hace caras frente al espejo.

El hombre moderno se toca por debajo de las sábanas.

El hombre moderno tiene miedo a la oscuridad, pero también le tiene miedo a la luz,

Al hombre moderno le cuesta dormir porque piensa muchas cosas.

En ese momento recuerda que está triste.

Porque el hombre moderno ama a una mujer antigua.

A veces

A veces miro al cielo

esperando que de golpe

las estrellas se pongan a correr.

Miro expectante esperando enterarme

de alguna mentira astral,

de alguna conspiración cansada.

A veces camino mirando el suelo

intentando distinguir alguna grieta

por la que se vea otro mundo distinto.

A veces voy perdido entre la gente

buscando un par de ojos que me alcancen,

y me digan que hay una puerta bajo una nube.

A veces espero que se corte una cuerda y se caiga la luna.

A veces imagino

que se acaba el mar.

Tengo una biblioteca

llena de piedras,

un escritorio

perfectamente quieto,

los colores ordenados

por las letras del alfabeto,

tengo todas las explicaciones,

las ventanas cerradas

y la estufa encendida.

Y las estrellas no se mueven,

y la luna no se cae,

y por las grietas en el suelo sólo se distingue tierra y concreto.

Por eso,

a veces me siento en un rincón

y escribo las cosas que imagino.