La semana pasada circuló la noticia de que un robot que formaba parte del equipo de seguridad de una agencia de comunicaciones en Washington se arrojó a una fuente. Las reacciones no se hicieron esperar: que si la rutina lo había hartado y había preferido morir, que si el futuro nos había prometido autos sin conductor y nos había entregado robots suicidas, que el mundo es terrible hasta para un robot. El robot, que hasta antes del suicidio era conocido por su modelo, K5, fue bautizado como Steve y, por supuesto, tiene twitter: @SteveTRobot. En su bio se lee: “I’m not a strong swimmer”.
Según Knightscope, la empresa que lo fabricó, el K5 es un robot “a prueba del futuro”, ya que al adquirirlo se obtienen actualizaciones gratuitas de firmware, software y, en cierta medida, hardware. Además, este robot puede desplazarse de forma autónoma en un ambiente complejo. Como el resto de los suyos, interactúa con el medio ambiente por medio de sus sensores –entre los que se incluyen cuatro cámaras, micrófono e intercom– y componentes de acción.
Los robots se desplazan de distintas maneras. Algunos tratan de emular el movimiento de distintos animales como salamandras, abejas, arañas, perros, etc. K5 es un robot más tradicional y se desplaza sobre ruedas. Muy probablemente fue una falla en los sensores, en combinación con su forma de desplazamiento, lo que ocasionó que Steve cayera a la fuente y se ahogara. Entonces, lamento decepcionarlos, lo que llevó a este policía robótico a quitarse la vida no fue su propia voluntad, porque, de entrada, no la tiene.
Al margen de la inexistencia de su voluntad, la “muerte” de Steve pone en la mesa un par de cuestiones a debatir: ¿son los robots el non plus ultra de la seguridad? Y, ¿si en algún punto del desarrollo tecnológico los robots adquieren conciencia, podrían suicidarse?
En cuanto al primer punto, la promesa en el campo de la seguridad es que, a diferencia de un vigilante privado humano corruptible a quien la rutina puede volver ineficiente, un robot sería incorruptible y altamente productivo en tareas repetitivas 24 / 7 / 365, porque hasta carga su batería por sí mismo. Hace algunos años, la meta parecían ser los robo-policías que hicieran el trabajo solos, incluyendo la toma de decisiones. El clásico ejemplo en el cine lo tenemos en RoboCop, aunque cabe distinguir que el protagonista no era un robot, sino un cyborg. Pero ese enfoque ha cambiado y ahora se busca que haya humanos involucrados. Es decir que la colaboración entre humanos y robots es lo que podría mejorar los estándares de seguridad, no la mera intervención de robots. Según la misma Knightscope, la combinación entre software, hardware y humanos mejora drásticamente la seguridad y es mejor dejar la toma de decisiones a cargo de las personas. Así nos evitamos parte del dilema ético a la hora de preguntar, por ejemplo, respecto de un robot dedicado a la seguridad, ¿quién es el responsable de haberle disparado al sospechoso? No será el robot, ya que la idea es que siempre existan humanos que se responsabilicen de las acciones de las máquinas.
El incidente de Steve también permite cuestionar cuál es el medio de locomoción más adecuado para un robot vigilante. Las ruedas le impiden evitar caídas y le hacen imposible levantarse. Vale la pena preguntarse si otra forma de desplazamiento hubiera evitado la pérdida y rápido reemplazo de Steve. Tal vez en el futuro, pensando precisamente en este tipo de incidentes, existan normas que refieran los mecanismos de acción más adecuados para robots, dependiendo del ambiente en el que se desenvuelvan.
En cuanto a la segunda pregunta, para pensar en el suicidio robótico tenemos que partir del supuesto de que el robot ha adquirido conciencia. Al estar al tanto de su existencia, podría decidir acabar con la misma. Tal decisión podría estar en contra de la tercera ley de la robótica que establece que un robot debe proteger su propia existencia, siempre y cuando dicha protección no entre en conflicto con la primera y segunda leyes, que postulan:
- Primera: Ningún robot causará daño a un ser humano o permitirá, con su inacción, que un ser humano resulte dañado.
- Segunda: Todo robot obedecerá las órdenes recibidas de los seres humanos, excepto cuando esas órdenes puedan entrar en contradicción con la primera ley.
Cabe recordar que posteriormente fue añadida la ley cero:
- Ningún robot causará daño a la humanidad o permitirá, con su inacción, que la humanidad resulte dañada.
¿Puede la conciencia, robótica o no, estar sujeta al control estricto de una serie de leyes? Se ha dicho que llegará el punto en el que estas se vuelvan obsoletas por el avance en el desarrollo tecnológico y la incorporación de dicha tecnología a la vida diaria. No hay que perder de vista que las leyes de Asimov fueron diseñadas cuando el propósito era conseguir robots completamente autónomos, que no requirieran la participación de humanos para funcionar.
Antes de tomar la decisión extrema de cortarse los circuitos, ¿podría un robot consciente decidir no ir al centro de carga un día y, por ende, dejar de funcionar? En todo caso, ¿cuál sería el propósito de la conciencia en un robot dedicado a tareas repetitivas? ¿Es la búsqueda de la conciencia robótica un afán de la vanidad humana frenado en parte por el miedo a la singularidad?
Nació el mismo año que se estrenó Blade Runner. Abogada, especialista en tecnología y protección de datos.