Tenía un libro en mis manos.
Su primera página constaba de tres sentencias. Breves y concisas normas.
Primera Ley: Un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
Segunda Ley: Un robot debe hacer o realizar las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª Ley.
Tercera Ley; Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley.
Durante mucho tiempo no pasé de esa primera página. Cogia el libro, lo abría, leia las leyes y lo cerraba.
Pasados unos meses de indecisiones y tras leer un millón de veces esas breves normas, un Rubén adolescente leyó por primera vez la novela de Asimov.
En una ocasión conocí a una persona que los construía. Hacia robots. Su confesión una mañana paseando por un poco transitado parque me dejó perplejo. ¿Pero pones tu los chips y sensores? Si, claro. Respondió. Mi extrañeza era lógica, esa persona no tenia apariencia ninguna de "profesor bacterio", típico cliché de científico loco pero que todos tenemos en mente al hablar de experimentos con bata blanca y miles de circuitos rondando por mesas con cachivaches de toda índole.
¿Por qué tardé tanto tiempo en decidirme a leer "Yo, robot"? Tenía muchas expectativas ante aquel libro. Habia escuchado tantas cosas que quizá no deseaba empezarlo para no acabarlo jamás.
Los robots más simples son los autómatas. "Seres" que de un modo u otro saben lo que tienen que hacer y donde ir. Mediante una serie de algoritmos llegan a deducir cual es el siguiente paso.
Eso es lo que me empezó a alucinar de este mundo cuando era un simple niño que imaginaba un futuro al estilo de Blade Runner.
Los autómatas no tenian dudas.
¿En cuantas ocasiones hay que insistir hasta conseguir tus sueños?
Una pregunta sencilla para un pequeño robot, una muy complicada para un humano.
"For i:=1 to 500". Un contador (i) y un maldito bucle que llega hasta el número en cuestión. Después de eso, el robot pasa a la siguiente tarea.
No hay duda alguna posible. Cuando el contador llega a 500 (i:=500) el algoritmo termina (End) y los circuitos analógicos y digitales del cerebro "pensante" de la máquina se dedican a otros menesteres.
Los humanos (yo) somos distintos. Al bajar de una montaña rusa, por ejemplo no puedo simplemente pasar a otra cosa. ¡Quiero repetir!
Es bien cierto que los viejos autómatas y los hombres de hojalata del mago de Oz quedaron muy atrás. Apareció la inteligencia artificial, las redes neuronales y la nanotecnología. ¡Boom! Los robots con decisiones "propias" se hicieron tangibles.
Ahora bien, ¿tendrán dudas?
Para eso fueron dadas esas tres leyes del inicio. Los robots del futuro podrian vacilar ante cualquier cuestión. ¿En cuantas ocasiones hay que intentar conseguir aquello con lo que se sueña?
Un simple contador no bastaría para estas máquinas, ya que las variables a analizar se hacen infinitas.
¿Como solucionamos, pues, nuestro dificil dilema?
Algo que se les achaca a los robots en las novelas, documentales y artículos de todo calado es la inestimable capacidad de sentir. Carecen de corazón y alma, por tanto, no hay sentimientos. ¿Sería posible simularlos con unos y ceros o simples subidas y bajadas de tensión?
Filosofía aparte, la cuestión es que una máquina siempre es programada para hacer lo que sea que haga de la manera más eficiente posible. Guardando recursos y tiempo para otras tareas.
Un robot, a mi modo de ver, jamás pasaría del 500 en ese hipotético contador, por mucha inteligencia artificial que intentara simular algun atisbo de sentimientos. No es eficiente. Punto.
No obstante, el mundo de las máquinas pensantes, de Terminator o Blade Runner, aun queda un pelin lejos. Por eso, al empezar esta entrada me he dicho...¿qué ocurrirá en la 501?