Las Tres Leyes de Asimov Resuenan con Fuerza en la Era de la Inteligencia Artificial
Hace años, disfruté profundamente la lectura de las historias de robots del prolífico escritor Isaac Asimov, compiladas en su icónico libro Yo, robot, publicado originalmente en 1950. En aquel entonces, para mí eran simplemente unos cuentos fascinantes de ciencia ficción; sin embargo, hoy reflexiono, al igual que Cal Newport, profesor de la Universidad de Georgetown, sobre su enorme relevancia debido al vertiginoso y frecuentemente descontrolado desarrollo de la inteligencia artificial (IA).
Las Tres Leyes de la Robótica: Un Sistema Normativo Envidiable
Los robots en las narraciones de Asimov están estrictamente sometidos a unas reglas fundamentales de comportamiento: las tres leyes de la robótica. La primera ley establece claramente que "un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daño". La segunda señala que todo "robot debe obedecer las órdenes dadas por los seres humanos, excepto cuando tales órdenes entren en conflicto con la primera ley". Y la tercera precisa que un "robot debe proteger su propia existencia hasta donde esta protección no entre en conflicto con la primera o segunda ley".
Estas tres leyes buscan evitar que la humanidad sufra con los robots un destino similar al del doctor Frankenstein, quien, como es ampliamente conocido, creó una criatura que se salió de su control y terminó asesinando a sus seres más cercanos. Estas normas nos alejarían de ese drama trágico, ya que lograrían que los robots se autoprotejan (puesto que son costosos) pero que siempre nos obedezcan y, ante todo, que nunca constituyan una amenaza para ningún ser humano.
Además, para cualquier estudioso del derecho, el sistema normativo conformado por estas leyes es verdaderamente envidiable: el enunciado de cada una de ellas es claro y simple, y las tres leyes mantienen entre sí una jerarquía inequívoca que debería permitir superar de forma sencilla los posibles conflictos normativos entre sus mandatos.
Complejidades y Contradicciones en Situaciones Concretas
No obstante, los distintos relatos de Asimov demuestran que esas leyes, tan simples y coherentes en abstracto, generan complejidades y contradicciones en situaciones concretas; y por eso los robots se confunden y entran en verdaderos dramas existenciales profundos.
La doctora Susan Calvin, una especie de psicóloga de robots, rememora en el libro esos conflictos robóticos. Uno muy ilustrativo es el cuento "Círculo vicioso": una estación espacial en el planeta Mercurio requiere selenio para seguir funcionando y garantizar la supervivencia de los dos técnicos que la ocupan. Como ellos no pueden buscar ellos mismos el selenio, debido a la toxicidad extrema de la atmósfera mercuriana para los seres humanos, entonces envían a Speedy, un robot de última generación, a que recupere el material en una mina a varias millas de distancia.
Al acercarse a la mina, el robot constata que ésta podría dañarlo seriamente y, por ello, conforme a la tercera ley, se aleja de ella de inmediato. Pero al mismo tiempo recuerda la orden que le fue dada y entonces, por mandato estricto de la segunda ley, se devuelve a la mina; sin embargo, vuelve a alejarse debido a que el peso de esa tercera ley había sido reforzado en este robot por ser extremadamente costoso, mientras que los técnicos no le habían enfatizado suficientemente que la orden de traer el selenio tenía que ser cumplida a toda costa, por tratarse de un asunto de vida o muerte crítica. Speedy queda atrapado en un círculo vicioso desesperante, que lo enloquece progresivamente… Dejo al lector el gusto de descubrir el resto del cuento, que tiene un final feliz, gracias a la creatividad humana ingeniosa.
Una Interpelación Urgente para Nuestro Presente Tecnológico
Estas historias hoy nos interpelan con fuerza: muestran que las máquinas basadas en la IA deberían estar sometidas a ciertos principios éticos fundamentales, semejantes a las tres leyes de la robótica, si queremos potenciar sus beneficios significativos y reducir sus riesgos potenciales. Asimov era optimista de que eso era posible, con una mezcla inteligente de reglas abstractas y ajustes humanos en situaciones concretas.
Pero también estos relatos nos revelan crudamente que los riesgos son reales y la tarea es difícil, incluso si hubiera un interés genuino de los Estados más poderosos por cooperar y lograr acuerdos y regulaciones efectivas en esa dirección. Lo realmente grave y alarmante es que ese interés hoy no existe de manera sustancial y la IA está siendo desarrollada en forma alocada y sin restricciones éticas adecuadas.
* Investigador de Dejusticia y profesor de la Universidad Nacional.
Por Rodrigo Uprimny



