¿Alguna vez tendremos que extender la caridad a los robots?
ESCRITO POR: JIMMY AKIN •
La inteligencia artificial está de moda en este momento. Hay muchas noticias al respecto. Los motores de búsqueda están comenzando a usarlo de una nueva manera. Así son los robots. Y algunos hablando de una singularidad venidera.
¿Qué nos dicen la fe y la razón sobre todo esto?
¿Puede un robot tener alma? ¿Hay algo de verdad en las películas de ciencia ficción como Blade Runner? ¿Llega un punto en el que deberíamos considerar a las inteligencias artificiales como “nuestro prójimo” (ver Lucas 10:29-37)? Echemos un vistazo a estos problemas.
Primero, ¿qué es la inteligencia artificial? Se puede definir de diferentes maneras, pero en pocas palabras, la inteligencia artificial (IA) es la capacidad de las máquinas para imitar el desempeño de los humanos y otros organismos vivos en la realización de tareas que requieren el uso de inteligencia.
Hay muchas formas de IA, y la mayoría de ellas son muy limitadas. Las primeras máquinas de sumar mecánicas eran capaces de realizar hazañas matemáticas simples que de otro modo requerían inteligencia humana, por lo que podrían clasificarse como una forma de IA primitiva.
Hoy en día, los aspectos de la IA se utilizan en todo tipo de dispositivos, desde computadoras hasta teléfonos inteligentes, lavadoras y refrigeradores. Básicamente, cualquier cosa que tenga un chip de computadora tiene alguna forma de funcionamiento de IA.
Sin embargo, la gente tiende a reservar el término para aplicaciones más impresionantes, y especialmente para aquellas que aún no se han desarrollado. El “santo grial” de la investigación de la IA está produciendo lo que se conoce como inteligencia general artificial o IA fuerte. Esto a menudo se entiende como dotar a un sistema mecánico con la capacidad de realizar tareas basadas en la inteligencia tan bien o mejor que un ser humano.
¿Qué es la singularidad? Algunos autores hablan de una singularidad tecnológica venidera, es decir, un punto en el que el desarrollo tecnológico se vuelve incontrolable e irreversible, transformando la vida y la cultura humanas de formas imprevisibles.
El desarrollo de una IA fuerte podría desempeñar un papel en este evento. El autor de ciencia ficción Vernor Vinge considera que la singularidad implica el desarrollo de una IA fuerte que puede seguir mejorando, llevándola a superar la inteligencia humana.
Algunos autores han propuesto que la singularidad está cerca, que tal vez estemos viviendo sus primeras fases y que realmente se afianzará entre 2030 y 2045.
Sin embargo, otros se han mostrado escépticos al respecto, argumentando que no estamos ni cerca de tener una IA sólida y que es posible que nunca podamos desarrollarla. Además, se puede argumentar que las tendencias que conducirían a una singularidad pueden romperse.
Por ejemplo, la ley de Moore, según la cual la potencia informática se duplica aproximadamente cada dos años, se está rompiendo o ya se ha roto, y sin mejoras importantes y continuas en la potencia informática, sería considerablemente menos probable desarrollar una IA fuerte o tener una singularidad.
¿Pueden los robots tener alma? No. Desde la época de los antiguos filósofos griegos como Aristóteles, se ha reconocido que el alma es lo que da vida al cuerpo y, como señala Santiago 2:26, “el cuerpo sin el espíritu está muerto”.
Las almas están asociadas con organismos vivos, y los robots y las computadoras no están vivos. Por lo tanto, no tienen ni pueden tener alma.

Esto no quiere decir que no se pueda desarrollar vida artificial. Esa es una pregunta aparte, y las químicas de vida alternativas son concebibles. Sin embargo, las entidades que estarían genuinamente vivas no serían computadoras o robots tal como se entienden actualmente.
¿Hay algo de verdad en películas como Blade Runner? Hay verdades contenidas en todas las formas de ficción, pero si la pregunta significa: “¿Es probable que tengamos replicantes como los representados en Blade Runner?”, Entonces la respuesta es: “No en el corto plazo”.
En la película Blade Runner, el personaje de Harrison Ford persigue a los “replicantes”, criaturas artificiales que pueden distinguirse de los humanos solo por pistas muy sutiles inducidas psicológicamente durante las pruebas.
Estos seres son aparentemente de naturaleza biológica. Si no lo fueran, si fueran solo robots, entonces no necesitarías aplicar una prueba psicológica. Simplemente podría realizar lo que podría llamarse la “prueba de Shylock” de El mercader de Venecia de Shakespeare.
En la obra, Shylock argumenta que los judíos son como otras personas al decir: “Si nos pinchas, ¿no sangramos?”. Todo lo que necesita hacer para desenmascarar a un robot de aspecto humano (es decir, un androide) es pincharlo con una aguja, ver si sangra y luego hacerle un análisis de sangre.
Aparentemente, tal prueba no desenmascararía a un replicante. Aunque estamos comenzando a construir formas de vida sintéticas (se les conoce como xenobots), no estamos ni cerca de poder construir una forma de vida sintética que pueda pasar por humana. Tampoco estamos cerca de poder construir androides que puedan hacerlo.
¿Llega un punto en el que deberíamos considerar a las inteligencias artificiales como “nuestro vecino”? La respuesta corta es no, pero viene con una calificación.
Para ver los principios involucrados, considere el caso de los animales. Los animales no humanos no tienen derechos, pero esto no significa que podamos tratarlos con absoluta indiferencia. Podemos usarlos para servir las necesidades humanas, pero como dice el Catecismo, “es contrario a la dignidad humana hacer que los animales sufran o mueran innecesariamente” (2418).
La razón por la que no podemos ser desenfrenadamente crueles con los animales es que hacerlo es contrario a la dignidad humana, es decir, hay un defecto en el ser humano que trata a los animales con total crueldad. Incluso si un perro no tiene derechos intrínsecos, que un humano torture a un cachorro por diversión revela que hay algo roto en el ser humano.
Por supuesto, las IA no tienen la capacidad de sufrir, pero pueden actuar como si la tuvieran. Estimular deliberadamente una IA de una manera que haga que parezca sufrir y, digamos, suplicar clemencia, sería el equivalente a jugar deliberadamente un videojuego basado en torturas en el que el jugador inflige sufrimiento intencional a una víctima simulada por diversión. De hecho, dado que los videojuegos se ejecutan en motores de IA, eso es exactamente lo que estaría haciendo el jugador.
Sin embargo, reconoceríamos que algo anda mal con una persona que obtiene placer torturando deliberadamente a un personaje de videojuego, por ejemplo, arrancándole las uñas para escucharlo gritar y suplicar.
La posición de las IA es, por tanto, similar a la posición de los animales. Las IA no tienen derechos, pueden usarse para satisfacer necesidades humanas y no deben considerarse equivalentes a los seres humanos. No son “nuestros vecinos”, no importa cuán inteligentes se vuelvan. Sin embargo, en la medida en que simulan respuestas humanas, debemos interactuar con ellos de una manera que no sea cruel.
No por su bien, sino por el nuestro.