En 2010, la UE emitió una directiva legal titulada » Sobre la protección de los animales utilizados con fines científicos «. Describe y explica qué animales deben tener ciertas protecciones, y exige que 27 estados de la UE deben seguir ciertas reglas para la captura y prueba de animales. Prohíbe cualquier acción que pueda causar a esos animales «dolor, sufrimiento o angustia severos, que probablemente sean duraderos y no se puedan mejorar». Además, todas las pruebas necesitan estudios de viabilidad independientes para demostrar que los animales fueron necesarios para tal o cual investigación. En esta lista están los primates no humanos, la mayoría de los mamíferos y muchos vertebrados (Curiosamente, los ciclóstomos y los cefalópodos como los pulpos se incluyen como vertebrados honorarios).
Si bien la directiva establece explícitamente que «todos los animales tienen un valor intrínseco», el documento es básicamente un ejercicio para justificar cómo algunos animales son más valiosos que otros. Pero, ¿qué criterios vamos a utilizar si vamos a clasificar las especies? Si imaginamos una larga línea de animales desde la ameba hasta los humanos, ¿en qué punto trazas una línea para decir: “Después de este punto, las cosas tienen derechos ”?
Es un tema que se aplica cada vez más a otra área espinosa: los derechos de los robots. Aquí también podemos trazar una línea similar. En un extremo están las calculadoras y en el otro están las IA trascendentes y omniscientes de la ciencia ficción. ¿Dónde cae nuestra línea, ahora? ¿Cuándo una computadora tiene derechos? ¿Y cuándo, si alguna vez, un robot es una persona ?
Futuros esclavos
En la mayor parte de la ciencia ficción, los robots se representan como esclavos o recursos para ser explotados. Siempre tienen menos derechos, si es que tienen alguno, que el buen viejo homo sapiens de sangre y genes. En Star Wars , los droides usan el lenguaje, planean y parecen estar angustiados por varias cosas. Sin embargo, son tratados poco más que esclavos. Los replicantes de Blade Runner , indistinguibles de los humanos «reales», se ven obligados a trabajar como soldados o prostitutas. Star Trek incluso dedica un episodio completo a la cuestión de si Data puede elegir su propio camino de vida. La ciencia ficción representa mundos sin ningún tipo de derechos de robot.
Esto se debe a que todos nos criamos con una especie de desconexión emocional de los robots. Son apartados y diferentes. Es la norma de nuestros tiempos tratar a las computadoras y la IA como objetos para usar. Su bienestar, sus elecciones y sus «vidas» son asuntos triviales, si es que son asuntos en absoluto.
Todo lo cual es una curiosa inconsistencia moral. En nuestros documentos legales y éticos (como la directiva de la UE anterior), a menudo hacemos referencia a dos conceptos: sapiencia (inteligencia compleja) y sensibilidad (la capacidad de tener experiencias subjetivas o «sentimientos»), los cuales atribuimos a los animales en diferentes grados. No sabemos si tienen alguna, pero suponemos que la tienen. Incluso nuestra directiva de la UE dice: «Los animales siempre deben ser tratados como criaturas sensibles». Esto no quiere decir que lo sean, sino que deberíamos actuar como si lo fueran. Sin embargo, ¿por qué no los atribuimos tan fácilmente a la IA sofisticada?
La prueba de Turing inversa
La prueba de Turing es un experimento famoso en el que los usuarios humanos le hacen una serie de preguntas a una inteligencia artificial para determinar si es indistinguible de un humano o no. Es una cuestión de inteligencia e imitación. Pero, ¿y si le damos la vuelta a esto y hacemos una «Prueba de Turing de derechos de robot»? ¿Qué pasa si hacemos la pregunta, «¿Qué tiene un robot que los excluye de los derechos, las protecciones y el respeto?» ¿Qué diferencia a los robots de los humanos?
Aquí hay solo tres posibles sugerencias y sus respuestas.
- Los robots carecen de inteligencia avanzada y generalizada (sapiencia). Esto es ciertamente cierto, en este momento. Su calculadora es excelente para trabajar con π y cos(x), pero no puede ayudarte a leer las señales de tránsito. Los asistentes de voz son buenos para decirte el clima, pero no pueden mantener una conversación. Sin embargo, hay tres problemas con esta objeción. Primero, hay muchos animales sin mucha inteligencia que aún respetamos y tratamos bien. En segundo lugar, hay algunos seres humanos que carecen de inteligencia avanzada, como los bebés o los discapacitados mentales graves, a quienes todavía les damos derechos. En tercer lugar, dada la velocidad de mejora de la IA, este es un umbral que pronto podremos cruzar. ¿Estamos realmente listos para liberar a las computadoras y tratarlas como humanos por igual?
- Los robots no pueden sentir emociones como el dolor o el amor (sensibilidad). Esta es un área complicada, sobre todo porque no sabemos del todo qué son las emociones. En un nivel fisicalista, si reducimos los sentimientos a hormonas o reacciones electroquímicas en el cerebro, entonces parece plausible que podamos reproducir eso en una IA. En ese contexto, ¿se les otorgarán derechos legales/éticos? Sin embargo, el otro problema es que todavía encontramos un sesgo centrado en el ser humano aquí. Si tu amigo llora, asumes que está triste, no que esté imitando la tristeza. Si tu mamá se quita la chaqueta, asumes que tiene calor. Cuando una IA demuestra un sentimiento (este es más el caso en las representaciones de ciencia ficción que en cualquier otra cosa hoy en día), ¿por qué asumimos que solo están imitando? ¿Es porque…
- Los humanos fabrican y programan los robots. Incluso cuando una IA más avanzada puede «aprender» de las situaciones, todavía necesita mucha dirección humana en forma de programación. Algo tan dependiente de la agencia humana no puede considerarse digno de derechos. Hay dos problemas con esto. En primer lugar, si bien no hablamos de que los humanos están «programados», no es exagerado decir que eso es exactamente lo que hacen nuestros genes. Tú eres simplemente el resultado de tu cableado genético y tu aporte social y parental. Cambia las palabras, y poco es diferente. Segundo, ¿por qué la dependencia te excluye de los derechos? Los perros, los niños y los ancianos dependen de los humanos, pero no permitimos que sean abusados o maltratados. (Aparte, el argumento de “dependencia = esclavitud” fue presentado por primera vez por Aristóteles).
El lado equivocado de la historia
Hay dos preguntas, escondidas dentro de un gran problema. La primera es si una IA es digna de ser persona; esta es, quizás, una pregunta demasiado grande por ahora (y algo que quizás nunca se responda satisfactoriamente). La segunda, sin embargo, es ¿en qué punto la IA califica para ser tratada con respeto y cuidado? ¿Cuándo ya no podremos explotar o maltratar a los robots avanzados?
Bien podría ser que las generaciones futuras miren hacia atrás horrorizadas por nuestro comportamiento. Si imaginamos un futuro en el que la IA inteligente y consciente sea tratada como los humanos, también podemos imaginar lo sorprendidos que estarían de nuestra era. Si la IA del siglo XXII son nuestros amigos, colegas y socios de juego, ¿será el tema de la explotación del siglo XXI un tema incómodo?
Quizás estemos al borde de la “IA digna”. Nadie está haciendo campaña por los derechos de las calculadoras, pero tal vez deberíamos comenzar a reevaluar cómo vemos la IA impresionante y generalizada que estamos creando. Tenemos un pie a cada lado de un umbral tecnológico y es hora de reexaminar nuestros valores éticos y sociales.