
¿‘Fake humans’?
-->
http://www.lavanguardia.com/opinion/20180303/441199290438/fake-humans.html?utm_campaign=botones_sociales_app&utm_source=social-otros&utm_medium=social
"La hiperconectividad sin latencia que traerá el 5G
hará de nuestras vidas un laboratorio de experiencias que probará las
aplicaciones digitales que se nos ofrezcan dentro de un modelo de sostenibilidad
monetizable donde la eficiencia y la utilidad serán los patrones
de una economía de datos gobernada por la inteligencia artificial."
Malo si es falso, peor si es cierto.
El artículo es crítico y plantea interrogantes acertados,
especialmente en el ámbito de la ética. Y ahora, al hilo de este artículo,
hablemos de otro dilema, ya más cercano que lejano.
Philippa
Foot,
una filósofa para mí hasta hace poco prácticamente desconocida, es la creadora
del famoso dilema del tranvía, del
que, como digresión marginal, conviene decir que Foot lo hizo servir para inquirir sobre la eticidad de las
respuestas (posiciones) ante el aborto no terapéutico. (https://ca.wikipedia.org/wiki/Dilema_de_la_vagoneta).
Lo dicho, he leído a Philippa Foot, a la que la he conocido
en un ciclo de diez conferencias sobre libros significativos en el pensamiento
crítico filosófico (Casa Elizalde,
enero a abril de este año), y su lectura me ha hecho pensar en el siguiente
dilema, en referencia a la inteligencia artificial aplicada a la conducción
automática de vehículos.
Supongamos el caso en que un coche con
conducción automática pierde la dirección y tiene, en función de las
características de los coches implicados y del entorno, dos opciones:
i) estrellarse contra el coche
que tiene al frente, con la muy previsible muerte de sus ocupantes, pero
salvando la de los ocupantes propios.
ii) caer por un acantilado,
donde morirán previsiblemente todos -pero sólo- los ocupantes propios, evitando
la muerte de terceros.
La pregunta no es la que esperan:
sería demasiado fácil (¿qué alternativa codificarían ustedes en el software?).
La pregunta es:
Si sólo hay vehículos de conducción
automática, si todas las marcas de vehículos han codificado una de las dos
alternativas, si el grupo A de vehículos tiene codificado la alternativa i) y
el grupo B de vehículos tiene codificado la alternativa ii), si tienen la
obligación de adquirir un vehículo para el servicio público de su ayuntamiento
¿qué grupo elegirían ustedes como próximo vehículo autónomo de servicio público?
Hice esta pregunta en un foro donde
transitamos unos pocos medioambientalistas, ecólogos, economistas, ingenieros,
todos con cierta conciencia de la dramática situación a la que la sociedad se
puede ver empujada tanto social y económicamente como biológicamente (por el
envenenamiento del medio ambiente, del que los gases invernadero es el principal,
pero no único, exponente). La respuesta, entre inmediata y casi inmediata,
abonando la idea de que qué más da que el gato sea blanco o negro, si caza ratones,
me dejo algo anonadado: los vehículos automáticos provocarán menos accidentes,
luego qué más da las decisiones que tomen (o por qué las toman), lo importante
es que maten menos.
Esperaba, para qué negarlo, una cierta
discusión, alguna duda al respecto, una reserva sobre la ciega tecnología (por
lo menos, ciega para nosotros, que no para los que deciden qué implantar como “ética”
en los vehículos autónomos). En fin, esperaba poder abrir algún tipo de reflexión.
Así que, ante las respuestas categóricas que recibí, y tras rumiar por más de
una semana, aquí queda reflejado lo que contesté:
En
un sentido irónico, mi respuesta bien podría ser: me alegro que el tema sea,
para vosotros, de tal importancia que ya os había llevado a una maduración del
mismo, producto, sin duda, de una larga reflexión en tiempo pasado, pues sólo
así entiendo unas respuestas tan prontas, categóricas y asertivas que no dejan
margen a la duda.
En
un sentido sarcástico, mi respuesta sería: vamos bien si los que deberían ser,
en el mejor de los sentidos, la vanguardia de la conciencia social minusvaloran
el precio del progreso. Y así avanzamos, de éxito en éxito hasta la derrota
final.
En
un sentido serio, mi respuesta es: es contradictorio tener dos éticas, una para
la naturaleza y otra para el ser humano, sin argumentar por qué, según convenga
a nuestro discurso, aplicamos una u otra. No sólo es un problema que sea
contradictorio, sino que esa contradicción nos debilita ante los adversarios
políticos.
A
partir de aquí, la argumentación de por qué es necesario seguir con la
pregunta.
Si
nosotros, los que criticamos a los tecnoptimistas, fiamos a la tecnología la
decisión de quien morirá, nos hacemos un flaco favor conceptual. Por definición, y según nuestras ideas, deberíamos dejar de lado que la tecnología venga en nuestra ayuda ante un
dilema tan rotundo como es el del sinsentido de la muerte de un ser humano.
Pero
veamos qué hay detrás. Empecemos por una obviedad: quien quiere el fin, quiere
los medios, aunque lo niegue.
¿Cuál
es el fin del transporte público? Dar un servicio lo más democrático posible
(en el sentido de alcance popular y alta eficiencia, con independencia del
estatus social, económico o biológico), y ligado a ello, con el menor impacto
social, económico y medioambiental posible. Impacto que nunca será cero.
El
primer fin vendrá constreñido por los otros tres, lo que planteará
continuamente problemas que los técnicos en urbanismo, con apoyo de
especialistas, deberán solucionar.
Hasta
ahora el impacto humano no entraba entre las constricciones a ser tenidas en
cuenta por los técnicos, estaba resuelto a través de la norma comúnmente
aceptada de diferenciar entre incidentes accidentales e incidentes dolosos,
aceptando los primeros como el riesgo derivado de una amenaza cuya concreción,
una vez conocida, se debe minimizar y responsabilizando de los segundos,
incluso de forma penal, a unos humanos concretos. La responsabilidad civil se
da por supuesta y a cargo del responsable del servicio.
El
problema que Philippa Foot plantea tiene que ver con la posible implantación de
vehículos autónomos, y sí, es de raíz ética y no hay nada en la naturaleza que
nos permita elaborar una analogía.
¿Es
preferible decidir matar a uno a permitir que cinco mueran?
Ésta,
y no otra, es la pregunta, y lo es en éstos, y no otros, los términos.
En
el ejemplo del tranvía, en un ramal, aquel que el tranvía va a recorrer si no
hacemos nada, morirán cinco personas. Si actuamos, activando la aguja,
mataremos a una persona, salvando a las otras cinco.
Nada
sabemos de los cinco, a los que es posible que ni siquiera veamos, y de los que
alguien, del que no tenemos razón alguna para dudar, nos advierte de su existencia,
precaria si no actuamos. Nada sabemos del uno, salvo que nuestra acción lo
matará.
Incluso
podemos decir que continuamente van cambiando esos cinco (podríamos decir que
es un paso donde caben cada vez cinco personas), y que de igual manera va cambiando
ese uno (un paso donde cada vez sólo puede contener a una persona).
Se
asume que sólo existen dos grandes tipos de éticas (laicas, que de religiosas
hay tantas no ya como religiones, sino casi como creyentes), las llamadas teleológicas,
que ponen en primer plano, en tanto que seres sensibles, las consecuencias de
nuestras decisiones, y las deontológicas, que viene a decir que, en tanto que
seres racionales, nos debemos atener al principio del deber.
Entre
las primeras, la más conocida es la utilitarista (Bentham y Mill fueron sus
primeros valedores), entre las segundas, la más conocida es la kantiana (obviamente puesta en escena por Kant).
El
utilitarismo y el ecologismo tienen una articulación a veces conflictiva, pues
la búsqueda de la mayor felicidad (entendida como maximización del placer y
minimización del dolor: somos, ante todo, seres sensibles) posible para el
mayor número posible de personas, fin de la ética utilitarista, suele chocar
con una cierta llamada al deber por parte de los que entendemos que, si
queremos proteger la naturaleza como un bien en sí, y no sólo como un bien para
nosotros, a algo debemos renunciar, aunque dicha renuncia conlleve renunciar a
maximizar el placer o incluso a minimizar el dolor. En las éticas teleológicas
es más fácil aceptar que el fin, no de forma absoluta, pero sí de alguna
manera, justifica los medios.
La
ética deontológica tiene también un articulación conflictiva con nuestra vida
diaria, por ejemplo: debemos no mentir, pero mentimos no sólo por interés, sino
desinteresadamente, y así podríamos poner cientos de ejemplos. Choca más
profundamente en la medida de que lo que está en juego se acerque a nuestro círculo
más íntimo (paisanos, saludados, conocidos, amigos y familia, de menor a mayor
capacidad de hacernos caer en contradicciones). Igualmente costará mantener
aquello de que tanto los fines como los medios deben tener su propia e íntima
justificación, acercando la posibilidad de que de alguna manera el fin
justifique los medios, posibilidad totalmente ajena a la deontología.
¿Podemos
ser a veces teleológicos y a veces deontológicos? Evidentemente, sí, pues somos
humanos y por ello sujetos a contradicción. La pregunta es: cuando razonamos,
cuando establecemos las bases de un discurso en base a una argumentación
racional, y aunque podamos ¿Debemos? Evidentemente, no: es hacernos trampas y
ofrecer flancos débiles a los adversarios.
¿Por
qué debemos renunciar a la ética utilitarista, en particular en el tema que nos
interesa?
Primero
debemos aislar el problema y determinar a qué no nos estamos refiriendo.
No
es el caso de un piloto de avión que, perdido casi todo el control del mismo,
actúa para minimizar los daños personales, y está en el deber de buscar, pues
para eso es el piloto responsable, la alternativa menos gravosa de las
posibles.
Tampoco
es el caso del capitán de un barco que, estando ya en un bote salvavidas, asume
la responsabilidad de no aceptar más náufragos a bordo so pena de que el bote
zozobre.
Mucho
menos estamos ante el caso de un altruismo extremo, que al ofrecer la propia
vida, pone en riesgo a uno (él mismo) para salvar a otro u otros.
Ahora
analicemos el problema desde nuevos puntos de vista.
El
ejemplo extremo, el que cualquier estudiante de bachiller lee o propone, es el
siguiente:
En
un hospital entra una persona accidentada en coma. Podemos intentar salvarla,
con un pequeño margen de éxito, inyectándole una droga.
En
el mismo hospital hay cinco personas en situación crítica a la espera de un
trasplante.
Si
inyectamos la droga al accidentado, se salve o no, no podremos usar sus órganos
en el trasplante, con lo que morirán las cinco personas.
Si
no le inyectamos la droga, morirá sin remedio, y podremos salvar sin duda
alguna a las cinco personas.
Sois
el director médico ¿Cómo actuaríais vosotros: condenaríais a las cinco personas
a una muerte segura por una cierta, pero pequeña, posibilidad de salvar a una?
El
personal sanitario, todo el personal sanitario, no tiene ninguna duda ética: primum non nocere (La expresión latina primum
nil nocere o primum non nocere se traduce en castellano por "lo primero es
no hacer daño". Se trata de una máxima aplicada en el campo de la medicina,
frecuentemente atribuida al médico griego Hipócrates.)
Los
utilitaristas no dogmáticos, tampoco.
Otra
aproximación:
En
un laboratorio farmacéutico se produce una droga que salvará al 5% de una
sociedad que padece una extraña enfermedad mortal e incurable. Una vez
obtenida, la única forma de administrarla es disolviéndola en la canalización
pública del agua para que alcance a todos. El suministro de esa droga conlleva
indefectiblemente que un 0,01% de la sociedad muera por trastornos letales
debidos a sus efectos secundarios.
Sois
el presidente del laboratorio, y ya os debéis imaginar la pregunta, y aquí el
primum non nocere no os protege.
Una
de las trampas de la tecnología, tras la que los tecnoptimistas se esconden, es
la mediación que ésta establece entre el agente y el paciente.
En
los dos ejemplos citados no existe mediación posible, estamos ante una relación
directa entre la decisión del agente y la consecuencia en el paciente, lo que
nos permite ver la responsabilidad de la consecuencia, pero no de forma
utilitarista, sino por conformidad con el fin que creemos es nuestro deber:
primum non nocere (algo muy kantiano, pero a la vez, y por decirlo así, muy
genético).
Cuando
existe mediación (un dron, por ejemplo, o también un botón que de alguna forma
interviene alejando la acción -simplemente apretar un botón- de la consecuencia
-inundar de gas ciclón una cámara) parece ser una constante ineludible que la
responsabilidad por la consecuencia de nuestra acción (decisión) se diluya,
tanto más cuanto menor relación espacio temporal exista entre decisión y
consecuencia.
Que
sea así, que sea un hecho de la naturaleza (humana) dimitir de la
responsabilidad de nuestras decisiones o acciones en la medida que sus
consecuencias se alejen de nosotros en el tiempo y en el espacio (y en el
círculo moral: de la familia a los extraños), no nos permite aceptar que deba
ser así (del ser no debemos pasar al debe ser: es la llamada falacia
naturalista, de la que a veces peca cierto utilitarismo: si algo es así, es que
debe ser así ¿no os suena a discurso de la derecha, especialmente para temas
sociales? Pues sí, porque la derecha es utilitarista de forma dogmática).
Que
sea así, por que sí es cierto que así de frágil es nuestra capacidad de responsabilizarnos
(cómo, si no, tenemos todos móviles sabiendo que obtener coltán, indispensable
para su producción, literalmente mata personas en las minas africanas; y quien
dice móviles, puede decir tantas y tantas cosas que usamos, incluso el
sostenimiento del -pequeño, en nuestro caso- estado del bienestar) no nos permite afirmar que así debe ser.
Y
ahora volvamos a la pregunta inicial.
Si
decidís vehículos autónomos por las razones técnicas de seguridad, eso
significa que por salvar a cinco, aunque no sepáis qué cinco, condenáis a uno,
aunque no sepáis qué uno.
¿Por
qué veis diferencia entre esta opción y cualquiera de las otras dos?
En
primer lugar, por tecnoptimismo: traspasáis a la tecnología la decisión de
quien debe morir, olvidando que la tecnología tiene (y tendrá) un componente
ideológico y de interés que no tiene por qué ir acompasado con el bien común. En
este caso, es la tecnología, y los tecnólogos, especialmente los
tecnoptimistas, los que deben soportar la carga de la prueba y ser considerados
no inocentes hasta que se demuestre lo contrario (lo mismo que, con toda
contundencia -y razón, añado- sostenemos ante la biotecnología genética
aplicada los organismos modificados genéticamente).
En
segundo lugar, por debilidad: la mediación que existe entre una decisión
administrativa (adquirir unos u otros -o decidir no adquirir: no hablamos de un
metro automático, que tiene un universo discreto de posibilidades) y sus
consecuencias actúa, aunque no pensemos en ella. Es tan lábil, delgada y frágil
en nuestra mente (pero no en la realidad) la relación entre decidir la compra
de un vehículo y la muerte de una persona, y la mediación es tan poderosa,
firme y consistente que no nos sentimos interpelados por responsabilidad
alguna, pero existe y debemos recordar el “primum non nocere”, o poco nos
diferenciaremos de aquellos a los que criticamos por argumentar que los omg
salvan vidas.
PD:
no todo está dicho y es de humanos errar, pero es diabólico perseverar, así
que, como no puede ser de otra manera, critico porque estoy abierto a críticas.
Epílogo. Philippa Foot demuestra que,
por coherencia de razones y argumentos, la gente que en el dilema del tranvía
ha escogido matar uno para salvar cinco debería estar contra el aborto no
terapéutico, mientras que la gente que deja morir a los cinco por no matar a un
debería, también por coherencia argumental, estar a favor del aborto no
terapéutico.
Pero no se preocupen, una cosa es la
coherencia argumental, especialmente en temas éticos, y otro la natural
contradicción humana.
No hay comentarios:
Publicar un comentario