Por Antonio Argandoña
Amenazo a mis lectores con algunas entradas sobre el tema de los problemas éticos relacionados con las nuevas tecnologías, al que he dedicado un artículo que está en fase de revisión. No voy a ser ordenado, porque me interesa llamar vuestra atención sobre algunos temas.
El primero es que, como es lógico (o a mí me lo parece), los problemas éticos de las nuevas tecnologías (robots, máquinas, inteligencia artificial, información y comunicación…) no son nuevos: las acciones humanas tienen unos patrones que son los que los pensadores del pasado han explotado, para descubrir el componente ético de todas nuestras acciones.
Lo que añaden las nuevas tecnologías, a las que llamaré genéricamente tecnologías digitales, es complicación, complicación que muchos no somos capaces de comprender a priori si alguien no nos la explica. Resulta que salgo de casa con mi móvil o celular y que alguien puede estar siguiéndome, sabiendo a dónde voy, con quién hablo, qué información busco… Esto es muy antiguo: cuando yo era pequeño, mi madre miraba por la ventana a ver qué hacía yo en la calle, jugando con mis amigos. Ahora no es mi madre, sino otra persona, amigo quizás, o curioso, o enemigo. Y no lo hace para verificar que no me ha atropellado un coche, sino para conocer mi vida, poder extorsionarme, ofrecerme información útil, engañarme…
Ahí está uno de los grandes temas de las tecnologías digitales: la privacidad. Porque este es un derecho, no sé si fundamental o añadido, pero lo es. Por eso, este suele ser el primer problema que aflora cuando hablamos de nuevas tecnologías. Pero me parece que he empezado a construir la casa por el tejado: tenemos que hacernos más preguntas.
Decía en una entrada anterior que empezar a discutir los problemas éticos de las tecnologías digitales desde el punto de vista del usuario, cliente o sujeto pasivo, era una manera de comenzar, pero quizás no la más comprensible. Vuelvo sobre una idea que ya presenté en mi entrada anterior: nuestras acciones tienen todas un patrón más o menos común, de manera que es fácil identificar los problemas éticos que se presentan.
“La tecnología revela, transforma y controla el mundo, a menudo diseñando y creando nuevas realidades en el proceso. Tiende a generar ideas originales, a dar forma a nuevos conceptos y a causar problemas sin precedentes. También incorpora, pero también desafía valores y perspectivas éticas. En resumen, la tecnología puede ser muy poderosa para la innovación intelectual, ejerciendo una profunda influencia en cómo conceptualizamos, interpretamos y transformamos el mundo” (Floridi 2004, 554-555). Leyendo este párrafo, uno se da cuenta de que la ética tiene dos dimensiones, siempre, pero sobre todo ahora, en las tecnologías digitales.
Una es la personal. Toda acción tiene un objeto, un fin o motivación (o varios) y unas circunstancias. Objeto: qué estoy haciendo: poner una noticia en una red social. Fin: comunicar algo importante o trivial, verdadero, parcialmente verdadero, o falso. Circunstancias: estoy escribiendo con mi nombre verdadero, o con un pseudónimo, o con identidad falsa; escribo un email privado o en una red pública… En el fondo, no es muy distinto de cuando, hace ya años, escribía una carta a alguien. Lo que pasa es que ahora, como ya dije en la entrada anterior, esto es mucho más complicado: lo que digo puede llegar a miles de personas, es muy difícil identificar la verdad o mentira de mi afirmación, alguien lo puede manipular…
La otra dimensión es la que podríamos llamar social, comunitaria o pública. En cuanto que las tecnologías llegan a más personas, el problema se escapa de lo que es mi decisión personal. Bueno, no se escapa: incluso cuando escribía una carta a un amigo y le rogaba discreción sobre lo que yo le decía, lo que yo hacía tenía repercusiones públicas. Pero ahora esto es mucho más importante, y su alcance es mucho mayor. Por eso, la ética de las tecnologías digitales tiene interés social. La dimensión ética de las tecnologías digitales ocupa cada vez más la atención de académicos, políticos y profesionales. La ética, que tradicionalmente se ocupaba solo de las acciones de los humanos, se extiende ahora también a los artefactos diseñados por humanos, porque «cuando los sistemas inteligentes interactúan con los humanos están funcionando, al menos en parte, como miembros de la sociedad» (Burton et al 2017, 23) y, cada vez con más frecuencia, toman decisiones en vez de las personas.
La superioridad técnica de las tecnologías digitales radica principalmente en su capacidad cognitiva, muy superior a la de cualquier humano. Pero las máquinas tienen también limitaciones cuando se comparan con la inteligencia humana, con la que no pueden competir, por ejemplo, en conocimiento tácito, y sentido común y en las reservas de conocimientos que los humanos ejercitamos rutinariamente en nuestras operaciones diarias. Un ordenador no sabe ‘qué’ es un cáncer, aunque sea capaz de identificar la presencia tejidos enfermos con determinadas señales; y, si ‘dice’ una mentira, no sabe que dice una mentira, ni qué implica para una persona decir una mentira. Los algoritmos pueden encontrar la mejor alternativa en condiciones preestablecidas, pero no ante juicios en los que está en juego la humanidad de la persona, como los que se pueden presentar en la conducción de un automóvil autónomo. También la fantástica capacidad de memoria de las tecnologías digitales se enfrenta con problemas cuando la comparamos con la pobre memoria humana que, sin embargo, es, de hecho, un gran mecanismo de filtración y organización de la información, que nos permite recordar lo importante, olvidar lo insignificante, reconstruir el pasado a la luz del presente y dar a cada dato el valor que merece, mientras que las memorias digitales recuerdan todo, pero sin reinterpretarlo ni valorarlo.
Los seres humanos tenemos también consciencia social: somos sintientes, conocemos el bienestar y el sufrimiento, y por ello somos capaces de empatía con los que sufren. Somos también agentes morales, que entendemos las consecuencias que nuestras acciones pueden tener sobre nosotros y sobre otros y somos capaces de comprender que una regla puede tener excepciones, porque la regla no considera todas las dimensiones relevantes de cada decisión en cada momento. Los algoritmos no son sintientes ni morales; no conocen el dolor, el placer, el remordimiento o la empatía; no tienen valores ni son capaces de hacer una excepción a la regla. No pueden reflexionar sobre el tipo de vida que quieren llevar, o el tipo de sociedad en que quieren vivir, y actuar en consecuencia.
¿A dónde nos lleva todo esto? A algo que parece obvio pero que, leyendo a muchos «expertos» sobre el tema, no lo parece tanto: la ética se aplica a las personas, no a los programas, algoritmos, robots, softwares o hardwares. O si se aplica a estos es para recordar a los humanos que diseñan, producen, venden o usan esos productos de que hay una dimensión ética detrás de todos ellos.
Por ética digital podemos entender: 1) la ética que los humanos deben observar cuando actúan como diseñadores, productores o distribuidores de tecnologías digitales; 2) la ética que se incorpora a esas tecnologías en su diseño y funcionamiento, y 3) la que se pone en ejercicio cuando los humanos tratan con máquinas. En definitiva, son tres maneras de identificar y distribuir las responsabilidades y regular las relaciones entre personas y agentes artificiales.
Seguiremos otro día.