Día 1
25 de mayo
Conferencia inaugural
Txetxu Ausín: Filosofía de la Internet del Todo
Las redes sociales, la analítica de big data y la computación en la nube, junto con la creciente interconexión de artefactos e instrumentos que recogen, procesan, cruzan y reutilizan enormes cantidades de información, están reconfigurando radicalmente nuestro mundo, nuestras relaciones y nuestra propia identidad. Por ello son tecnologías disruptivas que, además, se están desarrollando en un momento de “Gran Aceleración”, de profundas y rápidas transformaciones socioeconómicas y biofísicas en lo que se ha llamado la nueva era de los humanos (Antropoceno).
Estas herramientas suponen, desde el punto de vista filosófico, una nueva representación de la realidad en términos de datos (datalogical turn) y una nueva concepción del ser humano, así como un cambio radical de cómo se genera el conocimiento. Y todo ello con importantes riesgos éticos, medioambientales y políticos.
Los datos están en todas partes (“data is all around”), son ubicuos, de modo que se está produciendo una ‘datificación’ de la vida, una representación digital de la realidad, una ontología de datos donde se pretende poner en un formato cuantificado todo, para que pueda ser medido, registrado y analizado. Es decir, transformar todo en “información” (cuantificable). Se cuantifica el espacio (geolocalización); se cuantifican las interacciones humanas y todos los elementos intangibles de nuestra vida cotidiana (pensamientos, estados de ánimo, comportamiento), a través de las redes sociales; se ha convertido el cuerpo humano en una plataforma tecnológica y se monitorizan los actos más esenciales de la vida (sueño, actividad física, presión sanguínea, respiración...) mediante dispositivos médicos, prendas de vestir, píldoras digitales, relojes inteligentes, prótesis y tecnologías biométricas en espacios públicos y privados (lo que se conoce como “Internet de los Cuerpos”); se “datifica” todo lo que nos rodea mediante la incrustación de chips, sensores y módulos de comunicación en todos los objetos cotidianos (“Internet de las Cosas”).
Si pensamos en términos ontológicos, no son ya los átomos sino la información la base de todo lo que es (“Internet del Todo”). Un universo compuesto esencialmente de información (infosfera).
Dicho lo anterior, este recorrido filosófico nos lleva a la antropología, a la concepción de ser humano y de su identidad que encierran las nubes digitales. Se datifican todos los aspectos de nuestra vida (yo-cuantificado) y, no solo eso, se otorga un valor comercial a esa datificación de modo que nuestras actividades nos definen como un objeto mercantil (“somos el producto”).
Desde la filosofía del conocimiento o epistemología el big data se ha planteado como la panacea para la toma de decisiones más acertada, imparcial y eficiente, que evitaría los errores humanos y un “conocimiento” más fiable, pero ha obviado algo básico, los sesgos; esto es, los prejuicios y variables ocultas a la hora de procesar la información, las tendencias y predisposiciones a percibir de un modo distorsionado la realidad.
Ligado a lo anterior, si hablamos de responsabilidad y ética, las nubes digitales presentan riesgos morales importantes en términos de daños a los individuos y a la sociedad: a) Discriminación. b) Dictadura de datos (políticas predictivas). c) Perfilamiento y estigmatización. d) Monopolios. e) Problemas ambientales.
Un desarrollo justo y socialmente responsable del big data exige un empoderamiento tecnológico de la ciudadanía, una alfabetización sobre este nuevo mundo digital, así como un nuevo pacto tecno-social entre usuarios, empresas y estados, sobre la base de principios éticos, que evite las “injusticias algorítmicas” mencionadas (discriminación-perfilamiento-sesgos-exclusión) y que promueva la apropiación social de la tecnología para el bien común. Urge no dormirse en las nubes (digitales).
Fernando Aguiar: Sentimiento de culpa sin culpa: agencia accidental en la era de los vehículos autónomos
En los últimos años, los vehículos autónomos o sin conductor han comenzado a circular por las calles de muchas ciudades del mundo. Algunas investigaciones recientes han comprobado que este tipo de vehículos puede servir para que disminuya la contaminación, los accidentes de tráfico y los atascos. Estas ventajas, entre otras, muchas convertirán a los vehículos autónomos en una de las piezas clave de la movilidad en un futuro próximo, lo que supondrá el aumento inevitable de accidentes en los que se vean envueltos.
Por esa razón, estas máquinas controladas mediante sistemas de inteligencia artificial necesitan ser programadas para que decidan qué hacer cuando un accidente puede ser previsto, pero no evitado, cuestión que ha despertado el interés de la filosofía moral. En un estudio sobre las intuiciones morales de la gente en relación con estos nuevos vehículos, Jean-François Bonnefon y sus colegas (Science, 2016) concluyeron que la gente se siente cómoda con la existencia de coches autónomos utilitaristas. Los participantes en el estudio prefirieron sistemáticamente que los vehículos autónomos optaran por salvar el mayor número de vidas, aunque ello implicara sacrificar a algunas personas.
Este debate ha dado lugar a otra cuestión de gran relevancia, a saber, el problema de la atribución de culpa en caso de accidente. ¿Quién tiene la culpa cuando un vehículo autónomo atropella a un peatón? En principio parece que los ocupantes de los coches sin conductor carecen de responsabilidad moral porque no tienen el control del vehículo. La responsabilidad se limitaría, como mucho, a la decisión de usar ese tipo de coches y elegir una ruta, pero este grado de implicación no basta para culpar a los ocupantes moralmente cuando se producen accidentes inevitables.
Existe aquí una clara similitud, así como importantes diferencias, con el conocido caso, propuesto por Bernard Williams, del conductor de un camión que atropella de manera fortuita a un niño. El camionero tiene mala suerte porque el niño se le cruza por delante de repente y no puede hacer nada para evitarlo. Un observador imparcial no sólo admitirá que no se le puede culpar, sino que no debería sentirse culpable siquiera. Sin
embargo, las personas que han sufrido situaciones similares lamentan el accidente, desean que no hubiera sucedido y aseguran que se sienten culpables, pese a todo. Cabe plantearse, entonces, las dos siguientes cuestiones: a) ¿considerará un observador imparcial que los ocupantes de un coche sin conductor deben sentirse culpables en caso de accidente con víctimas; b) ¿se sentirá ese mismo observador imparcial culpable del accidente con víctimas de un coche sin conductor en caso de que viaje como pasajero? Dado que los ocupantes del coche sin conductor carecen de control, parece que lo más razonable es dar una respuesta negativa a ambas preguntas. Sin embargo, en un reciente estudio experimental (Aguiar, Hannikainen, Aguilar, 2021) se comprueba que los participantes creen que no deberían sentirse culpables pero que de hecho se sentirían culpables. ¿A qué se debe esta contradicción? En torno a esta pregunta girará mi charla, que se adentrará en viejos problemas de agencia accidental aplicados a contextos en los que sistemas de inteligencia artificial tienen que tomar decisiones morales
Daniel Santibáñez: El problema de la algocracia: ética, política y tecnología en la sociedad del siglo XXI
El uso de sistemas algoritmos para la toma de decisiones políticas se ha convertido en una práctica ampliamente extendida en la sociedad del siglo XXI, al punto de dar pie a un tipo de gobernanza denominada por algunos estudiosos como “algocracia”. Entre sus adherentes una de las principales fortalezas de este tipo de determinaciones que se destaca es su estricto apego a las normas incorporadas en el programa computacional, el cual, dotaría a sus dictámenes de un sustento ético mayor que los de una autoridad humana al ser el algoritmo inmune al soborno, cohecho, tráfico de influencias o cualquier otra práctica política contraría a la moral. Sin embargo, la modificación sustancial de la incidencia humana en las decisiones políticas algorítmicas plantearía importantes dificultades al momento de sustentar la legitimidad de éstas, pues, en vez de la capacidad humana para la construcción de acuerdos desde su condición de individuo racional y libre, las determinaciones políticas se erigirían mediante una arquitectura robotizada cerrada, cuya legitimada se sostiene en la mayor precisión del cálculo computacional y, en definitiva, por la primacía de principios de eficiencia por sobre ejercicios de deliberación democrática pública y abierta. De esta manera, concentrándonos en la cuestión de la legitimidad, el presente trabajo tiene por objetivo examinar las dificultades que se suscitarían en torno a la pretensión de concordancia entre ética y política que la algocracia ofrecería, examinando para ello algunos problemas medulares (representatividad, opacidad y ocultamiento) que, en definitiva, plantean la necesidad perentoria de instancias legitimadoras de las decisiones políticas basadas consensos democráticos deliberativos.
Francisco Lara: Sócrates y los asistentes virtuales
El progreso moral de los seres humanos siempre se ha considerado un objetivo prioritario de nuestras sociedades. Los avances en biotecnología han generado mucha expectación sobre las posibilidades de modificar la conducta moral por medio de intervenciones neurológicas. No obstante, la dificultad para modular tales intervenciones, su discordancia con el proceso de decisión moral y las amenazas que conllevan para la autonomía personal, desaconsejan, a corto plazo, transitar por esta senda. Partiré, por tanto, de la hipótesis de que para la mejora de las capacidades morales sería más provechosa otra nueva tecnología: la inteligencia artificial. Esto me llevará a presentar el proyecto de un asistente virtual que pretende superar las críticas planteadas, tanto a la mencionada vía biotecnológica, como a otros usos posibles de la inteligencia artificial para mejorar moralmente a los individuos. Al asistente virtual que propongo lo denomino SocrAI porque se basa en algunos aspectos del método socrático de educación moral. Esbozaré algunos rasgos técnicos y funcionales de SocrAI e intentaré justificarlo como una alternativa también preferible a una educación moral realizada con instructores humanos que siguieran el mismo método socrático.