Fernando Broncano
El autor de 'La melancolía del ciborg' protagoniza hoy la nueva sesión de Pandemia Filosófica para reflexionar sobre 'Los límites éticos de la inteligencia artificial'
Se muestra convencido de que es preciso «pasar a una fase de formación seria sobre las tecnologías para adaptarlas a nuestras necesidades y no para ... adaptarnos nosotros a las suyas». Y subraya que «campos como la educación, la privacidad y la seguridad son ahora dominios estratégicos que no podemos dejar al albur de las fuerzas del puro mercado». Fernando Broncano participa hoy en la sexta edición de Pandemia Filosófica con una charla en la que reflexionará sobre los límites éticos de la inteligencia artificial. Catedrático de Lógica y Filosofía de la Ciencia en la Universidad Carlos III de Madrid, autor de libros como 'La melancolía del ciborg' o 'Mundos artificiales, filosofía del cambio tecnológico', considera necesario desarrollar límites morales, ecológicos y sociales desde una comprensión amplia de su funcionamiento. En este sentido, asegura, «la filosofía puede aportar una mirada importante en una imprescindible tarea interdisciplinar». Mantiene un ritmo incesante de artículos y, en paralelo, aborda ya un libro sobre «el valor, el tiempo y los entornos materiales en que vivimos». Sus reflexiones podrán escucharse, desde las 19.30 horas, en el Centro Cívico Tabacalera.
-¿Estamos necesitados de una moral tecnológica?
-Necesitamos a la vez entender las tecnologías que más nos están afectando y desarrollar comportamientos adecuados y morales en los niveles personales, colectivos e institucionales. Por ejemplo, las redes neuronales que controlan las presentaciones en redes como Youtube, Instagram, X, o Facebook tienen dos funciones, una relacionar contenido, otra, maximizar el tiempo que estamos expuestos. Si no entendemos bien estos sistemas estamos expuestos a una colonización de ideas e imágenes que operan como instructores o formadores de opinión y costumbres. Las tecnologías basadas en inteligencia artificial son muy activas sobre nuestras vidas y necesitamos crear formas nuevas de convivencia en estos entornos.
-Habla de límites éticos, pero ¿quizá llegan tarde o se antojan mediatizados por los ritmos que han empapado al resto del sistema?
-Aun estamos a tiempo. Todos los productos que van saliendo al mercado necesitan ser evaluados y lo que debemos intentar es que sean evaluados por agencias independientes al modo en que lo hacen los productos farmacéuticos, los productos de consumo o el transporte (la aviación por ejemplo). Se necesita una conciencia internacional de que estos productos son como aprendices de brujo que pueden generar tantos daños como beneficios. Nada está completamente escrito en la historia, y menos los sistemas tecnológicos. Es cierto que el poder de lo que llamamos las big tech es inmenso (Google, Amazon, Meta, OpenAI, ...) pero no lo es menos que dependen de otros componentes institucionales para que puedan expandir sus productos.
-¿Aún puede aplicarse una mirada humanista sobre la inteligencia artificial?
-Es el momento de hacerlo. Es el programa que se llama «alineamiento» de los valores humanos con el funcionamiento de los grandes modelos de inteligencia artificial. Para ello hay que plantear con cuidado cuáles son los riesgos que presentan estos productos en muchos campos, especialmente en lo que respecta a la influencia que ejercen sobre nuestras mentes. A diferencia de los propósitos locos de lograr una IA sobrehumana lo que hay que conseguir es una inteligencia artificial cada vez más humana. Para ello hay que pensar que las máquinas no son autónomas, dependen del entrenamiento y de las evaluaciones posteriores, así como de las estrategias empresariales y de las regulaciones institucionales. Es un momento para proclamar principios similares a los que se hicieron explícitos en grandes crisis como las I y II guerras mundiales. Ahora la reestructuración de todos los sistemas sociales y técnicos por la inteligencia artificial necesita que se definan límites psicológicos, sociales, ecológicos en la aplicación y uso de los diversos sistemas.
-¿Qué puede y debe aportar el pensamiento al debate teniendo en cuenta que no existe una idea clara de las aplicaciones?
-Los técnicos que trabajan en el diseño de grandes modelos de inteligencia artificial tienen claro que debe haber una cooperación interdisciplinaria entre ingeniería, estadística, psicología, sociología y filosofía en el diseño y sobre todo la evaluación de los grandes modelos. La evaluación es ahora un campo creciente en el que la filosofía tiene mucho que aportar en lo que consideramos valores centrales de una vida digna.
-¿Diría que la IA es el Frankenstein, el Prometeo definitivo?
-Algo hay. Es por el momento un experimento social a gran escala sin demasiado control, pero, por otra parte, hay también una creciente conciencia de que el proceso de implante debe ser controlado y redirigido. Campos como la educación, la privacidad y la seguridad contra la ciberdelincuencia y ciberterrorismo son ahora dominios estratégicos que no podemos dejar al albur de las fuerzas del puro mercado. Otro de los campos que necesitan una urgente intervención social es el cambio en las estructuras de trabajo, que debe ser planificada y regulada para no encontrarnos con desastres no deseados por nadie
-¿A qué llama en este contexto 'ansiedad epistémica'?
-Cuando consultamos los chats o en general internet, tenemos constancia de que lo que se llaman alucinaciones o respuestas erróneas son bastante probables (un 30% en muchos modelos). Eso significa que estamos expuestos a encontrar respuestas erróneas dado que han sido entrenados por datos sin control y que generan sus propias respuestas y el usuario no tiene muchas veces la capacidad de contrastarlas. Imaginemos que esa fuera la tasa de error en la educación o sanidad, estaríamos en manos de sistemas nada fiables. La ansiedad epistémica que siente, por ejemplo, el profesorado es muy alta precisamente por esta experiencia.
-No hay que temer a la IA, ¿pero resulta ser el nuevo y más poderoso 'juguete' del poder?
-En cierta forma sí, pero el poder es algo muy abstracto que a veces se concentra en pocas manos y otras se distribuye de formas extrañas. Aunque los grandes modelos han sido elaborados por empresas descomunales, no siempre el poder sabe usarlos y por otra parte hay un enorme sector abierto de rediseño de otras inteligencias artificiales más controladas con propósitos socialmente beneficiosos.
-¿Hasta qué punto podemos confiar en que el sistema IA pueda generar un campo sustitutorio fiable?
-Las prospecciones de sustitución de trabajo de la OCDE y el Banco Mundial dan menos probabilidad a los puestos del sistema educativo y la sanidad, precisamente porque son dependientes de interacción emocional y experta a la vez, pero otros campos sí están muy expuestos. Necesitamos plantear socialmente una transición a un entorno en el que la automatización se extienda mucho. Hay varias formas, desde reparto de trabajo, reeducación hacia nuevas necesidades y otros modos de organizarnos. Estamos mejor preparados para ello que en otras grandes crisis de reingenierización como la Revolución industrial, pero hay que abrir pronto el debate sobre ello.
-¿Augura más desigualdad y más castas tras esta irrupción imparable?
-La economía actual está generando una desigualdad insólita, pero solo en parte está basada en la tecnología y mucho más en la creación de una economía donde los productos financieros y especulativos sobrepasan con mucho la economía productiva. Es de temer que esta desigualdad desbocada continúe a menos que se introduzcan correctores. En lo que respecta a los beneficios inmensos se habla en muchos contextos, no solo progresistas sino también conservadores, de tasas sobre las externalidades y daños que producen. Por ejemplo, sobre los costos ecológicos en energía y agua que están produciendo los grandes centros de datos sin los que no funciona el entrenamiento de los grandes modelos ni de otras inteligencias artificiales.
-¿La sensación de hostilidad ha superado con creces a la idea de oportunidad que supone la nueva tecnología?
-Estamos en un momento de mucho escándalo en los medios y en las conversaciones cotidianas. Yo creo que tenemos que pasar a una fase de formación seria sobre estas tecnologías para adaptarlas a nuestras necesidades y no para adaptarnos nosotros a las suyas. Los estados de ánimo en redes basculan entre el miedo y la admiración irracional a los usos, que a veces parecen magia (están diseñados para generar esta ilusión de usuario)
-¿Podemos hacer de la IA nuestra aliada?
-No sé si en general se puede hablar de aliada, pero sí de muchas aliadas, puesto que es una tecnología mucho más abierta de lo que se cree. En este sentido, me parece que los estados deben tomarse muy en serio la soberanía tecnológica e implementar proyectos orientados al bien común y no a los grandes beneficios.
-¿Estamos más cerca de un 'mundo feliz'?
-Es una posibilidad el que haya un control de las conciencias a través de los poderosos medios de comunicación. Es uno de los grandes riesgos contemporáneos que hay que sumar al ecológico y al riesgo siempre permanente de guerra nuclear. Pero nada está escrito, no creo mucho en apocalipsis ni diluvios inminentes. Me parece que hay muchas más fuerzas de resistencia en la humanidad de lo que parece. Y, por otra parte, muchos de estos avances sí nos permitirían formas de vida más dignas y sostenibles.
-Ya nadie cree que la tecnología es un complemento...
-La tecnología no es un complemento, es un medio en el que vivimos, como lo fue la agricultura y ganadería en el neolítico y las máquinas en la revolución industrial o los electrodomésticos y el automóvil en el siglo pasado. Son medios y mediaciones que contribuyen a delinear nuestras trayectorias de vida.
-El artefacto perfecto, es decir, el libro, ¿es el gran asidero de la supervivencia de eso que llamamos humano?
-El libro físico es un lugar de resistencia sí. No incompatible con el electrónico ni el audiolibro pero tiene unas virtudes que estos no tienen. No va a desaparecer -de hecho crece muchísimo, aunque más en publicaciones que en lectores- y creo que vamos a convivir en sistemas multimedia durante los próximos años.
¿Tienes una suscripción? Inicia sesión