La bicicleta del siglo XXI
Contemporanea pretende ofrecer espacios de reflexión, diálogo, conocimiento y profundización basados en una mirada original y constructiva, abierta y dinámica, capaz de potenciar la complejidad. Contemporanea no propone visiones monolíticas, sino que se enriquece con la pluralidad de voces y la diversidad de opiniones, siempre que sean fruto de una mirada atenta e interesada hacia el presente, sin nostalgia del pasado ni ceguera o prejuicios sobre el futuro. De momento Contemporanea tiene la forma de una revista.
En el documental de 1990 «Memory & Imagination: New Pathways to the Library of Congress», la Biblioteca del Congreso de Estados Unidos decidió involucrar a algunas personalidades influyentes del mundo de la cultura de aquellos años en un reportaje promocional sobre los tesoros que encerraban sus muros. Con la llegada de los ordenadores personales, la mayor biblioteca del mundo había empezado así a experimentar nuevas oportunidades de difusión y conocimiento utilizando las nuevas tecnologías en su beneficio. En el documental, un jovencísimo Steve Jobs comentaba: «Creo que una de las cosas que realmente nos distingue de los primates superiores es que somos fabricantes de herramientas. Leí un estudio que medía la eficiencia de la locomoción en comparación con varias especies del planeta. El cóndor utilizaba menos energía para recorrer un kilómetro, mientras que el ser humano obtenía una puntuación insignificante. Pero entonces alguien de Scientific American tuvo la ocurrencia de probar la eficacia locomotora de un ser humano en bicicleta. Y un hombre en bicicleta, un ser humano en bicicleta, pulverizó por completo el récord del cóndor. Y eso es lo que es para mí un ordenador: es la herramienta más extraordinaria que hemos inventado nunca y es el equivalente de una bicicleta para nuestras mentes».
Ciertamente, desde los años 90, esa «bicicleta» de la que hablaba Jobs ha recorrido un largo, largo camino. Los avances tecnológicos se han sucedido a un ritmo impresionante hasta llegar a nuestros días: la tecnología es ya parte integrante de nuestras vidas, impregna el día a día y ha cambiado para siempre nuestros hábitos, en todas las latitudes. Sin embargo, con una claridad sin precedentes, hoy se está llevando a cabo una amplia reflexión sobre el futuro de nuestra relación con las innovaciones tecnológicas. El deseo de comprender las consecuencias de un desarrollo incontrolado de estas herramientas, cuyos límites y potencial verdaderamente extraordinario percibimos ahora, se expresa en a muchos niveles no sin una vena de inquietud. ¿Cómo debemos enfocar estos cambios tecnológicos? ¿Cuándo hay que percibirlos como amenazas? ¿Qué repercusiones debemos evitar a toda costa en el mundo del trabajo, en las relaciones sociales?
«La IA es la ciencia y la ingeniería de la creación de máquinas inteligentes»
La expresión «inteligencia artificial» (IA) fue acuñada a mediados de la década de 1950 por el célebre informático estadounidense John McCarthy, y ha sido reelaborada a lo largo de los años en varias ocasiones (sin ir más lejos, en uno de sus valiosos textos de 2007, en el que guía al «profano» para que comprenda los fundamentos de esta disciplina en forma de preguntas y respuestas). En palabras de McCarthy, la IA «es la ciencia y la ingeniería de la creación de máquinas inteligentes, en particular programas informáticos inteligentes. Está relacionada y es similar a utilizar ordenadores para comprender la inteligencia humana, pero la IA no tiene por qué limitarse a los métodos observables en el mundo de la biología». Bien mirado, el término IA es un macrocontenedor: engloba tanto un sentido generativo (la capacidad de basarse en datos para producir análisis y obras de pensamiento) como todos esos procesos de automatización industrial que se utilizan a gran escala desde hace varios años. Engloba también los vastos avances en los campos médico y científico que han revolucionado positivamente la vida cotidiana de muchas personas.
«La Inteligencia Artificial ya está enriqueciendo nuestras vidas, a menudo de formas que nos pasan desapercibidas. La IA impulsa nuestros sistemas de navegación, se utiliza en miles de revisiones médicas diarias y clasifica miles de millones de cartas de nuestros servicios postales. En los últimos dos años, la IA ha desvelado la estructura de cientos de miles de proteínas y se está utilizando para mejorar la calidad de la atención en los hospitales, realizar previsiones meteorológicas sofisticadas, guiar el desarrollo de nuevos materiales y proporcionar a los ingenieros ideas para mejorar su creatividad. Creemos que la IA será cada vez más importante en los ámbitos de la sanidad, el clima, la educación y la ingeniería». Con estas palabras, la Asociación para el Avance de la Inteligencia Artificial recordaba en abril de este año algunas de las áreas de uso de la IA en las que el progreso científico ha sido decisivo para cambiar la vida de millones de personas. Nadie quiere retroceder en estos logros, para los que la tecnología nos permite hacer cosas importantes y útiles, ahorrando recursos y tiempo.
Los avances en el campo generativo de la IA son los que más asustan, generando alarmismo y abriendo escenarios inexplorados. En marzo de este año, la publicación de una carta abierta firmada por más de mil investigadores y líderes tecnológicos (entre los firmantes Elon Musk, Steve Wozniak, cofundador de Apple, Andrew Yang, empresario y candidato a las elecciones presidenciales estadounidenses de 2020) causó un gran revuelo. El texto afirmaba que los sistemas de inteligencia artificial plantean «profundos riesgos para la sociedad y la humanidad» y advertía de que los desarrolladores de IA se apresuran a crear tecnologías cada vez más potentes sin comprender plenamente sus efectos ni ser capaces de predecir o controlar de forma fiable su comportamiento. La principal petición de los firmantes era, por tanto, una pausa en el desarrollo de sistemas de IA más avanzados, en particular GPT-4, el chatbot presentado por OpenAI, cofundada por el propio Elon Musk. La pausa daría tiempo a establecer «protocolos de seguridad compartidos» para estos sistemas y, de no ser así, los gobiernos tendrían que intervenir e instituir una moratoria en el desarrollo de tales sistemas. La carta generó bastante revuelo mediático, pero no produjo el resultado deseado.
«Muchos de estos nuevos líderes estudiantiles perciben la IA como una amenaza «canalla», ignorada y urgente, que podría competir con el cambio climático»
El controvertido movimiento de pensamiento «Altruismo Eficaz» (EA) ha contribuido en los últimos años a propagar un debate cada vez más sombrío sobre los riesgos que plantea el desarrollo de la IA. Ha logrado consolidar esta opinión como corriente dominante. Así, ricos filántropos y empresarios han involucrado en la discusión a estudiantes de las universidades más prestigiosas del mundo, añadiendo voces y reflexiones a su coro catastrofista. En palabras del Washington Post, «las universidades han sido fundamentales en esta estrategia de crecimiento del movimiento de la IA (…) En el último año y medio, han surgido grupos para la gestión segura de la inteligencia artificial en unos 20 campus de Estados Unidos y Europa, entre ellos Harvard, Georgia Tech, MIT, Columbia y la Universidad de Nueva York (…) Muchos de estos nuevos líderes estudiantiles perciben la IA como una amenaza «canalla», ignorada y urgente, que podría competir con el cambio climático en su capacidad para acabar con la vida humana. Muchos ven la IA como el Proyecto Manhattan de su generación».
Ciertamente controvertida es la relación entre el desarrollo de la IA y los riesgos que plantea la expansión de los fenómenos de desinformación y manipulación. Un avance no regulado de la tecnología puede conducir -según muchos- a una peligrosa distorsión de los fenómenos políticos y sociales. «Internet se inundará de fotos, vídeos y textos falsos: el ciudadano medio ya no podrá saber qué es verdad», comenta uno de los padres de la IA moderna, el informático Geoffrey Hinton. Hay una delgada línea entre información y manipulación que la IA ha difuminado. El «hambre de datos» del que hacen uso estas tecnologías, la observación constante del usuario, los rastros digitales que cada uno de nosotros deja tras de sí aunque no sea conscientemente, el registro de nuestros hábitos en línea, las preferencias expresadas, todo ello alimenta el llamado «micro-targeting conductual». Campañas de marketing dirigidas y personalizadas, creación de cámaras de eco mediante la recepción de ideas e información que apoyan el propio punto de vista silenciando la confrontación y polarizando las ideas: la tecnología ha otorgado a los algoritmos una posición de control sobre nuestras vidas hiperconectadas de la que es difícil escapar. El caso de Cambridge Analytica ha mostrado las consecuencias concretas y opacas de esta manipulación silenciosa del usuario; la periodista británica Carole Cadwalladr señaló al referirse al referéndum del Brexit de 2016: «No hay registro de los anuncios que la gente ve o de lo que se ha colocado en sus feeds de noticias. No hay registro de nada… Todo el referéndum se desarrolló en la oscuridad, tuvo lugar completamente online».
También es interesante analizar las implicaciones geopolíticas del uso de la IA. ¿Cómo evitar la injerencia de agentes externos en el desarrollo de elecciones libres? ¿Cómo implicar a las grandes empresas tecnológicas en las decisiones tomadas por los agentes estatales? No son secundarias las repercusiones en términos de salud mental (especialmente en los más jóvenes) y de impacto en los procesos creativos en la producción de contenidos musicales, noticias, libros. En este último caso, los analistas hablan de «tragedia de los comunes«, cuando las contribuciones originales (audio, vídeo, texto) compartidas en la red se utilizan para entrenar sistemas de inteligencia artificial sin ningún tipo de autorización, alimentando el «hambre de datos» de las tecnologías.
«No se puede volver a atrás, el camino a seguir es intentar regular el sector»
Está claro que este tema sigue siendo una especie de territorio inexplorado, su potencial y su peligro se perciben al mismo tiempo. Nello Cristianini lo resume eficazmente en su último volumen «La Scorciatoia»: la clave para convivir con estas transformaciones increíblemente rápidas reside en «regular, no desconectar». No es posible, ni siquiera deseable, volver atrás, rebobinar la cinta y «apagar» el interruptor, como sugirió irónicamente el presidente Obama en 2016 durante una entrevista sobre la IA. El camino a seguir es, por tanto, intentar regular el sector. El profesor Giorgio Parisi, Premio Nobel de Física 2021, observa: «En resumen, no cabe duda de que estamos aumentando la capacidad humana. Y del mismo modo que las máquinas nos permiten aumentar nuestra capacidad manual, la IA nos permite aumentar nuestra capacidad intelectual. Pero sigue habiendo peligros (…) Definitivamente, también hay que regular la IA. Las personas que ven una imagen tienen derecho a saber si es real o artificial para no perder la certeza, que tenemos actualmente, de decir que un hecho ocurrió realmente. Los cambios deben controlarse y regularse, de lo contrario tienden a conducir al desastre».
La Unión Europea ha hecho un primer intento: el pasado 14 de junio, el Parlamento aprobó la propuesta de ley denominada Ley de Inteligencia Artificial (para su entrada en vigor definitiva necesitará después también la aprobación del Consejo de la UE). Se trata de una ley especialmente esperada a nivel internacional, un primer intento de establecer un marco normativo uniforme en la UE sobre la materia. En resumen, la ley exige que los sistemas de IA sean transparentes y puedan explicar su funcionamiento de forma comprensible para los usuarios. También regula la recogida y uso de datos para entrenar los sistemas de IA, incluyendo prohibiciones sobre la recogida de datos sensibles o discriminatorios.
El 30 de octubre, el Presidente Biden firmó una orden ejecutiva para regular la forma en que el gobierno federal estadounidense utiliza la inteligencia artificial, al tiempo que reconocía la necesidad de que el Congreso adoptara una legislación bipartidista sobre el tema, yendo más lejos para regular el sector privado -en un Congreso especialmente dividido, varios proyectos de ley sobre el tema se han estancado de hecho-. La orden ejecutiva se dirige a las agencias federales estadounidenses y, por tanto, obliga secundariamente a las empresas privadas a cumplir las normas establecidas por los «clientes» del gobierno. La normativa incluye requisitos de información para las empresas sobre las medidas de ciberseguridad que han adoptado y la formación de nuevos modelos, pero también disposiciones para atraer talentos extranjeros en la materia a centros de investigación y laboratorios estadounidenses. Está claro que la orden ejecutiva sólo afecta a las empresas estadounidenses, cuando sabemos de sobra que el desarrollo de estas tecnologías no conoce fronteras. Por ello, Estados Unidos tiene la intención de llevar a cabo una labor diplomática específica con la esperanza de que otros países aliados adopten una legislación similar.
La cooperación entre empresas y gobiernos en este ámbito reviste una importancia fundamental, y el camino a seguir no puede limitarse únicamente a los cauces legislativos, sino que debe implicar a las organizaciones, el mundo académico y la sociedad civil. Para dar forma al desarrollo de la IA, «se necesita una gobernanza global, no se puede esperar que un solo país la desarrolle con sus propias reglas. Con la comunidad internacional tenemos que compartir principios éticos y medidas de seguridad para evitar que la herramienta se nos vaya de las manos», recuerda Bruno Frattasi, director de la Agencia Nacional de Ciberseguridad italiana. Un intento en esta dirección lo hizo el Gobierno conservador británico, que convocó una cumbre sobre el tema en Londres a principios de noviembre de 2023. En el evento participaron delegados de 28 países (entre otros, China, los gobiernos de EE.UU. y la UE) en diálogo con ejecutivos de empresas tecnológicas punteras (Google DeepMind, Ibm, Microsoft, Nvidia, OpenAI entre otras).
La declaración firmada al término de la cumbre representa un primer paso hacia una gestión compartida de los retos que plantea la IA, y en pocas palabras prevé la colaboración de las partes para garantizar la seguridad en el desarrollo de modelos de IA, «para asegurar que los beneficios de la tecnología puedan ser explotados responsablemente para el bien y para todos».
«Las personas deberían tener derecho a ejercer un control significativo sobre sus propios datos»
El debate sobre el tema debe abordarse desde un enfoque pragmático, sostiene Jaron Lanier, informático, filósofo y ensayista. La IA debe concebirse esencialmente como una herramienta y no como una «criatura» per se. En el análisis de Lanier, el concepto de «dignidad de los datos» desempeña un papel central. En un mundo en el que las empresas y organizaciones recogen, procesan y utilizan cada vez más datos personales para los fines más diversos, Lanier defiende que las personas deberían tener derecho a ejercer un control significativo sobre sus propios datos. El concepto de «dignidad de los datos» se opone a las prácticas en las que las empresas recopilan datos personales sin el pleno consentimiento de los usuarios o los utilizan para fines que pueden vulnerar la intimidad o afectar negativamente a la vida de las personas. Lanier sostiene que si las personas tuvieran el control de sus datos, podrían negociar el uso de su información de forma más justa y recibir una compensación adecuada cuando sus datos se utilicen con fines comerciales.
«Las nuevas tecnologías amplían el panorama de la información, pero reducen su verificabilidad«, argumenta el filósofo Adriano Pessina. Las implicaciones sociales y antropológicas de este rapidísimo desarrollo tecnológico son complejas e intrincadas de descifrar. Desde la foto de la falsa detención de Donald Trump hasta la que representa al Papa Francisco en un plumas sobredimensionado, cabe esperar que las imágenes y vídeos generados por la inteligencia artificial sean cada vez más difíciles de distinguir de la realidad. Dado que se han hecho algunos intentos en el ámbito normativo, la cultura crítica, el juicio, la educación, la memoria, parecen ser las mejores herramientas para distinguir lo verdadero de lo falso y las muchas ambigüedades que se encuentran en línea y que influyen en nuestro comportamiento y hábitos. En palabras de Pessina, es crucial «hacer que la gente reflexione sobre la experiencia que está viviendo (…) Nos enfrentamos a nuevas formas de soledad. Las tecnologías nos han permitido superar el aislamiento, pero han evocado el deseo del encuentro físico, real, manifestando el sentimiento de soledad. Los nuevos programas de diálogo son sustitutos relacionales. Pero la nostalgia del origen permanece».
De una simple «bicicleta para nuestras mentes», la revolución digital y los avances de los últimos años han desatado un potencial increíble. Tenemos en nuestras manos herramientas realmente eficaces, de las que ahora dependemos y para las que debemos introducir normas de convivencia en el futuro. El debate actual tiene el mérito de arrojar luz sobre el presente y volver a poner en el centro la relación del individuo con la realidad virtual, la vida vivida. Lanier capta bien este matiz: «Si trabajas con la realidad virtual, acabas preguntándote ante todo qué es la realidad. A lo largo de los años, he intentado una posible definición de la realidad: es lo que no se puede simular perfectamente, porque no se puede medir del todo. La información digital, los datos, pueden medirse perfectamente, porque ésa es su propia definición. Esto los convierte en irreales. Pero la realidad es irreprimible, irreprimible».
Artículo publicado en Contemporanea
Lee también: Tigres, profesores e inteligencia artificial
¡Sigue en X los artículos más destacados de la semana de Páginas Digital!
¡Recuerda suscribirte al boletín de Páginas Digital!