Lo que viene a continuación es una reflexión tras el el intercambio de opiniones (por ser diplomática) entre Jesús Fernández-Villaverde, un economista muy prestigioso, con esta humilde servidora.
Lo que comenté a este señor lo pueden leer en el artículo, si son suscriptores de El Confidencial, o en esta entrada en la que copié y pegué la secuencia de comentarios sin más que una mínima edición (por ejemplo, su escrito está sin acentos, supongo que por el teclado inglés).
He separado en otra entrada el debate porque no es mi intención seguir con él sino hacer un análisis de qué nos está pasando con la fascinación por la tecnología.
La fuente del debate es un artículo que ahora está en cerrado (a pesar de que él afirmó que una condición que había puesto para escribir en El Confidencial era que sus artículos estuvieran en abierto) sobre las perspectivas económicas de la inteligencia artificial.
Esto que digo a continuación no es un resumen del artículo, por otra parte, lleno de documentación y enlaces y que le habrá llevado su tiempo escribir. No era eso lo que yo echaba en falta en el artículo sino dos afirmaciones que me dejaron estupefacta:
1) «Mi primera tarea es definir, de manera provisional, qué entendemos por inteligencia artificial. El libro de texto más popular internacionalmente, la cuarta edición del Artificial Intelligence: A Modern Approach, de Stuart Russell y Peter Norvig, define la inteligencia artificial como el campo del conocimiento que busca diseñar máquinas (como ordenadores y robots) que puedan actuar de manera eficiente y segura en un amplio abanico de situaciones novedosas. Inteligencia artificial no es diseñar un robot que ponga un tornillo en un coche en una cadena de producción cuando llegue el momento, sino diseñar un robot que sepa interpretar que el coche ha llegado torcido a la izquierda o que el tornillo está roto, y sea capaz de reaccionar de manera sensata ante esta situación inesperada.
(…)
La definición que he presentado, además, se salta muchos temas espinosos: ¿qué significa entender algo? O ¿qué es la inteligencia? Estos son temas fascinantes, que hemos debatido durante siglos, en la tradición intelectual de Occidente, al menos desde Aristóteles (este artículo repasa estas ideas). Pero hoy esquivaré estas discusiones, pues son menos relevantes para las consecuencias económicas de la inteligencia artificial en las que me quiero centrar. Mi definición de inteligencia es meramente operativa: ¿podemos diseñar un robot que, cuando suba las escaleras de una casa y vea un juguete que ha dejado un niño, sepa esquivarlo y no tropezarse? El que el robot entienda (signifique lo que signifique entender) que, si no esquiva el juguete se caería, no me preocupa para esta entrada».
2) «En otros aspectos, como las posibles consecuencias éticas de la inteligencia artificial, tendré poco que decir no por su falta de importancia, sino porque mis opiniones no tienen el valor añadido suficiente como para pedirle al lector que me preste su atención para leerlas».
Es decir: se puede plantear un asunto sin definir qué es y además se puede hablar de sus efectos económicos sin tener en cuenta la ética. No sé a ustedes pero a mí me parece que es de una audacia típica del irresponsable siglo XXI, experto en desencadenar efectos indeseados o más bien imprevistos por montarse en olas de lucro inmediato, como fueron en su momento las sucesivas burbujas económicas que desencadenaron la crisis de 2008, el planteamiento económico de las plataformas de Internet y, ahora, la agresiva entrada de OpenAI en el campo de la inteligencia artificial generativa a la que ya dediqué un post.
Ya es mala pata que, además, se publique durante la semana en la que el ‘Padrino de la IA’ dimite de su puesto en Google y advierte de los daños severos que puede acarrear y en la semana en que conceden el Princesa de Asturias al filósofo Nuccio Ordine que desdeña el nombre de inteligencia para una tecnología.
Dejemos de hablar de inteligencia artificial
La expresión ‘inteligencia artificial’ es una metáfora. Una metáfora que se está volviendo peligrosa, uno de esos malentendidos letales que pueblan nuestra época de la posverdad y hacen imposible la comunicación.
A continuación, transcribo un párrafo de un informe del Parlamento Europeo sobre esta cuestión:
First, since human intelligence is itself a subjective and contested concept, the concept of AI is also destined for constant debate and reinterpretation. Second, by defining AI with reference to how we evaluate its apparent performance (intelligence), rather than by what it does (applications) or how it does it (techniques), AI can refer to almost any technology – from thermostats to ‘terminators’ – whether they exist or not. And third, since the various AI applications have such a diverse range of impacts, using the same word to refer to all of them can amplify the appearance of disagreements and make debates less productive. Technologists have long recognised these limitations, and tend to prefer more precise alternatives such as ‘machine learning’ or, simply, ‘statistics’. Nonetheless, AI retains its usage in public and policy settings.
En español:
En primer lugar, dado que la inteligencia humana es en sí misma un concepto subjetivo y disputado, el concepto de IA también está destinado a un debate y reinterpretación constantes. En segundo lugar, al definir la IA en referencia a cómo evaluamos su aparente rendimiento (inteligencia), en lugar de lo que hace (aplicaciones) o cómo lo hace (técnicas), la IA puede referirse a casi cualquier tecnología, desde termostatos hasta «terminators», ya existan o no. Y en tercer lugar, dado que las diversas aplicaciones de IA tienen una gama tan diversa de impactos, usar la misma palabra para referirse a todas ellas puede amplificar la apariencia de desacuerdos y hacer que los debates sean menos productivos. Los tecnólogos han reconocido estas limitaciones desde hace mucho tiempo y tienden a preferir alternativas más precisas como «aprendizaje automático» o simplemente «estadísticas». No obstante, la IA sigue siendo utilizada en entornos públicos y políticos.
En el blog Collateral bits hay una buena recopilación de por qué deberíamos dejar de hablar de inteligencia o utilizar acciones humanas (ver, oír, et.) para describir procesos informáticos. Menciona un informe del IEEE para desligar esos términos de los documentos profesionales ya que son adecuados sólo para una «conversación de ascensor o un folleto de marketing».
Otro informe de la Comisión Europea -por cierto, redactado en su mayoría por investigadores españoles, a los que tanto desprecia Fernández Villaverde- habla de la necesidad de definir la ‘IA’ y los riesgos de no hacerlo.
Por último, el emérito investigador del CSIC y pionero de la ‘IA’ en nuestro país, Ramón López de Mántaras, se muestra tajante «La ‘IA’ aún no ha logrado nada que merezca el apelativo de inteligente«.
No es una cuestión escolástica ni retórica: es esencial para evitar el aura mágica que está tomando la ‘inteligencia artificial’ en la opinión pública. Si desde medios de comunicación como El Confidencial se sigue promoviendo una visión que promueve la actitud acrítica hacia una industria en muy pocas manos y muy opaca como es la ‘IA’, entonces no habrá más remedio que seguir insistiendo en la enorme irresponsabilidad de quienes promueven esa visión interesada de la tecnología.
La ética como guinda decorativa
En segundo lugar, que alguien pretenda hablar de los efectos de una tecnología sin preocuparse de la ética, no es que sea desconsiderado, es absolutamente frívolo porque los efectos económicos de la tecnología están directamente ligados a los valores que hay detrás.
El escrito de Fernández-Villaverde, como el de todos los que promueven el encantamiento o la fascinación tecnológica, incurre en el determinismo tecnológico interesado. Como quien se rinde ante los encantos de algo que está sucediendo al margen de las decisiones humanas, como quien acepta que llueve y por tanto eso no está sujeto a la voluntad humana. No es así y lo saben.
La tecnología desencadena efectos deseados e indeseados, es una bendición y/o una maldición, pero, en todo caso, es una obra humana que está sujeta a continuas decisiones tomadas por unos pocos en función de sus intereses y con impacto en multitudes. Dejemos ya de aplicar el pensamiento mágico sobre la tecnología, es hora de ser racionales al menos tanto como las personas que se lucran de ella.
Los peligros o daños de la tecnología no son accidentes, no son fruto del hado o de la mala suerte ni son inevitables. Si la industria de aviación inventó los paracaídas en su momento, me pregunto quién está diseñando los paracaídas para los daños causados por algoritmos y grandes datos.
Insisto que la tecnología no toma caminos voluntariamente sino por la falta de dominio de sus administradores o por tener detrás unos valores que no son ni el bien común ni la mejora de la humanidad sino su codicia individual.
La influencia de los valores en la tecnología, no sólo los éticos sino los estéticos, económicos, sociales etc. la estudié con el profesor Martín Algarra en este artículo que se refería a su impacto en el periodismo. Me inspiró mucho un libro que ya mencioné en varias ocasiones ‘Qué es tecnología‘ y el trabajo de un filósofo de la tecnología, Philip Brey.
Pienso que el estudio de los efectos de los medios de masas son la base sobre la que se deberían estudiar los efectos de los algoritmos y los grandes datos. Son de absoluta actualidad estas reflexiones de Paul Lazarsfeld en el inicio de la Escuela de Columbia, tal como transcribíamos en el artículo citado en el párrafo anterior:
Desde sus orígenes, la investigación en comunicación de masas consideró los medios como herramientas tecnológicas manejadas con unos propósitos determinados. La tarea de la investigación era mejorar el conocimiento de esas herramientas y, por tanto, facilitar su uso (Lazarsfeld, 1941, p.2). Lazarsfeld adelantaba que esa investigación no puede obviar:
a) Que los efectos de los medios no se reducen al propósito con el que se utilizan, sino que hay efectos no deseados.
b) Que la complejidad de los medios de comunicación provoca sobre la gente efectos más potentes de lo que sus administradores desean (Lazarsfeld, 1941, pp.3 y 9).
Lazarsfeld (1941) recomienda combinar la investigación administrativa con la investigación crítica porque ambas perspectivas se enriquecen mutuamente. Mejorarían, por ejemplo, los estudios sobre el control: ¿qué contenidos, qué ideas mueren antes de llegar a la audiencia porque se teme que no serán populares, rentables? En resumen, para Lazarsfeld los medios no son neutrales, provocan efectos al margen de los propósitos de sus administradores y de sus usuarios. Cuanto más compleja es la tecnología más difícil es prever el poder de sus efectos y, además, puede que junto a los efectos previstos se produzcan otros imprevistos. Elegir una tecnología tiene un coste de oportunidad: siempre implica renunciar a determinados efectos posibles o generar otros no planeados.
Como vistazo de posibles efectos de la tecnología en el periodismo, creamos esta tabla después de leer las 50 publicaciones con más impacto sobre la influencia de la tecnología en el periodismo. Creo que sería un buen punto de partida para explorar el impacto de la ‘IA’ y todos los posibles efectos que puede desencadenar.
Como conclusión, reitero lo que decíamos en esa publicación:
En 1941 Lazarsfeld estaba convencido de que los medios producen efectos más allá de la intención de sus gestores y que esos efectos son más poderosos cuanto más complejo es el medio. En 2019, Zuboff afirma que los medios permiten obtener el behavioral surplus o sobrante de comportamiento con que crear modelos que predicen el comportamiento de la audiencia. La tecnología digital ha convertido los medios en instrumentos con efectos especialmente complejos y poderosos.