Aunque muchos lo piensan, parece que hay algunos dentro del sector interesados en que se crea, la Inteligencia Artificial (IA) no es una caja negra que aprende sola, de la que ni sus propios creadores entienden del todo cómo funciona. Como si fuera algo mágico que no podemos entender ni examinar, para quitarnos la capacidad de intervenir y auditar su funcionamiento.
Y no es así porque la IA, al menos de momento, veremos qué sucede en el futuro, está simplemente basada en algoritmos. Esas poderosas herramientas en las que se sustenta no sólo la IA sino casi toda la era digital, transformando la forma en que interactuamos con la información, el conocimiento, la toma de decisiones y el entretenimiento. Por eso, como cualquier herramienta, los algoritmos no son inmunes a los sesgos y vicios humanos y, con frecuencia, perpetúan problemas sociales y éticos. (...)
...
Gemma Galdón, fundadora y primera ejecutiva de Éticas Research and Consulting, en una reciente entrevista, comenta que “al principio estos sistemas son tan discriminatorios como la sociedad, pero al cabo de muy poco tiempo ya lo son mucho más… Porque lo que hace la IA es recoger muchos datos de entrenamiento y buscar un patrón. Y el patrón siempre es el hombre blanco con trabajo estable… Cualquier perfil que sea minoritario o anecdótico lo elimina de la muestra. Con lo cual, una mujer tiene muchas menos posibilidades de que le diagnostiquen endometriosis mediante IA, porque históricamente no hemos diagnosticado endometriosis”.
En este artículo, exploraremos algunos de los “pecados” que ya cometen los algoritmos, desde la falta de veracidad hasta la acumulación de poder en manos de unas pocas empresas.
1. Falta de veracidad: bulos y ultrafalsos (deepfakes)
La proliferación de bulos y noticias falsas ha alcanzado proporciones alarmantes en la era de la información digital. Los algoritmos, diseñados para maximizar la interacción y retención de usuarios, a menudo favorecen la difusión de contenido sensacionalista y polarizador. Plataformas de redes sociales como Facebook y Twitter han sido vehículos ¿inadvertidos? para la propagación masiva de información falsa.
Además, la tecnología ultrafalsa ha llevado la manipulación de la verdad a un nuevo nivel. Los algoritmos detrás de los ultrafalsos pueden generar videos convincentes de personas diciendo o haciendo cosas que nunca ocurrieron. Este fenómeno no solo socava la confianza en la información, sino que también plantea serios riesgos para la integridad de la democracia y la seguridad personal.
2. Falta de diversidad: sesgos subyacentes y desigualdades persistentes
La falta de diversidad en los algoritmos no sólo se manifiesta en la limitación de las opciones de entretenimiento o información, sino que también está intrínsecamente relacionada con sesgos perjudiciales que perpetúan desigualdades sistémicas como el género, la raza y el estatus económico.
Este fenómeno limita la exposición a nuevas ideas, culturas y opiniones, contribuyendo a la polarización y al estancamiento intelectual. La falta de diversidad en las recomendaciones también puede reforzar estereotipos y perpetuar sesgos, ya que los algoritmos tienden a basarse en datos estadísticos que, casi siempre, reflejan desigualdades existentes.
3. La sombra ética en los algoritmos
En el corazón del avance tecnológico, la encrucijada de la innovación y la ética en los algoritmos plantea preguntas fundamentales sobre el camino que estamos tomando hacia el futuro digital. Si estos sistemas carecen de una consideración adecuada de las implicaciones éticas de sus acciones, proyectan una sombra que oscurece los beneficios potenciales de la IA y plantea riesgos significativos para la sociedad, ya que las decisiones algorítmicas, que en muchos casos sólo persiguen beneficios económicos o de otra índole, pueden tener profundas consecuencias en la vida de las personas.
Este fenómeno se manifiesta a través de diversas problemáticas que plantean interrogantes fundamentales sobre la moralidad de nuestras creaciones digitales:
4. Falta de transparencia: el misterio detrás de las decisiones algorítmicas
A menudo, los usuarios se enfrentan a respuestas algorítmicas sin comprender cómo se han generado. La falta de transparencia en los procesos algorítmicos puede tener consecuencias significativas, especialmente cuando se trata de decisiones importantes, como las relacionadas con el crédito, el empleo o la justicia.
Los algoritmos de aprendizaje automático a menudo operan en un nivel de complejidad que dificulta su interpretación, parece que incluso para sus propios creadores. Sorprende que se denomine alucinación (también llamada confabulación o delirio) a la capacidad de los modelos de IA para generar contenido que no se basa en los datos reales con los que han sido entrenados, sino que es producto de la propia imaginación de los modelos. En cualquier otra disciplina a esta situación se la llamaría fallo o error.
La opacidad en la toma de decisiones algorítmicas plantea preocupaciones éticas y de responsabilidad, ya que los usuarios afectados suelen carecer de la capacidad de impugnar o comprender las decisiones que los afectan.
5. Acumulación de poder en empresas: monopolio tecnológico
Un número limitado de empresas tecnológicas gigantes, como Google, Facebook y Amazon, ha acumulado un poder sin precedentes en el mundo actual. Estas empresas no sólo poseen vastas cantidades de datos sobre usuarios, sino que también controlan los algoritmos que influyen en la forma en que se presenta y consume la información.
Google maneja aproximadamente el 90% de la cuota de mercado en las búsquedas en línea, lo que le otorga un poder significativo para influir en qué información se presenta a los usuarios. Un cambio en el algoritmo de búsqueda puede tener consecuencias masivas para sitios web y negocios. Meta, dueño de Facebook, Instagram y WhatsApp, mantiene un control significativo sobre cómo se comparte y se consume la información en múltiples plataformas.
Estos ejemplos ilustran cómo los algoritmos no solo influyen en nuestra percepción y acceso a la información, sino que también tienen un impacto directo en nuestras vidas cotidianas, desde lo que vemos en línea hasta las decisiones que se toman sobre nosotros sin nuestro pleno conocimiento o comprensión. Y, lo más preocupante, muestran el inmenso poder que estas empresas tienen sobre una buena parte de la humanidad.
Este monopolio tecnológico no solo amenaza la competencia en el mercado, sino que también plantea riesgos para la democracia al ser muy difícil que los estados puedan controlarlas. La capacidad de estas empresas para influir en la opinión pública y moldear la narrativa a través de algoritmos opacos plantea cuestionamientos fundamentales sobre quién tiene el control sobre la información y cómo se utiliza.
Conclusiones
A medida que los algoritmos se integran cada vez más en nuestras vidas, es imperativo abordar estos pecados digitales para garantizar un uso ético y equitativo de la tecnología. La transparencia, la diversidad y la responsabilidad son elementos clave en la reducción de los riesgos asociados con la falta de veracidad, la falta de diversidad, la falta de transparencia y la acumulación de poder.
Es esencial que la sociedad esté atenta a estos problemas y exija estándares éticos en el desarrollo y la aplicación de algoritmos. La regulación efectiva, la transparencia en los procesos algorítmicos y la diversidad en su concepción son elementos cruciales para mitigar los efectos negativos y garantizar que la tecnología beneficie a la sociedad en su conjunto.
Pero, no olvidemos que, en última instancia, la responsabilidad recae tanto en los desarrolladores como en los usuarios para abogar por un uso ético y reflexivo de la IA y los algoritmos y aprovechar plenamente sus beneficios, sin comprometer nuestros valores fundamentales.
Conozca a Ángel Álvarez
Licenciado en Psicología y M.B.A.
Inició su actividad profesional, en el área de Recursos Humanos, en CEPSA. Posteriormente desempeñó funciones directivas en Inditex, Ibermática, Grupo Polar, Keysp e Infoglobal.
En el año 2001 inicia una nueva etapa profesional, especializándose en coaching ejecutivo y personal, diseño e impartición de programas de liderazgo y desarrollo profesional y consultoría de recursos humanos. Primero como socio de la empresa norteamericana SMI (Success Motivation International), más tarde como socio director de Inducta y, desde finales de 2012, en Vártina.
Ha sido profesor en el Máster de Recursos Humanos del IMF (Instituto Madrileño de Formación), en el Máster de Coaching de la Escuela de Inteligencia, dependiente de la Universidad Camilo José de Cela y en el Programa de Especialización Comercial y Ventas, en la escuela de negocios ESTEMA, dependiente de la Universidad Europea de Madrid.
Ponente habitual, sobre comunicación, innovación y liderazgo, en diferentes foros y actos académicos y empresariales.
Es autor del libro Seduce a tu audiencia y mantiene el blog de opinión y divulgación Medio en serio, medio en broma.
Ha colaborado con numerosas organizaciones (Acsa, Acciona, Aguas de El Ejido, Agroponiente, Alstom, Apple, Asisa, Axa, Brother, BSH, BT, Caja España, Caja Madrid, Calier, CECA, Decathlon, El Corte Inglés, Enza Zaden, Fundación Valenciaport, GAM, Iberia, Indukern, Instituto Cajasol, IPH, Isaval, Johnson&Johnson, Kraft Foods, La Sexta, Martinrea, Ministerio de Cultura y Deporte, Moinsa, NaandanJain, Nokia, Orange, Palladium, Pasek, PITA, Plus Ultra, Repsol, Sacyr-Vallehermoso, Sprit, The Phone House, Vodafone, Volvo…), trabajando con sus equipos directivos y técnicos en la implantación de un liderazgo cohesivo, la gestión del cambio, el desarrollo de una mentalidad de innovación, la potenciación del talento y la creatividad, y la mejora de su productividad.