.
lacritica.eu

El lado oscuro de los algoritmos de la IA: pecados que perpetúan la desinformación y la desigualdad digital

(Ilustración: https://newsnetwork.mayoclinic.org/es/ shutterstock_561931702).
Ampliar
(Ilustración: https://newsnetwork.mayoclinic.org/es/ shutterstock_561931702).

LA CRÍTICA, 16 DICIEMBRE 2023

Por Ángel Álvarez
Add to Flipboard Magazine. Compartir en Google Bookmarks Compartir en Meneame enviar a reddit Compartir en Yahoo

Aunque muchos lo piensan, parece que hay algunos dentro del sector interesados en que se crea, la Inteligencia Artificial (IA) no es una caja negra que aprende sola, de la que ni sus propios creadores entienden del todo cómo funciona. Como si fuera algo mágico que no podemos entender ni examinar, para quitarnos la capacidad de intervenir y auditar su funcionamiento.


Y no es así porque la IA, al menos de momento, veremos qué sucede en el futuro, está simplemente basada en algoritmos. Esas poderosas herramientas en las que se sustenta no sólo la IA sino casi toda la era digital, transformando la forma en que interactuamos con la información, el conocimiento, la toma de decisiones y el entretenimiento. Por eso, como cualquier herramienta, los algoritmos no son inmunes a los sesgos y vicios humanos y, con frecuencia, perpetúan problemas sociales y éticos. (...)

...


Gemma Galdón, fundadora y primera ejecutiva de Éticas Research and Consulting, en una reciente entrevista, comenta que “al principio estos sistemas son tan discriminatorios como la sociedad, pero al cabo de muy poco tiempo ya lo son mucho más… Porque lo que hace la IA es recoger muchos datos de entrenamiento y buscar un patrón. Y el patrón siempre es el hombre blanco con trabajo estable… Cualquier perfil que sea minoritario o anecdótico lo elimina de la muestra. Con lo cual, una mujer tiene muchas menos posibilidades de que le diagnostiquen endometriosis mediante IA, porque históricamente no hemos diagnosticado endometriosis”.


En este artículo, exploraremos algunos de los “pecados” que ya cometen los algoritmos, desde la falta de veracidad hasta la acumulación de poder en manos de unas pocas empresas.



1. Falta de veracidad: bulos y ultrafalsos (deepfakes)


La proliferación de bulos y noticias falsas ha alcanzado proporciones alarmantes en la era de la información digital. Los algoritmos, diseñados para maximizar la interacción y retención de usuarios, a menudo favorecen la difusión de contenido sensacionalista y polarizador. Plataformas de redes sociales como Facebook y Twitter han sido vehículos ¿inadvertidos? para la propagación masiva de información falsa.


Además, la tecnología ultrafalsa ha llevado la manipulación de la verdad a un nuevo nivel. Los algoritmos detrás de los ultrafalsos pueden generar videos convincentes de personas diciendo o haciendo cosas que nunca ocurrieron. Este fenómeno no solo socava la confianza en la información, sino que también plantea serios riesgos para la integridad de la democracia y la seguridad personal.


Bulos en las redes sociales: algunas noticias falsas son muy difíciles de discernir, o bien necesitan un nivel de formación que no está al alcance de la mayoría de la población, ya que los algoritmos a menudo priorizan la visibilidad de contenidos emocionales y llamativos dirigidos a determinadas audiencias proclives a creérselos. Uno de los usos más tendenciosos se produce durante las elecciones y se traduce en la viralización de noticias falsas. Un ejemplo, en 2016, se difundieron en Facebook noticias falsas que afirmaban que el Papa Francisco respaldaba a Donald Trump.

Ultrafalsos: creaciones audiovisuales que pueden simular actos y declaraciones de personas reales. Han alcanzado niveles de realismo asombrosos gracias a herramientas como ChatGPT, Dall-E o Voicebox, que pueden generar textos, imágenes y voces de forma muy parecida a como lo haría cualquier persona. Estas habilidades contribuyen a mejorar la eficiencia de dichos procesos, pero también pueden ser empleadas con fines menos éticos, como la suplantación de identidad o la difusión de información falsa. Como el caso del vídeo del presidente de Ucrania, Volodímir Zelenski, pidiendo la rendición de las tropas ucranianas. O el del creador de Meta, Mark Zuckerberg, en el que habla sobre el control de datos.



2. Falta de diversidad: sesgos subyacentes y desigualdades persistentes


La falta de diversidad en los algoritmos no sólo se manifiesta en la limitación de las opciones de entretenimiento o información, sino que también está intrínsecamente relacionada con sesgos perjudiciales que perpetúan desigualdades sistémicas como el género, la raza y el estatus económico.


Este fenómeno limita la exposición a nuevas ideas, culturas y opiniones, contribuyendo a la polarización y al estancamiento intelectual. La falta de diversidad en las recomendaciones también puede reforzar estereotipos y perpetuar sesgos, ya que los algoritmos tienden a basarse en datos estadísticos que, casi siempre, reflejan desigualdades existentes.


Sesgos sexistas: los algoritmos, como señala Margaret O’Mara, profesora de Historia de la Universidad de Washington y autora de The Code: Silicon Valley and the Remaking of America, en la revista Wired, reflejan la estructura de poder de Silicon Valley, que no es más que una extensión de la realidad social en el mundo occidental y que “pone de manifiesto que, para empezar, no hay suficientes mujeres en la mezcla”. Sasha Luccioni, investigadora de ética de IA en Hugging Face, resalta que “la IA está muy desequilibrada en términos de género” y que “No es un campo muy acogedor para las mujeres”.

Probablemente esto está relacionado con su escaso número ocupando posiciones relevantes en el mundo de la IA. Sólo algunas, como Mira Murati (Vlorë, Albania, 1988) son conocidas. Mira forma parte del cuarteto de fundadores de OpenAI y actualmente es su directora de tecnología. Ha supervisado al equipo que ha desarrollado el conocido robot conversacional ChatGPT, la aplicación más exitosa de la historia, y el generador de imágenes Dall-E. Además, ha sido elegida por el Financial Times como la mujer más influyente de este año.

Homogeneización de contenido: Los sesgos en los algoritmos de recomendación, como los utilizados por plataformas de transmisión de contenido como Netflix o servicios de redes sociales como Instagram, a menudo perpetúan la falta de diversidad. Aunque la personalización puede parecer atractiva, existe el riesgo de que los algoritmos encierren a los usuarios en burbujas de contenido, mostrándoles constantemente información y perspectivas similares a las ya conocidas, lo que contribuye a la homogeneización cultural al favorecer contenido popular, marginando voces y perspectivas menos convencionales.

Refuerzo de estereotipos: la falta de diversidad en los algoritmos puede reforzar estereotipos existentes, contribuyendo a la marginación y discriminación de determinados grupos sociales.

Filtración de contenido en redes sociales: en Facebook o Twitter, el contenido mostrado a cada usuario está determinado por algoritmos que priorizan lo que se alinea con sus preferencias, creando una cámara de eco que refuerza sus propias creencias.

Sesgos en los algoritmos de contratación laboral: los algoritmos utilizados en procesos de contratación basados en datos históricos pueden perpetuar sesgos existentes, excluyendo a candidatos de grupos diferentes a los tradicionalmente contemplados.



3. La sombra ética en los algoritmos

En el corazón del avance tecnológico, la encrucijada de la innovación y la ética en los algoritmos plantea preguntas fundamentales sobre el camino que estamos tomando hacia el futuro digital. Si estos sistemas carecen de una consideración adecuada de las implicaciones éticas de sus acciones, proyectan una sombra que oscurece los beneficios potenciales de la IA y plantea riesgos significativos para la sociedad, ya que las decisiones algorítmicas, que en muchos casos sólo persiguen beneficios económicos o de otra índole, pueden tener profundas consecuencias en la vida de las personas.

Este fenómeno se manifiesta a través de diversas problemáticas que plantean interrogantes fundamentales sobre la moralidad de nuestras creaciones digitales:


3.1. Opacidad y discriminación

Sesgos inherentes
: los algoritmos pueden perpetuar sesgos existentes en los datos con los que son entrenados, lo que resulta en discriminación y exclusiones injustas.

Falta de transparencia: la opacidad en su funcionamiento dificulta la identificación y corrección de sesgos, dejando a los usuarios sin la capacidad de comprender las decisiones que afectan a sus vidas.

Refuerzo de estereotipos: la falta de ética en los algoritmos puede reforzar estereotipos existentes, contribuyendo a la marginación y discriminación de determinados grupos sociales.

3.2. Privacidad y manipulación de datos

Violación de privacidad
: los algoritmos que recopilan y analizan datos personales pueden, como ya está sucediendo, infringir la privacidad de los usuarios.

Manipulación de percepciones: los algoritmos de redes sociales pueden ser utilizados para manipular opiniones y comportamientos, planteando riesgos para la democracia.

3.3. Autonomía y responsabilidad

Decisiones autónomas incontroladas
: la autonomía excesiva de los algoritmos puede conducir a decisiones sin supervisión humana, generando preocupaciones sobre quién o qué entidad asume la responsabilidad en caso de errores o consecuencias no previstas.

Falta de responsabilidad empresarial: las empresas que desarrollan algoritmos, a pesar de algunos esfuerzos para crear un adecuado marco de actuación, a menudo carecen de una responsabilidad clara en caso de resultados perjudiciales.

Quizás, ¡oh casualidad!, la investigadora en inteligencia artificial Timnit Gebru fue despedida en 2020 de Google, donde codirigía el equipo de Ética de la IA, porque denunció que los grandes modelos de lenguaje en los que trabajaba la compañía están fuertemente sesgados y perjudican a las minorías. ¿Dónde quedaba el compromiso de Google con la defensa de sus propósitos éticos?


4. Falta de transparencia: el misterio detrás de las decisiones algorítmicas


A menudo, los usuarios se enfrentan a respuestas algorítmicas sin comprender cómo se han generado. La falta de transparencia en los procesos algorítmicos puede tener consecuencias significativas, especialmente cuando se trata de decisiones importantes, como las relacionadas con el crédito, el empleo o la justicia.


Los algoritmos de aprendizaje automático a menudo operan en un nivel de complejidad que dificulta su interpretación, parece que incluso para sus propios creadores. Sorprende que se denomine alucinación (también llamada confabulación​ o delirio​) a la capacidad de los modelos de IA para generar contenido que no se basa en los datos reales con los que han sido entrenados, sino que es producto de la propia imaginación de los modelos. En cualquier otra disciplina a esta situación se la llamaría fallo o error.


La opacidad en la toma de decisiones algorítmicas plantea preocupaciones éticas y de responsabilidad, ya que los usuarios afectados suelen carecer de la capacidad de impugnar o comprender las decisiones que los afectan.


Decisiones crediticias y de empleo: algunas instituciones financieras y empresas de recursos humanos utilizan algoritmos para evaluar la solvencia crediticia o el potencial laboral, pero los usuarios no siempre conocen ni comprenden cómo se toman estas decisiones ni pueden rebatirlas.

Algoritmos de búsqueda y publicidad en buscadores: los usuarios reciben anuncios personalizados basados en sus búsquedas, pero desconocen cómo se seleccionan y por qué se muestran esos anuncios.



5. Acumulación de poder en empresas: monopolio tecnológico


Un número limitado de empresas tecnológicas gigantes, como Google, Facebook y Amazon, ha acumulado un poder sin precedentes en el mundo actual. Estas empresas no sólo poseen vastas cantidades de datos sobre usuarios, sino que también controlan los algoritmos que influyen en la forma en que se presenta y consume la información.


Google maneja aproximadamente el 90% de la cuota de mercado en las búsquedas en línea, lo que le otorga un poder significativo para influir en qué información se presenta a los usuarios. Un cambio en el algoritmo de búsqueda puede tener consecuencias masivas para sitios web y negocios. Meta, dueño de Facebook, Instagram y WhatsApp, mantiene un control significativo sobre cómo se comparte y se consume la información en múltiples plataformas.


Estos ejemplos ilustran cómo los algoritmos no solo influyen en nuestra percepción y acceso a la información, sino que también tienen un impacto directo en nuestras vidas cotidianas, desde lo que vemos en línea hasta las decisiones que se toman sobre nosotros sin nuestro pleno conocimiento o comprensión. Y, lo más preocupante, muestran el inmenso poder que estas empresas tienen sobre una buena parte de la humanidad.


Este monopolio tecnológico no solo amenaza la competencia en el mercado, sino que también plantea riesgos para la democracia al ser muy difícil que los estados puedan controlarlas. La capacidad de estas empresas para influir en la opinión pública y moldear la narrativa a través de algoritmos opacos plantea cuestionamientos fundamentales sobre quién tiene el control sobre la información y cómo se utiliza.



Conclusiones


A medida que los algoritmos se integran cada vez más en nuestras vidas, es imperativo abordar estos pecados digitales para garantizar un uso ético y equitativo de la tecnología. La transparencia, la diversidad y la responsabilidad son elementos clave en la reducción de los riesgos asociados con la falta de veracidad, la falta de diversidad, la falta de transparencia y la acumulación de poder.


Es esencial que la sociedad esté atenta a estos problemas y exija estándares éticos en el desarrollo y la aplicación de algoritmos. La regulación efectiva, la transparencia en los procesos algorítmicos y la diversidad en su concepción son elementos cruciales para mitigar los efectos negativos y garantizar que la tecnología beneficie a la sociedad en su conjunto.


Pero, no olvidemos que, en última instancia, la responsabilidad recae tanto en los desarrolladores como en los usuarios para abogar por un uso ético y reflexivo de la IA y los algoritmos y aprovechar plenamente sus beneficios, sin comprometer nuestros valores fundamentales.


Conozca a Ángel Álvarez


Licenciado en Psicología y M.B.A.
Inició su actividad profesional, en el área de Recursos Humanos, en CEPSA. Posteriormente desempeñó funciones directivas en Inditex, Ibermática, Grupo Polar, Keysp e Infoglobal.


En el año 2001 inicia una nueva etapa profesional, especializándose en coaching ejecutivo y personal, diseño e impartición de programas de liderazgo y desarrollo profesional y consultoría de recursos humanos. Primero como socio de la empresa norteamericana SMI (Success Motivation International), más tarde como socio director de Inducta y, desde finales de 2012, en Vártina.


Ha sido profesor en el Máster de Recursos Humanos del IMF (Instituto Madrileño de Formación), en el Máster de Coaching de la Escuela de Inteligencia, dependiente de la Universidad Camilo José de Cela y en el Programa de Especialización Comercial y Ventas, en la escuela de negocios ESTEMA, dependiente de la Universidad Europea de Madrid.


Ponente habitual, sobre comunicación, innovación y liderazgo, en diferentes foros y actos académicos y empresariales.


Es autor del libro Seduce a tu audiencia y mantiene el blog de opinión y divulgación Medio en serio, medio en broma.


Ha colaborado con numerosas organizaciones (Acsa, Acciona, Aguas de El Ejido, Agroponiente, Alstom, Apple, Asisa, Axa, Brother, BSH, BT, Caja España, Caja Madrid, Calier, CECA, Decathlon, El Corte Inglés, Enza Zaden, Fundación Valenciaport, GAM, Iberia, Indukern, Instituto Cajasol, IPH, Isaval, Johnson&Johnson, Kraft Foods, La Sexta, Martinrea, Ministerio de Cultura y Deporte, Moinsa, NaandanJain, Nokia, Orange, Palladium, Pasek, PITA, Plus Ultra, Repsol, Sacyr-Vallehermoso, Sprit, The Phone House, Vodafone, Volvo…), trabajando con sus equipos directivos y técnicos en la implantación de un liderazgo cohesivo, la gestión del cambio, el desarrollo de una mentalidad de innovación, la potenciación del talento y la creatividad, y la mejora de su productividad.

¿Te ha parecido interesante esta noticia?    Si (0)    No(0)

+
2 comentarios