...
que era la primera vez que tenían noticia de ese tipo de timo. Hoy día ya se conoce con carácter general, debido a que se ha repetido y la policía lo ha alertado en los medios de comunicación.
Sin embargo, su yerno, acreditado periodista, le dijo que si su marido, allí presente, la llamara por teléfono y dirigiéndose a ella con el diminutivo habitual y con su misma voz, le dijera que había tenido un accidente en la carretera y que debía depositar la cantidad de dos mil euros o si no le metían en el calabozo, ¿qué haría? La matriarca, llena de cariño y conocedora de su marido, aseguró, con la conformidad de todos los presentes, que no le creería, entre otras cosas, porque no conducía. Pero como el yerno insistiera y le planteara que era él mismo quien se dirigiría a ella como suele hacerlo, con su voz y que si tenía alguna duda, que entrara en wasap y vería su rostro, ¿qué haría? Esta vez la matriarca, sin dudar, le dijo que le haría la transferencia por la cantidad solicitada.
El yerno había reproducido el timo, que esta vez sí había tenido éxito parcial. Lo cuenta, con detalle, Omar Kardoudi en elconfidencial.com del 25/05/2023:
“EL LADO OSCURO DE LA IA. El primer timo hecho por una persona falsa generada por IA (Inteligencia Artificial) en una videoconferencia. Un estafador ha usado inteligencia artificial para hacerse pasar por otra persona en una videollamada y sustraer millones de yuanes a un empresario… Un empresario chino es la nueva víctima de una estafa que usa la inteligencia artificial para suplantar la personalidad de alguien cercano. El estafador realizó una videollamada suplantando tanto el aspecto como la voz de un amigo íntimo de la víctima para sustraerle 4,3 millones de yuanes, unos 567.000 euros. La videollamada se realizó a través de la popular aplicación Wechat, el 20 de abril pasado, según constatan las autoridades policiales de la ciudad de Fuzhou, en el sureste de China. El estafador se hizo pasar por un amigo de la víctima –un empresario tecnológico apellidado Guo– que necesitaba realizar la transferencia de 4,3 millones de yuanes desde una cuenta de banco, para poder pagar la garantía de un concurso público en el que supuestamente quería participar. “En ese momento, comprobé la cara y la voz de la persona que me llamaba por vídeo, así que bajé la guardia”, afirma Guo en sus declaraciones… El empresario se dio cuenta de la estafa tras contactar por mensaje con su amigo y comprobar que este no tenía conocimiento de la transacción. En ese momento, Guo alertó a la policía, que procedió a bloquear inmediatamente la operación, impidiendo la transferencia de 3,36 millones de yuanes (cerca de 475.000 euros). Según Global Times, continúan las investigaciones para recuperar el resto del dinero, aunque no hay noticias de la identidad de los estafadores”.
Por su parte, elmundo.es alerta, igualmente, el 24 de mayo:
“Videollamadas con la cara y la voz clonada de tu mujer para pedirte dinero: las estafas con inteligencia artificial se disparan…”.
Podría seguir, pero es suficiente el caso en que se engaña con voz e imagen artificial a todo un empresario en una crecida cantidad económica y quizá más difícil, por el profundo conocimiento de la propia esposa, de su voz, de su modo de hablar y de otra serie de aspectos, que necesariamente aparecen en una conversación tan seria como la de conseguir la transferencia de una cantidad de dinero, proporcionalmente importante para la economía doméstica de cada una de las familias estafadas, con la imitación artificial de la voz y la imagen. Yo no sé el lector, yo me siento indefenso.
Pero la reunión familiar no terminó aquí. Posteriormente, una hija, que es la delicadeza en persona, dio noticia de que en un artículo de un periódico, cuyo nombre no recordaba, había visto la reproducción de dos vídeos de dos actores en los que era casi imposible distinguir la imagen real de la virtual. Pues bien, uno de estos actores contaba un chiste que le hizo verdadera gracia, pero el autor del artículo preguntaba a continuación a su lector o lectora, si le haría menos gracia que publicaran su imagen (con seguridad era la primera vez que la hija pronunciaba este verbo) masturbándose.
Un periódico al que estoy suscrito, elconfidencial.com, y cuya sección de tecnología, Novaceno, leo habitualmente y naturalmente a Jesús Díaz, publica un artículo en el que entrevista a Tom Haram, CEO de Metaphysic y que creó los deep fakes –videos con las figuras y voces– de Tom Cruise en Tik Tok y de Elvis resucitado ganando America's Got Talent, y que debe ser buen amigo suyo, porque le respondió a una serie de preguntas, apenas dos horas antes de entrevistarse, en televisión, en directo, con Chris Anderson, el fundador de TED, en el gran escenario del Centro de Convenciones de Vancouver, Canadá. Pues bien, en directo el rostro y la voz de Tom Haram se transformaron en los de Chris Anderson. Imposible distinguirlos. Dijo Tom Haram, ante la anuencia general: "Parece que vamos a tener que acostumbrarnos a un mundo en el que ni nosotros ni nuestros hijos podremos confiar en la evidencia de nuestros ojos”.
Una de las preguntas de Jesús Díaz, sobre la suplantación o si se quiere sustitución, de una persona por su imagen artificial: “El objetivo es que cualquiera que quiera realizar una película pueda contratar a Tom Hanks sin tener que contratar a Tom Hanks físico, ¿no? ¿Es esto algo que podrá hacerse?”. Y la contestación de Tom Haram: “Seguirías teniendo que contratar a Tom Hanks, pero Tom Hanks no tendría que aparecer por el plató para rodar… Esto ya ocurre hoy en día, sobre todo en los anuncios de deportistas. No tienen tiempo para memorizar y realizar estos contenidos porque tienen que estar entrenando y jugando,…” y sigue dando noticias de películas con actores resucitados o rejuvenecidos y además realizadas por la Inteligencia Artificial (IA), por lo que concluye que cuando se reunieron los máximos expertos en nuevas tecnologías, sobre todo, en la IA, y predijeron que dentro de 10 años no sería posible distinguir la “realidad real” de la “realidad virtual”, es preciso rectificar: “En vez de diez años serán 3 o 2 años en que no podrá distinguirse la realidad real de la realidad virtual”.
En efecto, los vaticinios de Tom Haram, entre otros científicos y empresarios, se están cumpliendo con una extensión y rapidez superiores a las previstas. Diversos medios de comunicación dieron, la semana pasada, la noticia de que se ha convocado ya la peor huelga de toda la historia de Hollywood, porque a la de los guionistas se ha unido la de 160.000 actores.
Elijo de entre estos medios, xataca.com del día 12, porque me parece que es el que trata con mayor detalle técnico una de las reivindicaciones de estos dos colectivos:
“Las películas escritas por ChatGPT están muy cerca. Y al sindicato de guionistas de EEUU le parece bien. Desde hace meses, las aplicaciones de inteligencia artificial están evolucionando muy rápidamente… El hecho de que estén al alcance de todos ha cambiado por completo el panorama digital, pero también ha causado cierta reflexión (y casi preocupación) en muchos sectores. Uno de ellos es el de los guionistas. Como todo trabajo creativo, la perspectiva de que la IA pueda generar textos y contenido audiovisual es aterradora para los profesionales, que temen que su trabajo sea prescindible. Tanto es así, que para capear la situación y ponerse al día con la nueva era que viene, el Writer's Guild of America, el sindicato que representa a escritores de cine y televisión, ha propuesto permitir que las IAs como ChatGPT escriban guiones siempre que los humanos lo supervisen y obtengan rédito por sus contribuciones”.
Y añade xataka.com, con relación a los actores y su preocupación por la IA:
“La inteligencia artificial,… que califican de ‘amenaza existencial’. Argumentan que la IA podría crear un escenario en el que proliferen los deepfakes de ellos mismos y que los actores muertos revividos por CGI se conviertan en las estrellas del mañana a través de rostros y voces generados por ordenador. Y, sobre todo, la idea más oscura de todas: que se hagan películas sin participación de un equipo de cámara, un actor o un escritor”.
Este primer artículo tiene como objetivo, explicar el título de esta serie y alertar sobre la indefensión de la mayoría de los ciudadanos. En los próximos artículos, se pondrán de manifiesto las extraordinarias ventajas, pero también los peligros y perjuicios de las IAs, no sólo respecto de los ciudadanos, sino también para las empresas, bancos, fundaciones, asociaciones; instituciones académicas, militares, policiales, educativas, culturales, religiosas, periodísticas, económicas; asesorías y consultorías, médicas, legales, deportivas, psicológicas, técnicas, económicas, de entretenimiento…; en fin la IA va a afectarnos en casi todos los aspectos personales, familiares, profesionales, sociales, es decir en los diferentes ámbitos de nuestras vidas.
Volviendo al plano individual, si de alguno de nosotros publican un video en que estamos dando la mano a un narcotraficante o abusando de un niño o blanqueando dinero en un paraíso fiscal o participando en unas apuestas ilegales, supondrá algo peor que nuestra muerte física. El rechazo –en cuanto se suba a las redes sociales y se haga viral en nuestro entorno ese video– de nuestra familia, vecinos de casa, de barrio, del pueblo, nuestros compañeros y superiores profesionales, la sociedad que conocemos, unido a nuestro honor, reputación, buen nombre y el de nuestros padres, hijos, etcétera. Naturalmente, el juez, a través del dictamen de nuestra policía científica, demostrará que el video es falso, pero el daño, irreparable, ya estará hecho. Afortunadamente Europa, el continente que más protege nuestros datos, está tomando medidas para que esto no ocurra. Pero el peligro sigue existiendo, porque la protección no es igual, por ejemplo, con servidores o hackers, localizados en otros países, o hackers europeos, empresas o gobiernos que utilizan esos servidores. Resulta evidente la necesidad de la regulación ética mundial en el uso de estas nuevas tecnologías, porque la inmensa mayoría de los ciudadanos, desconoce, incluso, las posibilidades de la Inteligencia Artificial.
Francisco Ansón
Conozca a Francisco Ansón Oliart
acceso a la página del autor