Una imagen perfecta y un sonido que reproducía la voz de un cliente cometiendo un delito grave fueron el puntapié de una larga disputa legal que continua hasta hoy día. Ya hace varios años que muchos venimos advirtiendo sobre el potencial de la Inteligencia Artificial (IA) en un mal uso con intenciones difamatorias e inclusive como soporte en la realización de un fraude. Esta es la primera vez que debo intervenir en un caso concreto donde todas esas capacidades parecen haberse puesto al servicio de un ataque al prestigio de alguien.
La fidelidad con la que la Inteligencia Artificial recrea personas o ambientes teniendo como base la información pública disponible es inaudita y excede todo lo que conocemos hasta el momento. Muchas de las grandes agencias publicitarias ya dejaron atrás los costosos equipos de exteriores y los modelos top por un práctico y mucho más barato creador de contenidos en IA.
La fidelidad con la que la Inteligencia Artificial recrea personas o ambientes teniendo como base la información pública disponible es inaudita y excede todo lo que conocemos hasta el momento
Algunos creadores han puesto este conocimiento al servicio de la difamación como en este caso que menciono. Basados en una fake news de hace aproximadamente diez años publicada en un medio de comunicación de alta difusión, los difamadores crearon supuestas imágenes de un tenor híper realista que parecían certificar la acusación de aquella noticia espuria. Como si esto fuese insuficiente, a los pocos días –y basados en un amplio registro de entrevistas públicas– los creadores de contenido de IA realizaron un supuesto audio de WhatsApp donde se reproducía la voz que confirmaría el presunto delito del que se lo acusaba.
La crisis fue inevitable, más aún al difundirse desde una veintena de cuentas de X (ex Twitter) con cierto volumen e interacción que ampliaron el rango de difusión. El rumor no tardó en llegar a algunos medios digitales atentos a las redes sociales que virilizaron aún más el contenido. Aunque ponían en duda su veracidad se divulgaba al mismo tiempo las acusaciones que ya se expandían como una mancha de aceite. Una reacción instantánea fue poner a los abogados al servicio de denunciar esos contenidos, pero como sabemos, la justicia argentina es lenta y el daño al prestigio y a la buena reputación ya estaba hecho.
En ese momento ingresamos a participar para darle soporte de prueba al equipo legal y ayudar a minimizar y contrarrestar los daños. Lo relevante en este caso es la fuerza de verdad que imprime al daño los contenidos realizados con IA que hacen arduo y de larga tarea contrapesarlos.
Una reacción instantánea fue poner a los abogados al servicio de denunciar esos contenidos, pero como sabemos, la justicia argentina es lenta y el daño al prestigio y a la buena reputación ya estaba hecho
En esto momentos estamos confeccionando un informe objetivo que muestra las fallas y los orígenes de los programas donde se realizaron los contenidos mostrando la absoluta falsedad de los supuestos hechos que acompañados de una campaña de difusión al público correcto mostrara el engaño al que se quiso someter a opinión pública.
Aunque es evidente que no puedo divulgar por confidencialidad el caso, si es importante poner en blanco y negro y en alerta de todos que el peligro de las IA usadas en toda su potencialidad, ya están acá en Sudamérica para ser usadas en la difamación de marcas y prestigios. Cuanto más alertas y prevenidos estemos, y tengamos una reacción rápida frente a este tipo de potencial ataque, menor será el riesgo, aunque sea casi imposible evitarlo.
Hacer Comentario