Delitos cometidos con Inteligencia Artificial en Málaga, una realidad que se abre paso

La Policía Nacional de Málaga detecta un goteo de conductas ilícitas cometidas con esta tecnología. La mayoría, relacionadas con el desnudo de jóvenes

La inteligencia artificial, el metaverso y el 'streaming', nuevos canales de creación y difusión de pornografía infantil

¿Está evolucionando la ciberdelincuencia hacia estructuras mafiosas?

La Fiscalía detecta por primera vez delitos relacionados con inteligencia artificial en Sevilla
Ilustración sobre los delitos cometidos con Inteligencia Artificial. / Rosell

La irrupción universal y a gran escala de la Inteligencia Artificial tuvo lugar el pasado año. La mayoría de jóvenes, casi como con un juego, han caído en la creación de imágenes irreales a partir de una persona de carne y hueso. Muchos estudiantes se han ayudado de programas que emplean esta tecnología para la elaboración de sus trabajos. Esta realidad, aunque creada para el beneficio y eficacia de los humanos, también está al alcance de los malos. En la provincia de Málaga, la Policía Nacional detecta un goteo de conductas sociales delictivas relacionadas con IA y trata de dar respuesta a esta amenaza, representada con infinitas caras.

Los casos detectados en Ayamonte o Almendralejo, donde menores fueron acusados de desnudar digitalmente mediante inteligencia artificial a compañeras de clase, han acaparado las pantallas y portadas de periódicos. Pero, en la provincia de Málaga también se han llevado a cabo investigaciones relacionadas con nudificaciones de jóvenes que han culminado con el arresto de los supuestos responsables, asegura el inspector jefe de la Sección de Ciberdelincuencia de la Comisaría Provincial de Policía Nacional, Andrés Román.

Y es que, lo que hace apenas unos años era patrimonio de expertos, ahora está al alcance de cualquier neófito a golpe de clic. Haciendo una búsqueda rápida, cualquier adolescente puede encontrar un listado de aplicaciones web que ofrecen quitar la ropa con inteligencia artificial a personas que aparezcan en cualquier fotografía. Se promocionan en muchas ocasiones como gratuitas. Por lo general, brindan una prueba sin costes; luego, el precio suele oscilar entre los diez y los veinte euros.

Ni siquiera es preciso que las víctimas hayan enviado a los malhechores las imágenes que emplean para desnudarlas. Se alimentan de las que publican en redes sociales para hacer los montajes. No son sus cuerpos, pero el realismo de los mismos da lugar a confusión. La difusión sin control de estas creaciones digitales, sobre todo cuando se produce en un ámbito escolar, genera la vergüenza e indefensión a las víctimas.

Uno de los primeros casos investigados por la Policía Nacional en España tuvo lugar en Málaga el pasado año. “Vino una madre y nos explicó que habían aparecido fotos de su hija desnuda en redes sociales pero que no era ella”, explica el responsable de la Sección de Ciberdelincuencia. Los agentes -expertos en informática- pensaron estar detrás de un pervertido. Tras las indagaciones, se toparon con un compañero de clase de la niña, que quedó detenido por un delito contra el honor con un agravante de publicidad.

El abogado Francisco Peláez, del despacho Penaltech -especialistas en ciberdelitos-, puntualiza que las imágenes de desnudos creadas con inteligencia artificial y difundidas en la red no solo vulneran el derecho al honor o a la imagen personal, sino que en el caso de menores se considera también un delito de pornografía infantil.

En ocasiones, no se puede constatar que las imágenes con contenido sexual sean reales ni que sean menores. Sin embargo, ello no impide que estas creaciones digitales sean constitutivas de delito y, por tanto, perseguibles por la Policía. Este tipo de pornografía se denomina pornografía virtual y, desde 2015, está tipificada en el artículo 185 del código penal español. Lo único que exige la ley es que sea realista y que el contenido sea de abuso sexual.

¿Y qué ocurre con las páginas web que permiten elaborar estos montajes? Pues bien, el inspector jefe Román explica que suelen estar alojadas en otros países, lo que imposibilita llegar al origen de la imagen. “Estamos hablando de una realidad global y para dar una respuesta necesitamos instrumentos de esa índole. Ni siquiera podemos colaborar con la Policía de muchos de esos territorios porque no hay acuerdo”, señala.

Peláez, por su parte, considera que una vez difundidas las imágenes “es prácticamente imposible localizar la cadena completa. A esto se suma que en aplicaciones como Telegram o WhatsApp, si el usuario no tiene desactivada la descarga automática de imágenes, se puede encontrar con un problema”. Por esta razón, desde su punto de vista, “la posesión y distribución son cuestiones relativas”.

A pesar de que estas mismas redes sociales tienen sus propios mecanismos de autocensura, explica que hay modos de burlarlos como a través de una VPN (red privada virtual) en el extranjero. Además, las aplicaciones de mensajería generan un efecto multiplicador, “por lo que la persecución de la difusión es inaplicable en la práctica”, afirma Peláez.

Cabe apuntar que el pasado diciembre, el Consejo y el Parlamento Europeo alcanzaron un acuerdo provisional sobre el que es el primer Reglamento de Inteligencia Artificial. Aunque esta ley nace con la intención de garantizar que los sistemas de IA utilizados en la Unión Europea e introducidos en el mercado europeo sean seguros y respeten los derechos de los ciudadanos, el responsable de Ciberdelincuencia en la provincia de Málaga cree que será un intento fallido de ponerle puertas al campo.

En la actualidad, los deepfakes -vídeos, imágenes o audios generados que imitan la apariencia y el sonido de una persona- no cuentan con un tipo penal específico, lo que no significa que la Policía no los investigue y puedan quedar impunes. En torno al 80% de los casos que llegan a las comisarías están vinculados con delitos patrimoniales, siendo el fraude financiero el primero de ellos.

Uno de los primeros y más llamativos tuvo lugar en enero de 2021. Un grupo de criminales consiguieron clonar la voz, mediante inteligencia artificial, del director de una empresa que supuestamente quería realizar una transacción comercial. Haciéndose pasar por él, lograron manipular al trabajador de una entidad bancaria de Emiratos Árabes Unidos y hacerse con un botín de 35 millones de dólares. Otro caso fue el de los ciberdelincuentes que recrearon la apariencia de un directivo de la plataforma de criptomonedas Binance y la usaron en videollamadas con representantes de otras empresas.

La ciberdelincuencia del futuro que es presente

Los escritores de ciencia ficción ya vaticinaban el siglo pasado cómo sería el futuro. “Toda tecnología suficientemente avanzada es equivalente a la magia”, decía el británico Arthur Clarke. Isaac Asimov, profesor de Bioquímica en la Universidad de Boston, ya describía hace 50 años cómo sería el mundo con robots. Hace cuatro, las palabras inteligencia artificial llegaron a los pasillos de la ONU y se pronunciaron en el primer encuentro oficial dedicado a este tema. Se trata de una incipiente tecnología con incalculables posibilidades de hacer el bien. Pero, también el mal.

Uno de los campos donde está siendo mal utilizada la inteligencia artificial es en el bancario. Cuando se comete un delito patrimonial hay que cobrarlo y este lo reciben las llamadas mulas digitales. El sistema es fácil. Crean cuentas con una persona virtual en un país con el que la cooperación de investigación es inexistente donde ingresan el dinero de la estafa y así es difícil encontrarlo. Hasta hace un par de año, recopilaban documentación y se abrían cuentas. Pero, ahora, el paradigma ha cambiado. Las entidades comenzaron a implementar sistemas de comprobación humanos y, desde entonces, los criminales emplean la IA para crear personas sintéticas. El inspector jefe Román informa de que la Sección de Ciberdelincuencia de la Comisaría Provincial ha detectado varias tentativas que no han logrado a culminar porque "los programas todavía son un poco burdos", aunque advierte de que avanzarán.

Otro de los problemas donde la IA entra en choque con la legislación es el de la propiedad intelectual. Hay ejemplos recientes como la canción de los Beatles o libros escritos a través del Chat GTP creados a partir de fragmentos de obras ya editadas. “El uso de estas herramientas y sus futuros desarrollos va a generar nuevas formas de delitos. La velocidad a la que va su desarrollo es desbordante”, explica el abogado Peláez.

Un cambio vertiginoso que se recoge, con más o menos éxito, en los diferentes cambios legislativos. Por ejemplo, la ley del sólo sí es sí, a la hora de la suplantación de la personalidad ha tenido un impacto significativo. Según Peláez, entonces se incluyó la sanción a las personas que utilicen la imagen de otra persona sin su consentimiento para crear anuncios o perfiles falsos en redes sociales, sitios de citas u otros medios de difusión pública, causando una situación de acoso, hostigamiento o humillación. Esta acción conlleva penas que van desde tres meses hasta un año de prisión o multas. Además, estas sanciones son aún mayores cuando la víctima es menor de edad o tiene alguna discapacidad.

Sin embargo, según Peláez, “es importante destacar que se enmarca dentro del delito de acoso, por lo que ha de darse efectivamente esa situación de hostigamiento o humillación para poder imputarse”. Esto también afecta en parte a las estafas del amor, en la que individuos se hacen pasar por actores, celebridades u otras personas con atractivo para flirtear con víctimas que, en última instancia, son engañadas para hacer pagos o proporcionar información personal. “Al utilizar estos estafadores la imagen de otra persona sin su consentimiento para estos fines supuestamente amorosos, se les podría imputar este delito si se demuestra que las personas suplantadas han sufrido consecuencias negativas morales como resultado”.

En el caso de las imágenes de carácter sexual, el art.189.5 establece de manera general que se castiga al que para su propio uso “adquiera o posea” pornografía infantil. En el apartado 1.d), se especifica que se considera pornografía infantil a las imágenes realistas de menores de carácter sexual. Por tanto, las imágenes no tienen por qué ser siquiera reales para que se persiga por este delito.

“Con los adultos, no existe esa protección concreta. Sin embargo, se puede aducir que ha habido un delito de descubrimiento y revelación de secretos del artículo 197.1, al utilizarse, sin consentimiento, artificios técnicos de reproducción de la imagen”, donde entendemos que se puede enmarcar la IA. Además, podría considerarse un delito contra la intimidad agravado al llevarse a cabo mediante la utilización de datos personales de la víctima sin autorización. Por supuesto, también cabe aludir al delito contra la integridad moral del artículo 173.1 CP o por injurias, del art.208 CP, por lesionar la dignidad de la otra persona”, explica Peláez.

Así el panorama, el inspector jefe Román pronostica un cambio de paradigma en el que la inteligencia artificial será multimodal. "Se trata de generar un modelo que sea capaz de reproducir una voz, una imagen, un texto y hasta conciencia". Por ello, advierte que llegará un momento en el que ya no podamos fiarnos de nuestros propios sentimos. "En un mundo digital debemos desconfiar por defecto y contrastar", aconseja.

stats