Contenidos
Desde hace algunos meses, la inteligencia artificial suscita un avivado debate social, ético y mediático a causa de sus numerosos pros y contras. La IA está en el punto de mira y es analizada con lupa por muchos sectores de actividad, en especial el automotriz. ¿El motivo? Recientemente varias compañías de seguros de coches han detectado un nuevo tipo de estafa en la cual los delincuentes utilizan la inteligencia artificial para generar imágenes falsas de un siniestro y poder reclamar una indemnización a estas empresas. Se trata de las llamadas shallowfakes, una nueva práctica para estafar manipulando imágenes y vídeos con herramientas de edición. En este artículo de Wikidriver te contaremos cómo funciona este fraude digital y qué estrategias están adoptando las compañías aseguradoras para poder detectarlo y cazar a los ciberdelincuentes.
A lo largo de los años, las compañías de seguros han tenido que enfrentarse a todo tipo de estafas: desde conductores que declaran daños del vehículo anteriores a la contratación de la póliza, pasando por provocar ellos mismos el siniestro, colisiones con coches «fantasma» de los cuales no existe ningún dato, hasta declarar daños ajenos al accidente, por citar solo algunos. Sin embargo, con el avance de la tecnología los delincuentes han ido sofisticando sus técnicas para estafar y en la actualidad les basta un ordenador e IA para trucar imágenes y simular un accidente.
¿Qué es el shallowfake y cómo funciona?
Ya hace tiempo que estamos habituados al término fake news, es decir a las noticias falsas creadas para desinformar a un público específico y difundidas a través de portales de noticias, prensa escrita, radio, televisión y redes sociales. El término shallowfake también comparte la misma raíz (fake, falso), pero en esta ocasión lo que se falsifica no son noticias, sino contenido audiovisual.
A través de herramientas básicas de edición de imagen y vídeo (como Image Creator de Microsoft, DALL-E de OpenAI, MidJourney, Adobe Firefly, Stable Diffusion o Dreamstudio de Stability AI), los archivos audiovisuales se manipulan de forma sutil para generar imágenes trucadas, recortes de vídeo, manipulaciones de audio y ajustes de velocidad, entre otros.
Las imágenes y vídeos parecen tan reales, que a no ser que un equipo profesional antifraude las examine, a menudo son tomadas como verdaderas, permitiendo a los ciberdelincuentes estafar grandes cantidades de dinero.
Diferencias entre shallowfake y deepfake
Es importante diferenciar la práctica del shallowfake de la del deepfake, ya que mientras la primero utiliza técnicas simples de edición de imágenes y vídeo para generar contenido audiovisual ficticio, la segunda emplea algoritmos de aprendizaje avanzados para crear vídeos, audios e imágenes falsas de personas. Así pues, se habla de shallow (superficial) fake por oposición a deep learning (aprendizaje profundo), aunque ambas utilizan la IA y consiguen crear contenido altamente realista.
Según un estudio reciente de la compañía de seguros Allianz en el Reino Unido, las estafas digitales de este tipo registradas por las compañías de seguros han aumentado un 300% en tres años, hecho que representa una grave amenaza para las finanzas de estas empresas.
Ejemplos de imágenes de coches manipuladas con IA para engañar a las compañías de seguros
Entre los contenidos ficticios generados con IA que reciben las compañías aseguradoras, destacan los siguientes:
- Daño falseado: el vehículo muestra daños ficticios en el exterior generados con técnicas de shallowfake y deepfake.
- Matrícula falsa: mediante IA, en la imagen de un vehículo siniestrado se agrega la matrícula de otro vehículo para simular un accidente. Lo reportó Zurich Insurance Group recientemente, que también señaló que en ocasiones estas imágenes manipuladas también van acompañadas de informes de ingenieros y estimaciones de reparaciones falsas.
Herramientas para detectar imágenes de accidentes creados con IA
Las compañías de seguros saben que una parte de las indemnizaciones que pagan a sus clientes pueden ser una estafa, de forma que cuentan con un margen para asumir estos costes si consideran que esta opción es más económica que invertir recursos para investigar las posibles estafas.
Sin embargo, en el caso de que las cantidades reclamadas por los asegurados sean muy elevadas, las compañías de seguros sí que optan por destinar esfuerzos y recursos para evitar importantes pérdidas financieras y cazar a los ciberdelincuentes.
Para ello, los peritos y/o los equipos antifraude de las aseguradoras utilizan las siguientes herramientas y estrategias:
- Examen minucioso del entorno del vehículo: una vez reciben el contenido audiovisual que el cliente les ha enviado para acreditar el siniestro, analizan con detenimiento cualquier elemento del entorno del vehículo (peatones, elementos arquitectónicos, de señalización vial, de la naturaleza, etc.) para detectar posibles manipulaciones de las imágenes o vídeos.
- Investigación en las redes sociales: a menudo los perfiles sociales de los conductores son investigados en casos sospechosos. Un ejemplo reciente lo encontramos en el Reino Unido: la compañía Allianz recibió una reclamación de un cliente que supuestamente había sufrido un accidente con su coche. El asegurado envió a Allianz una fotografía del vehículo con daños en el paragolpes delantero, junto a una factura de 1.000 libras (unos 1.170 euros). El equipo antifraude de la compañía investigó la reclamación y, al rastrear en internet, descubrió que la imagen había sido manipulada: el asegurado tenía colgada la misma foto del vehículo sin ningún daño en sus propias redes sociales.
- Incorporación de datos EXIF a las cámaras de los peritos y de los equipos antifraude: cuando un especialista acude al lugar de un siniestro, recaba todas las pruebas posibles para documentar el accidente y permitir que la compañía pueda calcular la indemnización. Ante el alto número de estafas por contenidos audiovisuales manipulados en los siniestros, las aseguradoras están optando por incorporar datos EXIF en los equipos fotográficos de sus peritos y equipos antifraude. Los EXIF permiten almacenar metadatos de las imágenes tomadas, es decir, datos que van más allá de las simples fotografías, como la configuración de la cámara, la hora y la fecha, así como el lugar donde se tomaron las imágenes para poder compararlas con los archivos mandados por los clientes. Además, el contenido audiovisual modificado también contiene metadatos que revelan que las imágenes, audios o vídeos han sido manipulados, como las marcas de tiempo de modificación, información del sistema y seguimiento de cambios.
- Contratación de empresas para detectar posibles fraudes: compañías como la mencionada Allianz han optado por unir fuerzas con otras empresas especializadas para esclarecer si el contenido audiovisual recibido es verdadero o ha sido manipulado. Por ello, desde hace escasos meses Allianz trabaja con la agencia de análisis Clearspeed, que analiza los patrones de voz de posibles clientes estafadores para detectar fraudes.
Consecuencias de las estafas digitales a las aseguradoras
Dados los altos costes que suponen los shallowfakes y deepfakes para la industria del seguro (no olvidemos que incluso hay bandas organizadas que viven de estafar a estas compañías, no solo se trata de casos aislados), como hemos visto en el apartado anterior las aseguradoras han decidido tomar cartas en el asunto, pero no a coste cero.
Así, han optado por subir las primas en los seguros de coches para repercutir parte de estos gastos, tal como muestran las cifras: según datos recientes publicados por la Association of British Insurers (Asociación de Aseguradores Británicos), las pólizas en el Reino Unido se han encarecido una media del 33% respecto al mismo período del año pasado, hecho que representa 157 libras más (unos 183 euro) al mes.
Legislación y regulación
Para regular el uso de la inteligencia artificial, establecer los derechos fundamentales de los ciudadanos de la UE y mitigar los riesgos los riesgos que esta tecnología puede suponer para la seguridad europea, hace apenas unos meses (concretamente, el 13 de marzo de este año), la Unión Europea aprobó la Ley de Inteligencia Artificial. El texto legal en su totalidad no entrará en vigor hasta el año 2026, si bien el capítulo 5, referido a las prácticas de IA prohibidas, será de obligado cumplimiento a partir del mes de septiembre. Entre los usos no permitidos se incluye la generación de contenido perjudicial, es decir, propaganda, desinformación u otro contenido dañino mediante IA. Así, generar shallowfakes y deepfakes para defraudar la industria aseguradora incumple la normativa y podrá conllevar fuertes sanciones económicas a aquellos que utilicen esta tecnología con fines ilegítimos.
En resumen, pues, en los próximos meses deberemos estar muy atentos a la aplicación de esta nueva ley para ver si tiene el pretendido efecto disuasorio entre los ciberdelincuentes y las compañías de seguros observan una disminución de la que parece ser la nueva gran estafa de este sector.