Los ciberataques basados en IA suponen uno de los grandes retos de la era digital, y es que se trata de una amenaza que además de no descansar cuenta con la capacidad de aprender rápido y que puede actuar a una escala y a una velocidad sin precedentes.
En este artículo vamos a conocer algunos ejemplos de ciberataques basados en inteligencia artificial además de aprender cómo protegerse de ciberataques con esta tecnología, siendo conscientes de que la propia inteligencia artificial también puede operar como una aliada.
Ejemplos de ciberataques basados en inteligencia artificial
La IA no solo permite automatizar las tareas de los atacantes, sino que también ayuda a aprender y adaptarse en tiempo real, lo que provoca que sean ataques mucho más ofensivos.
Veamos dos ejemplos concretos.
Phishing automatizado
El phishing se trata de un tipo de estafa informática que busca suplantar la identidad de una persona u organización conocida por la víctima que aspira a obtener datos confidenciales de los usuarios, como los relacionados con cuestiones bancarias (cuentas, tarjetas, …) o contraseñas.
Por su parte, el phishing automatizado alude a la utilización de tecnologías y herramientas para crear, enviar y gestionar campañas de phishing automáticamente, permitiendo de este modo que los atacantes puedan escalar sus actividades, personalizar los mensajes enviados y adaptarse a gran velocidad a las potenciales respuestas que puedan dar los usuarios.
Los ciberdelincuentes pueden apoyarse en la IA con la finalidad de crear campañas de phishing con un alto grado de personalización, lo cual hace que sean más difíciles de detectar.
A este alto grado de personalización puede llegarse con el análisis de enormes cantidades de datos, lo que facilita igualmente la adaptación del contenido al receptor y de este modo esquivar los sistemas tradicionales de seguridad.
Deepfake
El término deepfake alude a la combinación del deep learning y el término inglés fake (falso) y se refiere a la suplantación mediante avanzadas técnicas de IA que tras recopilar datos como movimientos físicos, voz o rasgos faciales genera contenido hiperrealista que puede ser audiovisual, gráfico o incluso de voz.
Habría que explicar que el peligro no está en esta aplicación tecnológica en sí, sino en cuáles son las utilizaciones que con ello se puede hacer, siendo algunas de las peligrosas: atentar contra la moral de los personajes suplantados, fraudes, utilización para contraseñas biométricas, propagación de noticias falsas o robos de identidad.
Sin embargo, existen una serie de “pistas” que pueden ayudar a detectar los deepfakes como el número de parpadeos, posibles incongruencias entre la cara y el cuerpo, que los videos sean excesivamente cortos (por el tiempo de montaje que implican) o fijarse en el interior de la boca, puesto que los detalles de esa zona -lengua, dientes o cavidad bucal- son difíciles de reproducir.
Riesgos de la IA en la ciberseguridad
La IA no solo permite ataques más sofisticados, sino que también dificulta la defensa.
Los sistemas tradicionales de ciberseguridad, como cortafuegos o antivirus, están diseñados para detectar patrones ya conocidos.
Sin embargo, los ataques basados en IA pueden evolucionar constantemente modificando su comportamiento para evitar ser detectados, lo cual podría resumirse en que el atacante siempre parece estar un paso por delante.
Cómo protegerse de ciberataques con IA
Aunque pueda parecer contradictorio, la IA también se puede presentar como una aliada potencial en la defensa frente a los ciberataques.
Existen sistemas de ciberseguridad basados en IA que monitorean redes a tiempo real, detectan patrones sospechosos y responden automáticamente antes de que pueda desarrollarse el potencial ataque.
Asimismo, los usuarios también podemos ser más críticos o precavidos con los correos electrónicos que abrimos, las redes en las que confiamos o las aplicaciones que instalamos.