Cómo la IA está cambiando el panorama de la ciber seguridad y el ciber crimen

El incremento de la popularidad de las herramientas de IA pueden suponer una amenaza para la ciber seguridad

Cómo la IA está cambiando el panorama de la ciber seguridad y el ciber crimen

La IA (Inteligencia Artificial) es una de las tecnologías más revolucionaria de nuestro tiempo, y está cambiando el modo en que pensamos acerca de la ciber seguridad y el ciber crimen. En solo dos meses, el chatbot desarrollado por OpenAI sobrepasó los 100 millones de usuarios activos y se estableció a sí mismo como la aplicación de consumo que más ha crecido de la historia. Los usuarios buscan usar la IA para componer malwares y emails para espiar, atacar con ransomware, generar spam malicioso y otras actividades negastas que actualmente dominan las discusiones de los foros de ciber seguridad.

Un ciber criminal compartió el código de un ladrón de información que crearon usando ChatGPT como demostración de sus habilidades. El malware, escrito en Python, fue capaz de localizar, copiar y extraer 12 formatos de archivo estándar de un sistema comprometido, incluyendo documentos Office, PDFs e imágenes.

Las campañas recientemente descubiertas incluso mostraron cómo los criminales enseñan a los robos de inteligencia artificial y asistentes a inyectar código malicioso en sus programas para difundir amenazas. La campaña del troyano Puzzle muestra que los ciber criminales usan la popularidad de la IA y la tecnología para aprovecharse de ello.

En los años más recientes, ha habido un incremento de los ciber ataques, los cuales se están convirtiendo en cada vez más sofisticados, frecuentes y difíciles de prevenir. Sin embargo, aunque la IA proporciona nuevas oportunidades para combatir el ciber crimen, también introduce nuevos riesgos y retos. Este artículo cubre cómo la inteligencia artificial está alterando el panorama de la ciber seguridad y del ciber crimen.

Usando la IA para luchar contra ciber ataques

Los enfoques tradicionales de ciber seguridad se están convirtiendo cada vez en menos efectivos, ya que los ciber ataques incrementan en número y complejidad. Sin embargo, con la subida de la IA, nuevas oportunidades para abordar estos retos están emergiendo. Los algoritmos de IA son capaces de analizar grandes cantidades de datos y detectar patrones y anomalías que los humanos pueden pasar por alto, lo cual es especialmente prometedor para la detección de amenazas en ciber seguridad. La IA puede prevenir o mitigar el potencial daño a través de detección y respuesta a tiempo real.

El control de autentificación y acceso, los cuales han sido tradicionalmente vulnerables a ataques, están siendo también transformados por la IA. Con sistemas de autentificación basados en una IA biométrica como reconocimiento facial, reconocimiento de voz, escaneo de huellas, contraseñas y otros métodos de autentificación pueden ser realizados de forma más segura y conveniente. Estos sistemas son también capaces de adoptar los cambios en el comportamiento del usuario, añadiendo una capa extra de seguridad.

Malwares potenciados por IA: la nueva amenaza a los sistemas de ordenadores

Los malwares basados en IA se están convirtiendo cada vez en más sofisticados y difíciles de detectar en el campo de la ciber seguridad. En 2019, por ejemplo, los investigadores descubrieron DeepLocker, un malware basado en IA desarrollado por IBM que usa una «IA contradictoria» para evitar la detección. DeepLocker está centrado en permanecer dominante hasta un determinado momento, como hasta que el individuo o la organización lo detecte. Puede desplegar una carga explosiva para realizar ataques destructivos una vez está identificado el objetivo.

Otro ejemplo de malware basado en IA es el ataque de malware sin archivos de 2017 en un banco global. El malware, apodado «Silent Starling» usó un algoritmo de inteligencia artificial para evitar la detección de programas anti-virus. Durante varios meses, el malware fue capaz de infectar los sistemas bancarios y robar información confidencial sin ser detectado. El ataque fue descubierto tras una anomalía en la red bancaria que fue descubierta y detectó el malware.

Los ataques de malware basados en IA son especialmente preocupantes porque pueden adaptarse y evolucionar en tiempo real para evitar la detección. Estos ataques pueden ser usados para robar datos sensibles, hackear sistemas o lanzar ataques de denegación de servicios, entre otras cosas. Ya que la tecnología de IA avanza cada vez más, la amenaza de malwares basados en IA va a seguir aumentando, necesitando desarrollo de nuevos métodos y estrategias de prevención y detección.

La siguiente generación de ingeniería social

ChatGPT, en las manos incorrectas, puede asistir a cualquier aa crear un email de phishing convincente e incluso escribir el código de un ataque malware. Desafortunadamente, indistintamente de tu nivel o lenguaje, los ciber criminales pueden ahora añadir sus códigos maliciosos creados en archivos adjuntos a emails aparentemente inocentes.

En los años recientes, ha habido reportes de ciber criminales generando ataques de ingeniería social usando tácticas similares con otros modelos conversacionales basados en IA. Los investigadores, por ejemplo, descubrieron una campaña de phishing en 2020 que usó el modelo de lenguaje de OpenAI GPT-3 para generar convincentes emails de phishing que parecían llegar desde fuentes de confianza.

Debería apuntarse que usar ChatGPT para ataques de ingeniería social podría ser no ético e ilegal. OpenAI, la compañía que ha creado ChatGPT, ha creado algunas salvaguardas para prevenir el uso malicioso de su tecnología, como monitorización de mal uso y requerimiento a los usuarios de aceptar los términos y condiciones que les prohíben hacer un uso dañino. Sin embargo, la amenaza de los ataques de ingeniería social basados en IA está aumentando, enfatizando la importancia de realizar investigaciones y desarrollo de medidas de seguridad para contrarrestar estas amenazas.

Oportunidades y riesgos a abordar

La IA proporciona nuevas oportunidades para combatir el ciber crimen, pero también introduce nuevos riesgos y retos. El desarrollo de sistemas de ciber seguridad basados en IA es una prometedora área de investigación, pero aún se encuentra en sus fases iniciales. Muchos problemas técnicos y éticos deberán ser abordados, tales como la dependencia e interpretabilidad de los algoritmos de IA, la posibilidad de sesgos y discriminación y el riesgo de ciber ataques en los propios sistemas de IA.

Otro problema es el requisito de colaboración entre los profesionales de la ciber seguridad, expertos en IA y reguladores. La IA es una tecnología que está avanzando rápidamente, y desarrollar soluciones efectivas requiere de un alcance multidisciplinar. La colaboración entre disciplinas es crítica para asegurar que la IA es usada para beneficiar a la sociedad más que para llevar a cabo propósitos maliciosos.

Sobre el autor
Gabriel E. Hall
Gabriel E. Hall - Apasionada investigadora de virus

Gabriel E. Hall es una apasionada investigadora de malware que ha estado trabajando para LosVirus.es desde hace casi una década.

Contactar con Gabriel E. Hall
Sobre la empresa Esolutions