¿Es la inteligencia artificial todavía una asignatura pendiente para los expertos en ciberseguridad?
10 de Septiembre de 2024Escribe Carlos Arnal Cardenal, Product Marketing Manager en WatchGuard
En un mundo tan dependiente de la tecnología como el que vivimos, las personas y las empresas son más vulnerables que nunca a Múltiples amenazas, que van desde ataques de ransomware y malware hasta robo de datos y otras formas de cibercrimen.
Esta realidad subraya la creciente importancia de la inteligencia artificial en la ciberseguridad como tecnología clave para prevenir, detectar y responder a posibles brechas de seguridad que podrían resultar en la divulgación de información sensible y daños económicos, lo que llevaría a la pérdida de confianza de socios y clientes. Sin embargo, si analizamos el impacto específico de la IA en la ciberseguridad, existen aspectos positivos y negativos.
Dicho esto, no todo el mundo en la industria es consciente de esta situación. Según una encuesta reciente , solo el 46% de los profesionales de seguridad encuestados cree que comprende tanto los impactos positivos como negativos de esta tecnología en la ciberseguridad.
Considerando el creciente impacto que tiene la IA en la ciberseguridad, es crucial comprender la magnitud de la situación y entender cómo utilizar las soluciones impulsadas por IA a su favor, así como protegerse de posibles ataques que exploten esta misma tecnología.
Nuevos casos de uso de la IA en ciberataques
No es de extrañar que los cibercriminales hayan descubierto la oportunidad que ofrece la IA para que sus ataques sean más efectivos. Precisamente por eso, muchos profesionales de la ciberseguridad llevan ya algún tiempo estudiando y advirtiendo sobre posibles usos indebidos de la IA.
Un claro ejemplo de ello es Morris II. Este gusano malicioso no incorpora inteligencia artificial en su funcionamiento interno, sino que su método de propagación explota vulnerabilidades en los sistemas de IA generativa. En otras palabras, aunque este gusano no está impulsado por IA, su efectividad depende directamente de los sistemas que sí lo están. Este malware fue desarrollado por un grupo de investigadores de Cornell Tech, un centro de investigación de la Universidad de Cornell, en Nueva York, con el propósito de alertarnos sobre las amenazas que acechan en los sistemas de IA generativa, al tiempo que destaca la necesidad. de reforzar las medidas de seguridad en estos entornos mediante la implementación de medidas para controlar el uso de este tipo de tecnologías.
Los expertos en ciberseguridad también advierten sobre la alta probabilidad de que los piratas informáticos logren burlar la protección de herramientas como ChatGPT y luego las utilicen para producir contenido malicioso y desarrollar nuevas formas de ataque, lo que pone de manifiesto el daño que podría causar el mal. uso de herramientas impulsadas por IA.
Los modelos de lenguaje como ChatGPT pueden ser utilizados de forma maliciosa si los usuarios consiguen saltarse las restricciones de seguridad. Los implementados en estos sistemas están diseñados para evitar que se generen respuestas que puedan facilitar actividades ilícitas, como la creación de malware o la difusión de información dañina. Sin embargo, los cibercriminales pueden intentar burlar estas restricciones manipulando el lenguaje, utilizando descripciones indirectas o términos menos obvios para lograr sus objetivos.
Por ejemplo, en lugar de solicitar directamente el código de un ransomware, un usuario podría aprovechar los puntos ciegos de la herramienta para describir una funcionalidad específica que forma parte de un programa malicioso sin mencionar explícitamente que se trata de malware. Esto podría dar lugar a la generación de fragmentos de código que, aunque no constituyen malware completo, podrían utilizarse como base para desarrollar una herramienta maliciosa.
Este proceso podría dar lugar a la creación de malware polimórfico, que cambia constantemente de forma para evadir las soluciones de seguridad tradicionales, lo que dificulta su detección y mitigación. El malware polimórfico es especialmente peligroso porque utiliza la variabilidad del código para evadir las firmas de detección, lo que lo convierte en una amenaza difícil de controlar.
En última instancia, el uso indebido de herramientas basadas en inteligencia artificial generativa puede conducir a la creación automatizada de malware nuevo y cada vez más evasivo. Necesitamos reforzar las medidas de seguridad en estos entornos ahora para preparar a las empresas para esta amenaza cada vez más real.
Uso de la IA para mejorar la ciberseguridad
La buena noticia es que la IA también se puede aplicar para mejorar las soluciones de ciberseguridad e impactar positivamente en la protección de los sistemas de la empresa, incluso ante los ataques más evasivos. Si su proveedor de servicios gestionados ofrece una solución EDR avanzada , que basa sus principales funcionalidades de detección y respuesta a amenazas de endpoints en la inteligencia artificial, puede reforzar las capacidades de protección de las siguientes maneras:
- Detección avanzada de amenazas: Gracias al aprendizaje automático característico de la IA, las soluciones pueden analizar grandes volúmenes de datos y detectar amenazas potenciales en tiempo real, y así reconocer amenazas avanzadas que las soluciones de seguridad tradicionales podrían pasar por alto. Esto ofrece una mayor eficiencia de detección, reduciendo las posibilidades de ataques exitosos mediante la identificación temprana.
- Análisis y predicción: Estas tecnologías ayudan a obtener análisis que brindan un conocimiento profundo de las técnicas, tácticas y procedimientos (TTP) que utilizan los cibercriminales. La IA puede correlacionar eventos pasados con comportamientos sospechosos para facilitar la identificación de vulnerabilidades y fortalecer la protección bajo un sistema basado en la prevención.
- Respuesta automatizada a incidentes: Las soluciones EDR basadas en IA pueden automatizar la respuesta a incidentes, minimizando el tiempo de reacción y, con ello, las consecuencias y la propagación del ataque. Cuando se detecta una amenaza, se pueden ejecutar acciones predefinidas, como aislar el dispositivo afectado, bloquear procesos maliciosos y generar alertas detalladas para los equipos, mejorando la eficacia de los esfuerzos de protección.
Ante esta situación, es fundamental que los equipos de ciberseguridad estén actualizados para entender cómo combatir los nuevos tipos de ataques basados ??en inteligencia artificial y así poner a medias la prevención y el control ante posibles ataques. Sin embargo, es igualmente importante saber cómo utilizarla a su favor para reforzar la protección de los dispositivos ante amenazas cada vez más sofisticadas y reducir así la superficie de ataque. Al comprender el potencial de la IA tanto en las estrategias cibernéticas ofensivas como defensivas, las empresas pueden prepararse para el papel omnipresente de la IA en la ciberseguridad.
(*) Carlos Arnal Cardenal: Product Marketing Manager en WatchGuard