Noticias
Sólo 10 de cada 69 antivirus son capaces de detectar un código malicioso generado con IA
Esta conclusión se extrae de un estudio formulado por la unidad de ciberseguridad de Fibratel, Fsafe, augurando que es una tendencia que se espera que se mantenga durante los próximos años. Todo ello pone de manifiesto la necesidad de que los antivirus combinen el poder de la inteligencia artificial con el factor humano como método eficaz de protección frente a los ciberataques.
Algunos fabricantes de servicios de ciberseguridad, como Fortinet y Crowdstrike, están aplicando la IA en sus productos (firewalls, secure web gateways, endpoint protection), aunque queda demostrado que la intervención humana sigue siendo necesaria para establecer una respuesta contundente. Con la actuación de un profesional que analice cada caso al detalle y supervise las medidas se logrará establecer una solución eficiente al respecto, reduciendo los tiempos de respuesta frente a los ataques.
Al igual que se perfeccionan las defensas, el estudio de Fsafe demuestra que los ataques también están evolucionando gracias a la aplicación de la IA. Con ésta se generan códigos maliciosos, se automatizan los ataques y se mejora la efectividad con total impunidad al ser casi indetectables.
Quienes recurren a los ataques fundamentados en IA suelen ser usuarios no necesariamente con amplios conocimientos al respecto, sino que se convierten en accesibles y lucrativos, permitiendo una menor inversión de tiempo, de personal y de trabajo en su desarrollo.
La IA, la mejor aliada
Gracias a la aplicación de la IA los expertos en ciberseguridad pueden analizar infinidad de datos en tiempo real y detectar todo tipo de patrones sospechosos, permitiéndoles así ahorrar tiempo y poder centrarse en tomar decisiones basadas en su experiencia. Y es que gracias a este eficiente aliado se consigue aumentar en más de un 55% el poder de respuesta de las empresas frente a los ciberataques.
Desde Fibratel se insta a seguir una serie de medidas clave, dentro de un plan de ciberseguridad, que minimice los daños a la reputación, el robo de datos o las pérdidas económicas. Por consiguiente, todo pasaría por analizar los riesgos de la empresa y definir los procedimientos necesarios para gestionar la seguridad (como una política de contraseñas o la instalación de antivirus y firewalls.).
También se alude a la necesidad de contar con un equipo cualificado, pues son quienes se valdrán de las herramientas necesarias para identificar y prevenir posibles ciberataques. Así mismo, será necesario mantener las actualizaciones de software de seguridad.
A pesar de que con la ayuda de este plan basado en IA se consiga establecer una estrategia eficaz, las empresas deben monitorizar el sistema en busca de posibles vulnerabilidades para solventarlas a tiempo.
ChatGPT como herramienta maliciosa
El investigador de ciberseguridad Aaron Mulgrew utilizó recientemente la herramienta ChatGPT de OpenAI para crear un exploit de día cero que pudiese robar datos de dispositivos sin ser detectado por los eficientes programas de seguridad, lo cual demuestra la necesidad de combinar la IA y la mente humana como método eficaz.
El malware se desarrolló en pocas horas mediante el uso del lenguaje de programación Go y evadiendo las protecciones de seguridad de ChatGPT frente a la producción de software malicioso. Mulgrew solicitó a ChatGPT fragmentos de código, de tal modo que la inteligencia artificial no fue capaz de percibir que esa unión de todas las partes conformaba un exploit.
Después lo fue perfeccionando hasta hacerlo indetectable por las aplicaciones de seguridad de la plataforma Virustotal. De hecho, de 69 antivirus solo fueron capaces de detectarlo cinco a través de un identificador único global (GUUID). A partir de ahí ChatGPT creó LSB Steanography, una técnica de esteganografía capaz de ocultar mensajes cifrados dentro de una imagen. De este modo, se volvió en indetectable para los sistemas de seguridad.