Conecta con nosotros

Noticias

Los ciberdelincuentes ya utilizan ChatGPT para desarrollar herramientas maliciosas

Publicado el

Los ciberdelincuentes ya utilizan ChatGPT para desarrollar herramientas maliciosas 66

Si hace escasos días conocíamos la noticia de que Microsoft invertirá 10.000 millones de dólares en ChatGPT, el dispositivo de inteligencia artificial de OpenAI, el último estudio presentado por la empresa de seguridad Check Point Research (CPR) revela los usos negativos que los hackers podrían estar dando a esta eficiente herramienta.

Atrás en el tiempo queda el uso benigno de ChatGPT para escribir ensayos, desarrollar informes o emprender investigaciones científicas. Y todo ello gracias la permisibilidad de esta herramienta para generar imágenes a partir de descripciones realizadas en lenguaje natural o de mantener conversaciones que parecen ser realizadas por seres humanos.

Ahora, en lugar de producir nuevos programas informáticos, los ciberdelincuentes se están dedicando a compartir en la Dark Web scripts nocivos realizados a partir de ChatGPT, lo cual supone un potencial riesgo para los usuarios.

Check Point ha detectado que los ciberdelincuentes han encontrado en ChatGPT un aliado para construir herramientas de cifrado para acceder a sistemas y obtener información confidencial. Entre esos programas que están creando destacan los Infostealer, un ‘caballo de Troya’ que roba información.

A finales del pasado año se detectó en un foro clandestino un hilo llamado ‘ChatGPT – Beneficios del malware’, en el cual se desvelaba que se estaba utilizando la herramienta de IA para recrear cepas de malware y técnicas descritas en publicaciones de investigación y escritos sobre malware común. De este modo, se les daba a los usuarios inexpertos información clave para aprender a utilizar el código malicioso Infostealer.

Los script kiddies han visto en la herramienta de IA de OpenAI una vía accesible para producir malware funcional. Aunque inicialmente sus usos siguen siendo rudimentarios, se ha descubierto que ChatGPT permite crear un mercado de compra-venta de bienes ilegales y robados, así como para compartir datos de pago, software malicioso, drogas y armas. También facilita la modificación de los precios actuales de las criptomonedas de cara a las nuevas transacciones.

Se espera ahora que se le incorporen mejoras estructurales para crear códigos cada vez más indetectables y que puedan ser enviados mediante mensajes de spam, correos electrónicos o siguiendo la técnica del phishing.

El primer código malicioso

Los analistas de CPR detectaron que el primer código malicioso que escribió un usuario era complejo. Era un código de Python que combinaba varias funciones criptográficas, incluida la firma de código, el cifrado y el descifrado. Con una parte del script se generaba una clave usando criptografía de curva elíptica y la curva ed25519 para firmar archivos. Otra parte se sirvió de una contraseña codificada para cifrar los archivos del sistema empleando algoritmos de Blowfish y Twofish, mientras que un tercero usó claves RSA y firmas digitales, firma de mensajes y la función hash blake2 para comparar diferentes archivos.

Sus sucesores

Después de detectar que con el envío de archivos en formato PDF se permitía copiar, comprimir y enviar posteriormente a un servidor controlado por un atacante toda la información robada, se estaban dando las bases para nuevos avances de tipo malware. Así fue cómo surgió un segundo código escrito en Java a partir de la descarga de SSH y PuTTy (ejecutado usando Powershell).

Incluso la propia Check Point habría usado ChatGPT para enviar un documento de Excel adjunto a un correo electrónico y que mediante el phishing se lograse perfeccionar el código iterado. Posteriormente, los investigadores de utilizaron otro servicio de IA (Codex) para desarrollar otros malware como shell inverso y scripts para escanear puertos, detectar sandbox y compilar su código Python en un ejecutable de Windows.

Los ciberataques en cifras

En 2022 se registraron un aumento en cuanto a ciberataques en un 38% con respecto al año anterior. Las empresas sufrieron una media de 1.168 ataques por semana, siendo la educación y la sanidad los sectores más damnificados. Ahora con ChatGPT estos ataques pueden incrementarse en 2023 de forma notoria.

Al igual que semanas atrás se aseguraba que ChatGPT no entendía de límites para hacer más sencilla la experiencia de los usuarios y permitir el progreso en diferentes parcelas económicas, ahora se encuentra en esta herramienta un fin nocivo en manos de los ciberdelincuentes, que como no se frene, podría generalizar la aparición de Infostealers y otros malware.

Lo más leído