El lado oscuro de ChatGPT: Generar malware funcional

0
717

Open AI se enfrenta a un nuevo desafío difícil de frenar; el uso malicioso de ChatGPT. Un estudio desarrollado por la empresa de seguridad Check Point Research revela que la versión beta de este chatbot con IA se empezó a utilizar en fotos de delitos cibernéticos para escribir tanto software como emails con fines de espionaje, malware, ransomware y espionaje.

De este modo, cualquier usuario sin ser experto podría manipular scripts para realizar ciberataques con ChatGPT. Los script kiddies afloraban y campaban a sus anchas, pudiendo incluso llegar a convertir a la herramienta en la favorita de la Dark Web.

El código pionero malicioso de ChatGPT

Un participante del foro publicó el guión del primer código generado utilizando ChatGPT. El código de Python combinaba varias funciones criptográficas, el cifrado y el descifrado. De este modo, una parte de dicho script se encargaba de generar una clave usando criptografía de curva elíptica y la curva ed25519, mientras que otra parte empleó una contraseña codificada para cifrar los archivos del sistema usando algoritmos Blowfish y Twofish. De igual manera, un tercero usó claves RSA y firmas digitales, firma de mensajes y la función hash blake 2 para comparar diferentes archivos.

Como resultado se generó un script para descifrar un único archivo y agregarle un código de autenticación de mensajes al final. También permitía cifrar una ruta codificada y descifrar una lista de archivos que recibe como argumento.

En el mismo foro, según apunta dicho informe de Check Point Research, otro participante publicó dos ejemplos de código escritos con ChatGPT. El primero era un script de Python para el robo de información posterior a la explotación. Se encargó de buscar archivos específicos, los copió en un directorio temporal, los comprimió y los envió posteriormente a un servidor que estaba en manos de un atacante.

El segundo código malicioso, escrito con Java, se basó en la descarga de SSH y telnet Putty para después ejecutarlo mediante Powershell.

Por consiguiente, quienes utilizan este tipo de foros con estos fines lo único que intentan es adoctrinar a nuevos script kiddies para que aprendan a usar ChatGPT como malware, modificando fácilmente el código si se solventan problemas concretos de sintaxis y script.

El mercado de la transferencia de datos

El informe recoge a su vez un tercer uso delictivo de ChatGPT, en esta ocasión, para crear un bazar automático que permitiese comprar e intercambiar contraseñas, datos de tarjetas bancarias y otros servicios de forma ilícita. Para ello se empleaba una interfaz de programación que permitía salvaguardar los precios actuales de las criptomonedas y fijar, a partir de ese momento, el precio de las transacciones.

Todo apunta a que en a principios de noviembre, los investigadores de Check Point probaron el uso de ChatGPT para generar malware a partir de un correo electrónico de phishing, escondiendo el script en un archivo de Excel adjunto a éste. Conforme le pedían al chatbot que generase el código en repetidas ocasiones su calidad, y por consiguiente su efecto malicioso, iban mejorando.

Posteriormente incorporaron Codex, un servicio de inteligencia artificial más avanzado, para desarrollar otros malware, incluido un shell inverso y scripts que permitiesen escanear puertos, detectar sandbox y compilar su código Python en un ejecutable de Windows.

Esa es la pregunta que se hacen los usuarios, ya que la herramienta de Open AI prohíbe taxativamente su uso con fines ilegales y maliciosos, aunque cada vez se están generalizando más las consultas a VirusTotal para conocer las detecciones de un hash criptográfico específico.

El futuro es incierto, y de momento se espera que siga siendo ChatGPT utilizado para estudios y ensayos científicos, pero la piratería informática es una amenaza latente.