El pais
SUSCRÍBETE
La inteligencia artificial se utiliza en la educación para mejorar la enseñanza y el aprendizaje, así como para personalizar la experiencia de aprendizaje y ayudar a los estudiantes a alcanzar sus objetivos académicos de manera más efectiva. | Foto: Fotos enviadas por la Universidad Javeriana Cali / El País

POLICÍA

Que no le pase: estos son los riesgos que hay detrás del uso del ChatGPT

Basado en inteligencia artificial, este sistema de chat permite a los usuarios interactuar y hacer múltiples consultas a través de texto, pero tiene sus peligros.

7 de abril de 2023 Por: Redacción de El País 

Desde su lanzamiento a finales del año pasado se ha convertido en centro de estudios, halagos y críticas. Se trata del ChatGPT, una herramienta gratuita de Inteligencia Artificial, entrenada en millones de páginas de escritura, a la cual se le realizan todo tipo de consultas y ella las responde en texto.

Sol González, investigadora de ciberseguridad de la compañía Eset Latinoamérica, precisó que algo novedoso de esta tecnología es que permite interactuar de manera muy amigable y emplea un lenguaje accesible para cualquier tipo de usuario.

“La persona puede consultar ChatGPT desde resúmenes que pueda llegar a hacer sobre algún contexto en específico o incluso le puede pedir que le ayude a entender algún texto o hasta desarrollarlo. Es decir, le podría pedir que realice algún tipo de código en cierto lenguaje de programación”, dice.

“Es bastante sencillo de usar y tiene una característica bastante grande de optimizaciones en cuanto al tiempo porque hace tareas de forma rápida”, explicó González.

Sin embargo, así como ha ayudado a democratizar el conocimiento, también ha ‘democratizado’ algunas actividades del cibercrimen. “Podemos interactuar con la máquina y pedirle desarrollar algún artículo y demás, pero ahora bien, dependiendo cuáles son los fines del usuario, también puede haber personas que generen noticias falsas a través de datos falsos u otras acciones maliciosas”, sostiene.

Algunas investigaciones ya han demostrado que los delincuentes han comenzado a utilizar esta tecnología para desarrollar códigos maliciosos y otro tipo de acciones fraudulentas.

Este es un tema al que deberá estar atento, pues se requiere tener más cuidado que nunca con estas herramientas de inteligencia artificial, ya que pueden ser utilizadas para crear perfiles falsos, acceder al ordenador de las personas, sustraer información de usuarios y sus contraseñas.

Estos son los seis riesgos a tener en cuenta a la hora de usar ChatGPT.

Generación de noticias falsas

ChatGPT es un servicio disponible para cualquier persona. Puede ser utilizado para facilitar ciertas tareas a criminales como por ejemplo, las noticias falsas o noticias falseadas.

En el evento de que se quiera generar una noticia falsa que se propague por Internet solo se requiere un poco de creatividad y utilizar los parámetros correctos de lo que se quiere para alcanzar este propósito.
Así como el usuario puede ingresar ciertos datos y de esta manera desarrollar un artículo, también puede utilizar este chatbot (programa informático basado en la inteligencia artificial que es capaz de mantener una conversación con un usuario sobre un tema específico), para desarrollar un artículo que puede ser totalmente falso.

Esta es una de las acciones malintencionadas que van a comenzar a verse en Internet y que pueden realizarse a través de la plataforma de ChatGPT.

Por eso, una de las recomendaciones de los expertos es que los usuarios contrasten primero la información para verificar que esta sea verdadera.

Lea También: Durante el Jueves Santo fueron asesinados tres hombres en Cali, uno de ellos en el sur de la ciudad

Creación de correos peligrosos

Hoy en día, el primer escenario que utilizan los criminales para poder generar algún activo rápidamente, son los email de phishing. Estos siguen siendo los preferidos y cada vez es más difícil identificar los correos de phising que son enviados a través de correos electrónicos, mensajes de texto y mensajes directos en redes sociales o incluso en videojuegos para que las personas entreguen información personal.

Un usuario puede pedir a ChatGPT que desarrolle un email donde al cliente de un banco se le solicite su usuario y contraseña. Aunque durante una prueba de seguridad, la plataforma alertó sobre “lo inapropiado y potencialmente peligroso que resulta pedir información confidencial como nombre de usuario y contraseña a través de correos electrónicos”. Sin embargo, se realizó una nueva consulta, pero de otra manera, y se pudo lograr. Así que a través de esta herramienta se pueden generar correos electrónicos para engañar a las víctimas y obtener información confidencial.

Robo de Identidad

Este es uno de los delitos más frecuentes de los últimos años. Cada vez más personas denuncian que ha sido suplantada su identidad en redes sociales para cometer fraude o estafar a sus contactos. Los ataques no solo los padecen los famosos, cualquier persona puede ser la víctima.
Con ChatGPT esto también es posible. A la plataforma se le puede pedir que cree un Twitter como si fuera una celebridad y los resultados han sido sorprendentes, incluso alguna redacción para la foto de perfil de Instagram que personifique a la persona a la cual se le está robando la identidad.

Por ejemplo, se le pidió que redactara un Twitter como si fuera Elon Musk y así lo hizo. Toda esta información la tiene ChatGPT. Entonces en este sentido hoy no solamente se debe verificar de dónde viene la información, también hay que verificar que los perfiles no resulten falsos para no caer en un engaño y evitar una estafa.

Programas maliciosos

Malware es un software, pero con fines maliciosos diseñado para dañar cualquier dispositivo. Puede llegar, por ejemplo, a robo de información y dentro de esto puede ser robo de usuarios y contraseñas de una computadora, un dispositivo celular y demás. Es importante aclarar que crear un software es programación, pero cuando su fin es robar credenciales y claves se convierte en malicioso.

“En una prueba que se realizó analizamos si ChatGPT desarrolla un software si nosotros se lo pedimos. Si estuviera en la piel de un atacante y le solicitara a ChatGPT que desarrolle un programa, que se conecte a una dirección IP y que busque dentro del ordenador usuarios y contraseñas, lo puede hacer”, afirmó la investigadora González.

Según la experta, esto es lo debatible: ¿está bien o mal que ChatGPT lo haga? Para ChatGPT es un software lo que se está pidiendo, pero que sea luego utilizado para hacer algún tipo de crimen es lo que preocupa.

Lea  además: ¡No le quite el ojo a su carro! Estos son los sectores de Cali donde más están robando los vehículos

Procesos ofensivos

La automatización de procesos ofensivos tiene que ver especialmente cuando un delincuente quiere vulnerar una red de alguna empresa u otra organización.

A la hora de hacer estos ataques dirigidos, los criminales suelen realizar un proceso de reconocimiento que incluyen ciertas tareas que tienden a ser repetitivas o requieren alguna combinación de comandos. Sin embargo, en los años recientes surgieron herramientas o nuevas tecnologías que permiten acortar los tiempos de estas tareas.

Al chequear si ChatGPT pudiese ser utilizado para estas actividades, los investigadores simularon ser un atacante que quiere ingresar a un servidor para establecer qué usuarios hay en una empresa.

Entonces se probó ChatGPT para automatizar este proceso y efectivamente se demostró que con esta plataforma se podría obtener esta información. Esto generaría un riesgo para las compañías y una señal de alerta

Chats maliciosos

ChatGPT cuenta con una API (Interfaz de programación de aplicaciones) que permite alimentar a otros chats y debido a su interfaz amigable podría ser utilizada para muchos usos beneficiosos.

Sin embargo, si algo saben hacer los ladrones es invertir el uso de este tipo de servicios para fines maliciosos.

Por ejemplo, hoy en día hay varias aplicaciones de chats para poder tener algún encuentro con otras personas y conocerse, como ocurre con Tinder.

Pero, ¿qué sucedería si un criminal utiliza ChatGPT teniendo en cuenta que contesta de una manera muy humanizada? Un usuario le podría poner a la API de ChatGPT, por ejemplo: “Necesito que respondas como si fueras una mujer de entre 20 y 30 años y que hable determinado idioma’. Un cibercriminal puede configurar todo esta información y la automatiza, pero la otra persona que descarga la aplicación desconoce que está hablando con una API y no con una persona real.

Regístrate gratis a nuestro boletín de noticias

Recibe todos los días en tu correo electrónico contenido relevante para iniciar la jornada. ¡Hazlo ahora y mantente al día con la mejor información digital!

AHORA EN Contenido Exclusivo