Europol alerta sobre el uso que se está haciendo de ChatGPT para cometer delitos
Desde que OpenAI lanzara ChatGPT el pasado noviembre de 2022, ha sido la sensación para millones de internautas, quienes se lanzaron rápidamente a probar la plataforma de IA generando toda clase de contenido. Por supuesto, desde entonces también, muchos han accedido a ChatGPT para “otro” tipo de usos con fines delictivos.
Así lo asegura la fuerza policial de la UE, Europol, quien advirtió ayer lunes a través de un comunicado del uso indebido que se está haciendo del chatbot con intentos de phishing, desinformación y ciberdelincuencia. Según explican en su informe:
A medida que se mejoran activamente las capacidades de los LLM (modelos de lenguaje extenso) como ChatGPT, la posible explotación de este tipo de sistemas de inteligencia artificial por parte de los delincuentes ofrece una perspectiva sombría. La capacidad de ChatGPT para redactar textos muy realistas lo convierte en una herramienta útil para fines de phishing. Con su capacidad para reproducir patrones de lenguaje para suplantar el estilo de habla de individuos o grupos específicos, los delincuentes podrían usar el chatbot para atacar a las víctimas.
No solo eso. Lo cierto es que en un corto espacio de tiempo los usuarios han encontrado formas de evitar el sistema de filtro de contenido de OpenAI, ese que evita (en principio) que la IA te ofrezca información dañina o delictiva. De hecho, algunos usuarios han conseguido instrucciones sobre cómo crear una bomba casera, por ejemplo, o cómo cometer delitos y pedirle orientación paso a paso.
Según Europol:
Si un delincuente potencial no sabe nada sobre un área delictiva en particular, ChatGPT puede acelerar significativamente el proceso de investigación al ofrecer información clave que luego se puede explorar más en pasos posteriores. Como tal, ChatGPT se puede usar para aprender sobre una gran cantidad de posibles áreas criminales sin conocimiento previo, que van desde cómo entrar a una casa, hasta terrorismo, cibercrimen y abuso sexual infantil.
La propia agencia también cuenta que toda esta información ya estaba en la red antes de la llegada de la plataforma, pero especifican que el modelo facilita encontrar y comprender cómo llevar a cabo delitos específicos.
Por último, desde Europol también se recuerda que la capacidad de ChatGPT para generar código, incluso código malicioso, aumenta el riesgo de ciberdelincuencia al reducir las habilidades técnicas necesarias para crear malware, y que para un delincuente potencial con poco conocimiento técnico, “este es un recurso invaluable”.