Empresa reveló que engañó a ChatGPT para mostrar que le puede ayudar a cometer delitos

Empresa reveló que engañó a ChatGPT para mostrar que le puede ayudar a cometer delitos

Inteligencia artifical, chatGPT, delito.

 

 

 





Una reciente investigación ha revelado una preocupante capacidad de ChatGPT de inteligencia artificial desarrollado por OpenAI. En experimentos llevados a cabo por la empresa noruega Strise, se descubrió que puede ser fácilmente manipulada para brindar asesoramiento detallado sobre cómo cometer delitos como el lavado de dinero o la evasión de sanciones internacionales. Ello fue resultado de algunas preguntas hechas de manera indirecta, los investigadores lograron que ofreciera instrucciones precisas sobre cómo realizar actividades ilegales.

Por: El Heraldo 

Estos resultados ponen de manifiesto una brecha en las protecciones del chatbot y plantean serias interrogantes sobre el uso de la inteligencia artificial para fines maliciosos. La facilidad con la que ChatGPT puede ser utilizado como un asesor criminal virtual representa un nuevo desafío para las regulaciones de estas herramientas. Strise, una empresa especializada en la lucha contra el crimen financiero, advierte que esta tecnología podría facilitar la planificación de actividades delictivas de manera más rápida y eficiente que nunca antes.

Engaño al Chat GPT

Strise vende un software que ayuda a los bancos y otras empresas a combatir el lavado de dinero, identificar a personas sancionadas y abordar otros riesgos. En un experimento, realizado por la empresa, el chatbot ofreció consejos sobre ciertos delitos, cómo lavar dinero a través de las fronteras. También en otro llevado a cabo por dicha firma, el ChatGPT elaboró ??listas de métodos para ayudar a las empresas a evadir sanciones, como las impuestas contra Rusia, incluidas las prohibiciones de ciertos pagos transfronterizos y la venta de armas.

Los chatbots de IA generativa, como ChatGPT, tienen la capacidad de procesar grandes cantidades de información y generar respuestas coherentes y convincentes, lo que los convierte en herramientas poderosas para aquellos que buscan cometer delitos. Ante esta situación, OpenAI ha reconocido la problemática y ha asegurado estar trabajando constantemente para mejorar los sistemas de seguridad. Sin embargo, los expertos advierten que la carrera por desarrollar tecnologías de inteligencia artificial cada vez más sofisticadas puede estar superando los esfuerzos por garantizar su uso responsable.

Para leer más, pulse aquí