Adviete Reuters con IA… hay riesgo de estafas en chatbots
La agencia Reuters advierte sobre chatbots de inteligencia artificial (IA) que pueden ser fácilmente manipulados por estafadores para diseñar esquemas de estafas por correo electrónico.
Por: Redacción 15 Septiembre 2025 07:52
Expusieron el caso de Grok, el chatbot de inteligencia artificial de Elon Musk, por donde una organización benéfica falsa 'Silver Hearts Fundation' pretendía robar grandes sumas de dinero a adultos mayores en Estados Unidos.
Esto se trata de un caso de 'phishing', que consiste en engañar a personas para que revelen información confidencial en línea mediante mensajes fraudulentos como el de Grok, y que es la puerta de entrada a muchos tipos de fraude en línea.
Reuters colaboró con Fred Heiding, investigador de la Universidad de Harvard y experto en phishing, para probar la eficacia de algunos de esos correos electrónicos en un grupo de aproximadamente 100 voluntarios mayores.
Los principales chatbots reciben capacitación de sus creadores para evitar ser cómplices de delitos, pero a menudo resulta ineficaz.
Probaron otros cinco chatbots de IA populares (ChatGPT, Meta AI, Claude, Gemini y DeepSeek), y la mayoría se negaron a enviar correos electrónicos en respuesta a solicitudes que dejaban claro que la intención era estafar a personas mayores.
Pero, Reuters señaló que todas las defensas contra solicitudes maliciosas fueron fáciles de superar al ser persuadidos o engañados, asegurando el usuario que los mensajes son necesarios para un investigador que estudiaba el phising o un novelista que escribía sobre una estafa.



