Inteligencia Artificial: expertos afirman que pueden crear publicaciones engañosas para robar información

Investigadores demostraron que los chatbots más famosos son capaces de crear estafas virtuales muy convincentes para los usuarios.

Por Canal26

Lunes 21 de Agosto de 2023 - 16:32

Introducción a ChatGPT. Foto: Unsplash Introducción a ChatGPT. Foto: Unsplash

La Inteligencia Artificial apareció en nuestras vidas para ayudarnos a organizar tareas o dar respuestas rápidas a nuestras preguntas. Sin embargo, lograron evolucionar a pasos agigantados y ganar autonomía. Ahora, son capaces de imitar el comportamiento humano y volverse cibercriminales.

Una investigación presentada en una ciberconferencia en Estados Unidos analizó como los correos electrónicos generados con Chat GPT y Google Bard, además de otros programas de IA, pueden ser usados para crear publicaciones engañosas y robar datos de los usuarios a través de la inyección de virus maliciosos.

En 2022, se detectaron 255 millones de intentos de “Phishing”, es decir, publicaciones falsas que son creadas para robar información a los internautas, sin ayuda de la Inteligencia Artificial. Pero ahora, los expertos afirman que los ciberdelincuentes con ayuda de la IA pueden adaptar las estafas y hacerlas más convincentes para alcanzar más víctimas.

Hackers, tecnología. Foto: Reuters La inteligencia artificial puede adaptar las estafas virtuales. Foto: Reuters 

En este sentido, un equipo liderado por Fredrik Heading, especialista en ciberseguridad de la Universidad de Harvard, reveló que los modelos de lenguaje usados por los famosos chatbots son capaces de crear phishing y propagar programas malignos a través de correo electrónico.

Inteligencia artificial. Imagen cedida.

Te puede interesar:

La IA en la educación, el entretenimiento y la economía

Chat GPT y Google Bard, ¿los hackers del futuro?

Para analizar las habilidades de hacker de los chatbots, un grupo integrados por expertos del MIT y de empresas de seguridad renombradas pidieron a Chat GPT y a Bard que redacten un correo de 150 palabras, dónde ofrecen un cupón de regalo por 25 dólares y que lo enviaran a 112 estudiantes de Harvard.

Los resultados demostraron que el email escrito por la tecnología de OpenIA combinada con un bot diseñado para crear publicaciones engañosas, llamado V-Traid, fue abierto por el 80% de los usuarios. Pero cuando Chat GPT trabajó por sí solo, su alcance de apertura fue del 30% y el 50%.

OpenAI, ChatGPT. Foto: EFE OpenAI, ChatGPT. Foto: EFE 

Según el líder de la investigación, es “alarmante” la capacidad hacker en solitario del sistema de OpenIA. Y que los resultados demuestran la importancia de aplicar medidas de prevención y de seguridad informática.

Por otro lado, el equipo descubrió que la inteligencia artificial usada en los chatbots es eficaz para detectar fraudes en correos sospechosos. Tanto Chat GTP como Bard pudieron detectar las ciberestafas, pero tuvieron más dificultad para descifrarlas en los mail redactados con bots engañosos, como V-Triad.

Notas relacionadas