Con cada mes que pasa, los deepfakes se están volviendo más realistas, y las estafas cripto son cada vez más ingeniosas. Recientemente, uno de estos casos terminó con la pérdida de más de $2 millones cuando los hackers se hicieron pasar por el fundador del proyecto Plasma. Utilizaron una grabación de audio generada por IA falsa y convencieron a la víctima de instalar malware. Todo parecía tan plausible que incluso un usuario experimentado fue atrapado.
Y esto ya no es poco común. La inteligencia artificial hace que el fraude no solo sea más tecnológicamente avanzado, sino también accesible, incluso para aquellos que anteriormente no podían programar o llevar a cabo esquemas complejos. Hoy en día, cualquiera puede crear un sitio web de phishing "inteligente" o un virus con una simple solicitud a un chat de IA.
Los deepfakes se han vuelto especialmente peligrosos. Solo en el primer trimestre de 2025, causaron alrededor de $200 millones en daños a la industria cripto. La disponibilidad de herramientas de IA y el bajo umbral técnico hacen que estos ataques sean generalizados: solo es necesario saber de quién es la voz que se va a falsificar y qué decir.
Pero no son solo los deepfakes los que son un problema. Recientemente, los expertos en seguridad se encontraron con un malware llamado DRENADOR DE BILLETERA DE SIGILO MEJORADO, supuestamente creado completamente por IA. El código era complejo y efectivo, pero el nombre era primitivo, lo que indica el bajo nivel de los propios criminales. Resulta que incluso un hacker inexperto ahora puede causar daños serios solo por usar la IA correctamente.
El lado positivo es que la protección también está en desarrollo. En uno de los concursos de hackers, se reveló que incluso los agentes de IA más avanzados tienen vulnerabilidades. Más de un millón de intentos de hackeo revelaron decenas de miles de violaciones, incluidos filtraciones de datos. Esto significa que mientras tengamos un equipo de personas que entiendan la ciberseguridad, tenemos una oportunidad.
En el caso de Plasma, el ataque no habría funcionado si la víctima no hubiera ignorado los mecanismos de defensa. Esto prueba una vez más que la tecnología es importante, pero la conciencia y la vigilancia son más importantes. Son las personas las que siguen siendo la principal barrera entre la seguridad y la amenaza cibernética.
Así que esa es la pregunta que quiero hacerte:
Si una IA puede falsificar la voz de cualquier persona e incluso escribir código malicioso, ¿cómo podemos estar seguros de que la persona al otro lado de la línea es real?