La inteligencia artificial ha reconfigurado muchas industrias. Y cada vez que la IA se introduce, surge la pregunta '¿sustituirá a los humanos?'. En la industria de las criptomonedas, ya se pueden ver sus efectos, desde bots de trading impulsados por IA hasta sistemas de trading de tipo agente.

Sin embargo, el CEO de Nansen, Alex Subanebic, señala que la IA no es un sustituto del juicio humano, sino un refuerzo. En una entrevista exclusiva con BeInCrypto, el CEO Subanebic analizó detalladamente esta transformación y ofreció perspectivas sobre el futuro del análisis impulsado por IA.

Controversia sobre la IA en la industria de las criptomonedas: el CEO de Nansen dice 'deberíamos complementar a los humanos con IA'.

Nansen anunció el 21 de enero el lanzamiento de funciones de trading en cadena con IA. Esto representa un gran punto de inflexión hacia un producto que integra insights y ejecución desde una plataforma de análisis pura.

Con una nueva función construida sobre nuestra base de datos de más de 500 millones de wallets etiquetadas, los usuarios pueden gestionar su portafolio, interpretar señales en cadena en tiempo real y recibir propuestas respaldadas por datos. Además, ahora es posible realizar transacciones directamente en Nansen.

「Nansen AI, entrenada y evaluada con el conjunto de datos único de Nansen, supera consistentemente a los principales productos de IA en los benchmarks diseñados para el análisis en cadena y casos de transacciones. Esto proporciona a los traders e inversores información más precisa y directamente relacionada con las transacciones reales, convirtiendo la inteligencia de agente en una ventaja práctica en el trading」 ― Contenido del anuncio.

Además, este lanzamiento realiza un nuevo enfoque que Nansen llama 'Vibe Trading'. Esto se describe como una forma de lograr la transición de insights a ejecución en cadena de manera intuitiva sin cambiar de herramientas.

A medida que se amplía el ámbito de las tareas analíticas que asume la IA, se cuestiona el papel de los analistas humanos. El CEO Subanebic afirmó que la IA es superior en el procesamiento de información a gran escala, en el análisis de cientos de millones de wallets y en el seguimiento del flujo de fondos entre cadenas, así como en la identificación de patrones que son difíciles de detectar para los humanos.

Sin embargo, enfatizó que la decisión final recae en el usuario, quien formula las preguntas adecuadas y otorga aprobación a las acciones.

「Las fronteras no están fijas. A medida que la capacidad de inferencia de la IA mejora y los datos en cadena se enriquecen, las fronteras también cambiarán. Sin embargo, el objetivo no es reemplazar el juicio. Se trata de liberar a los humanos de tareas simples para que puedan concentrarse en decisiones más complejas」 ― Dijo.

Condiciones para un análisis confiable en el mercado de criptomonedas impulsado por IA.

Según la investigación, hay indicios de que una mayor dependencia de las herramientas de IA podría disminuir la capacidad de pensamiento crítico. Especialmente en el mercado de criptomonedas, donde es necesario superar fluctuaciones extremas y activos de alto riesgo, su importancia es aún mayor.

Sin embargo, el CEO Subanebic presentó una perspectiva diferente. Dijo que una 'IA excelente' puede sacar a la luz más señales, y los usuarios tienden a pensar más críticamente sobre los aspectos de ejecución.

「El riesgo esencial es que todos sigan la misma estrategia. Esto no es exclusivo de la IA, sino que también es común entre los analistas humanos. La solución es la diversidad: es necesario diversificar modelos, estrategias e interpretaciones de datos. Nuestra empresa busca construir herramientas que permitan decisiones individuales en lugar de seguir a un único oráculo」 ― Dijo.

También se enfatizó que ni la IA ni los analistas humanos deben ser confiables incondicionalmente. Según él, lo importante es si el análisis es consistentemente efectivo a lo largo del tiempo.

Sobre cómo medir la confiabilidad en un mercado enfocado en la IA, el CEO explicó lo siguiente.

「La confiabilidad en la era de la IA se determina no por nombres o número de seguidores en redes sociales, sino por mediciones y repeticiones. La IA puede probar repetidamente a una escala que los humanos no podrían, lo que es una fortaleza de la IA」.

La forma más sencilla de evaluación se considera práctica, y se afirma que los usuarios pueden plantear preguntas importantes para ellos mismos y juzgar si las respuestas tienen fundamentos sólidos, utilidad y viabilidad. Se dice que los usuarios tienden a juzgar la calidad de manera efectiva.

「A largo plazo, la confianza se trasladará de analistas individuales a plataformas que puedan demostrar constantemente que proporcionan señales y reducen el ruido. También nosotros buscamos ese estándar」 ― Comentario del CEO Subanebic a BeInCrypto.

Aunque la IA puede analizar datos en cadena, las creencias humanas son insustituibles.

Los analistas humanos toman decisiones de trading basadas en la interpretación de juicios y contextos, integrando múltiples señales como indicadores en cadena y datos de precios. Por otro lado, la IA se basa en patrones aprendidos de datos anteriores.

Cuando se le preguntó si la IA podría tener un juicio similar en el futuro, el CEO Subanebic respondió: 'aunque es diferente del sentido humano, probablemente sea posible'.

Se detalló que la IA requiere una capacidad de inferencia contextual única. Él cree que la IA puede integrar datos en vivo con variables tan amplias que los humanos no pueden rastrear y hacer juicios más efectivos.

「Para lograr esto, se necesitan mejores datos de entrenamiento, ventanas de contexto más largas y bucles de retroalimentación de operaciones reales. Ya hay señales de esto en nuestros agentes. No solo están reconociendo patrones, sino que están inferiendo datos de acción en tiempo real. Esto es una forma inicial de juicio, y se volverá más agudo a medida que evolucione el modelo y acumule aprendizajes de millones de transacciones en cadena」 ― Dijo.

Sin embargo, se señaló que hay elementos en el análisis en cadena que la IA nunca podrá reemplazar por completo. Eso es hacerse responsable de la toma de decisiones bajo incertidumbre.

El CEO Subanebic comentó que la IA puede presentar patrones, probabilidades y escenarios, y evaluar lo que ha sucedido y lo que podría suceder a partir de los datos, pero no puede asumir la responsabilidad de las decisiones relacionadas con la tolerancia al riesgo, valores personales y consecuencias adversas.

「El análisis en cadena finalmente influye en el comportamiento del mundo real: inversión de capital, apoyo a equipos, declaraciones públicas de intenciones. Se necesita una entidad responsable para esas decisiones. Ese es el papel de los humanos」 ― Este ejecutivo.

Él enfatizó que, independientemente de cuán avanzados se vuelvan los modelos de IA, la confiabilidad en términos de juicio, responsabilidad y creencias seguirá estando en manos humanas. La IA puede proporcionar información para la toma de decisiones, pero al final, la decisión y la responsabilidad por los resultados son humanas.

「Decidir en qué centrarse. La IA puede decirte qué está sucediendo en la cadena, pero no puede decirte qué es lo más importante. Eso es sentido, creencia y es humano」, comentó el Sr. Subanebic.

En última instancia, el Sr. Subanebic considera que la IA no es un tomador de decisiones, sino un poderoso asistente. La IA puede presentar patrones, probabilidades e información a una escala sin precedentes, pero la toma de decisiones sobre riesgos, responsabilidad y creencias permanece en manos humanas.

A medida que el análisis impulsado por IA se vuelve común, la plataforma que pueda demostrar continuamente la calidad de esos insights será la que gane confianza. Mientras tanto, los humanos seguirán teniendo el papel de juzgar lo que es importante y asumir la responsabilidad por los resultados.